Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3083
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Um störende Parameter in Funktionen umzuwandeln, können Sie die Ausgangswerte von RF oder eines beliebigen Basisalgorithmus verwenden, wie im Artikel beschrieben. Für die völlig Uninformierten: Ersetzen Sie die Werte der ausgewählten Parameter durch Funktionswerte. Dann wird die lineare Regression (oder ein beliebiger anderer Algorithmus) der Meta-Lerner sein, durch den der Verschmutzungseffekt bewertet wird. Warum und wie das alles funktioniert - lernen Sie die Mathematik.
Um es zu verstehen, genügt es, mit dem Kopf zu denken. Aber Sanych wird wieder anfangen, Unsinn zu machen, weil er nur etwas sagen will, ohne zu denken. Sanych, dein Mangel an Verständnis ist so groß, dass du die RF-Parameter als eine Art Beweis anführst, was absolut unglaublich ist. Ich habe Ihnen schon dreimal geschrieben, dass Sie die RF vergessen sollen. Zum letzten Mal: Studieren Sie das Thema, dann schimpfen Sie. Sonst glauben Ihnen dieselben Unwissenden blindlings.
Und antworten Sie nicht auf meine Beiträge mit dem Aplomb eines Besserwissers (was ärgerlich ist), denn Sie wissen nichts, und es sieht aus wie das Geschwätz eines Ptuschnikers.
Alle Quellenangaben sind in dem Artikel enthalten. Müssen Sie wie blinde Kätzchen bei jedem Wort angestupst werden? Oder seid ihr doch schon erwachsen?
Ich habe über den Artikel diskutiert, nicht über die Zahl in Ihrer Tasche, von der es, wie ich glaube, laut der von Ihnen angeführten Literaturliste eine Menge gibt.
Wenn Sie die Diskussion über den von Ihnen geposteten Artikel unbedingt fortsetzen wollen, bin ich gerne bereit, sie fortzusetzen, aber: nur den Artikel und nur meine Argumente, und in einer Form, die prohibitive Unhöflichkeit Ihrerseits ausschließt.
In dem Artikel ging es um RF. Ich habe keine anderen Funktionen gesehen, die neben der Anpassung selbst auch den Anpassungsfehler berechnen würden. Seien Sie also bitte so freundlich, den Text des Artikels zu nehmen und ein konkretes Zitat zu liefern, das diese Idee widerlegt.
Ich habe eine Frage an Experten für maschinelles Lernen. Wenn ich die Daten eines Charakters zum Trainieren, die Daten eines anderen Charakters zur Validierung und die Daten eines dritten Charakters zum Testen verwende, ist das eine gute Praxis?
Außerdem erhalte ich die folgenden Ergebnisse aus den Testdaten: grüne Zellen sind sehr gut, gelbe Zellen sind gut, rote Zellen sind durchschnittlich.
Und noch eine Frage zur Modifizierung der Daten für das Training des Modells. Mir ist aufgefallen, dass das Modell Schwierigkeiten hat, Extrema zu finden, in meinem Fall Werte über 60 und Werte unter 40.
Ich finde also Werte über 60 und unter 40 in den Trainingsdaten, die ich zusätzlich zu den Trainingsdaten hinzufüge, bevor ich sie in das Modell einspeise. Die Frage ist also: Kann ich die Genauigkeit des Modells verbessern, indem ich die Trainingsdaten mit Informationen über Extrema erhöhe?
Wenn Sie den Unterschied zwischen den Instrumenten nicht erkennen können, können Sie es. Oder man zwingt sie in diesen Zustand, indem man den Unterschied subtrahiert.
Im Moment sieht es aber so aus.
Bevor ich jedoch diese Idee aufgebe, werde ich sehen, was ich erhalte, wenn ich das Modell trainiere, indem ich verschiedene Instrumente (Symbole) miteinander mische und dann Daten erstelle, die nur Extremwerte enthalten.
Im Moment sieht es in der Tat so aus.
Aber bevor ich diese Idee aufgebe, werde ich sehen, was dabei herauskommt, wenn ich das Modell trainiere, indem ich verschiedene Instrumente (Zeichen) miteinander mische und dann Daten erstelle, die nur Extremwerte enthalten.
Wenn Sie den Unterschied zwischen den Instrumenten nicht erkennen können, können Sie es. Oder man zwingt sie in diesen Zustand, indem man die Differenz subtrahiert.
Das Üben mit verschiedenen Symbolen zum Trainieren, Validieren und Testen ermöglicht es Ihnen heutzutage, die Genauigkeit der Vorhersage zu verbessern. Als Pluspunkt für diese Praxis kann ich erwähnen, dass es keine Begrenzung für die Datenmenge gibt, Sie können so viele Daten eingeben, wie Sie für die Validierung oder das Training benötigen.
Wenn Sie mit einem dritten Symbol testen, können Sie sofort sehen, ob das Modell in der Lage ist, universelle Muster zu finden, anstatt sich in engen, für ein bestimmtes Symbol spezifischen Marktereignissen zu verfangen.
Die Praxis mit verschiedenen Symbolen für Training, Validierung und Test ermöglicht es Ihnen heutzutage, die Genauigkeit der Vorhersage zu verbessern. Als Pluspunkt für diese Praxis kann ich erwähnen, dass es keine Begrenzung für die Größe der Daten gibt, Sie können so viele Daten eingeben, wie Sie wollen oder für die Validierung oder das Training benötigen.
Wenn Sie mit dem dritten Symbol testen, können Sie sofort sehen, ob das Modell in der Lage ist, universelle Muster zu finden, anstatt von engen Marktereignissen gesteuert zu werden.
seq = remove_repeating_values(seq, 5)
Soweit ich weiß, neigen solche gleichen Werte dazu, im Falle eines stagnierenden Marktes mehrere Zehner zu erreichen. Das behindert meiner Meinung nach das Training des Modells.In der Regel werden die Werte bei den Modellen nach dem Zufallsprinzip ermittelt und nicht in einer Reihe.
Ja,
aber die große Zahl gleicher Werte lässt mich an der Gesamtqualität der Daten zweifeln.
Beispiel: seq = ([5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5]) = [5,5,5,5,5,5,5,5][5]; [5,5,5,5,5,5,5,5][5]; [5,5,5,5,5,5,5][5] ....
Ich sehe keinen Sinn darin, das Modell mit solchen Trainingsdaten zu füttern;
Ich siebe also immer noch alle Daten aus, die nicht eindeutig sind.
inputs_unique, indices = np.unique(inputs, axis=0, return_index=True) outputs_unique = outputs[indices]
Ich könnte mich irren, aber ich halte es für falsch, das Modell auch mit den folgenden Trainingsdaten zu füttern:
[1,2,3,4,5] [5];
[1,2,3,4,5] [6];
[1,2,3,4,5] [7];
[1,2,3,4,5] [8];
...
Hallo zusammen. Ich versuche, Expert Advisors zu trainieren, die aus einer großen Serie von Artikeln über neuronale Netze auf dieser Website stammen. Ich habe den Eindruck, dass sie nicht trainierbar sind. Ich habe versucht, dem Autor unter den Artikeln Fragen zu stellen, aber leider beantwortet er sie nicht praktisch...(
Daher eine Frage an die Forumsmitglieder - bitte sagen Sie mir, wie viel man ein neuronales Netzwerk trainieren muss, damit es anfängt, ein (nicht zufälliges) Ergebnis zu liefern?
Ich habe alle EAs von Artikel 27 bis zum letzten ausprobiert - das Ergebnis ist das gleiche - zufällig. Ich ging von 300 bis 1000 Epochen des Trainings, wie vom Autor angegeben. Wenn der Expert Advisor ist nur mit Iterationen, habe ich von 100 000 bis 20 000 000 Iterationen und so weiter 2-3 Ansätze, noch zufällig.
Wie viel sollte trainiert werden? Wie groß ist eine ausreichende Trainingsstichprobe (wenn sie vorab erstellt wird)?
PS: Einfache Informationen über neuronale Netze in google lesen, im Allgemeinen mit neuronalen Netzen vertraut sind. Alle schreiben von 100-200 Epochen und es sollte schon ein Ergebnis geben (auf Bildern, Zahlen, Klassifikationen).