Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 111
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Und Sie versuchen weiterhin, den Markt für Minuten in 5 Jahren einzudämmen?????? Diese 71 Beobachtungen, zwei Wochen des Handels auf 5 Minuten, wenn alles...... Und nur kaufen. Also los, mach es..... Oder sind Sie entkräftet?
Wie ich bereits sagte, ist diese Kennzahl nutzlos.
Die Daten werden nach dem Zufallsprinzip in zwei etwa gleich große Teile aufgeteilt, dann wird das Modell nur für den ersten Teil trainiert und für beide Teile gleichzeitig getestet. Eine Generalisierbarkeit von ~75% bedeutet, dass das Modell am Ende 75% aller Beispiele in der Datei richtig vorhersagt.
Es gibt mehrere Möglichkeiten, wie das Modell 75 % erreichen kann:
1) Das Modell wird auf 100 % Genauigkeit bei den Trainingsdaten trainiert und versagt bei den neuen Daten im zweiten Teil der Datei, wo es 50 % erhält (das entspricht dem Werfen einer Münze). Der Durchschnitt würde genau 75 % betragen. Dies ist eine sehr schlechte Entwicklung und wird sich im Handel negativ auswirken.
2) Das Modell wurde mit einer Genauigkeit von 75 % für die Trainingsdaten trainiert und zeigte dieselbe Genauigkeit von 75 % für die Testdaten, was wiederum einem Durchschnittswert von 75 % entspricht. In dieser Situation besteht im besten Fall die Möglichkeit, etwas zu verdienen.
3) Eine beliebige Zwischenoption zwischen diesen beiden Möglichkeiten.
Ihre Option ist wahrscheinlich eher die erste. Man muss schon sehr viel Glück haben, um mit solchen Ergebnissen zu handeln. Ich gehe davon aus, dass Sie Ihre Einlage nicht nur dank des Indikators verloren haben, der als Hauptsignal dient (Sequent, oder was auch immer). Ich denke, ein Expert Advisor, der auf diesem einen Indikator basiert, wird genauso gute Ergebnisse liefern wie der Indikator + jPrediction.
Wovon redet er... Das ist ein Haufen Unsinn.
Nun, was verstehen Sie nicht???? Oder liegt es jenseits Ihres Verständnisses????
Ich frage Sie, wie Sie die Gesamtkapazität messen, und Sie erzählen mir etwas von jahrelanger Geschichte und anderem Blödsinn...
Ich kann allgemeine Fähigkeiten nicht auf die eine Art messen und Sie können sie nicht auf eine andere Art messen, aber Sie haben keine Ahnung, wie man sie messen kann, alles, was Sie tun können, ist, die Zahlen injPrediction nachzuschlagen, ohne die geringste Ahnung zu haben, woher und wie sie kommen, und wenn sie anfangen, Ihnen spezifische Fragen zu stellen, fangen Sie an, Unsinn über die Jahre der Geschichte usw. zu erzählen... Hören Sie auf! Bitte...
Ich frage Sie, wie Sie die Gesamtkapazität messen, und Sie erzählen mir etwas von jahrelanger Geschichte und anderem Blödsinn...
Ich kann allgemeine Fähigkeiten nicht auf die eine Art messen und Sie können sie nicht auf eine andere Art messen, aber Sie haben keine Ahnung, wie man sie messen kann, alles, was Sie tun können, ist, die Zahlen in derjPrediction nachzuschlagen, ohne die geringste Ahnung zu haben, woher und wie sie kommen, und wenn man Ihnen dann konkrete Fragen stellt, fangen Sie an, Unsinn über Jahre der Geschichte usw. zu erzählen... Bitte...
Ich denke, die Berechnung basiert nur auf Testdaten.
Wenn das der Fall ist, bin ich froh, das ist viel besser.
In jedem Fall zeigt der Fronttest wesentlich bessere Ergebnisse. Ich habe Ihre Datei in zwei Teile aufgeteilt (ohne Mischen, nur in der Reihenfolge), der erste Teil hat 50 Zeilen, der zweite 19. jPrediction hat also keinen Zugriff auf die Beispiele aus der zweiten Datei, und es werden wirklich neue Daten für das Modell sein.
In der zweiten Datei gab JPrediction schließlich nur in 9 Fällen eine Antwort. Richtig in 5 Fällen, falsch in 4. Die Genauigkeit liegt bei etwa 50 %, was kein gutes Ergebnis ist.
Wenn das der Fall ist, bin ich froh, das ist viel besser.
In jedem Fall zeigt der Fronttest ein viel besseres Ergebnis. Ich habe Ihre Datei in 2 Teile aufgeteilt (ohne Mischen, nur in der Reihenfolge), der erste Teil hat 50 Zeilen, der zweite 19. jPrediction hat also keinen Zugriff auf die Beispiele aus der zweiten Datei, und es werden wirklich neue Daten für das Modell sein.
In der zweiten Datei gab JPrediction schließlich nur in 9 Fällen eine Antwort. Richtig in 5 Fällen, falsch in 4. Die Genauigkeit liegt bei etwa 50 %, was kein gutes Ergebnis ist.
Wenn das der Fall ist, bin ich froh, das ist viel besser.
Auf jeden Fall zeigt der Fronttest viel bessere Ergebnisse. Teilen Sie Ihre Datei in zwei Teile auf (nicht mischen, nur in der Reihenfolge), der erste Teil hat 50 Zeilen, der zweite 19. jPrediction hat also keinen Zugriff auf die Beispiele aus der zweiten Datei, und es werden wirklich neue Daten für das Modell sein.
In der zweiten Datei gab JPrediction nur in 9 Fällen eine Antwort. Richtig in 5 Fällen, falsch in 4. Die Genauigkeit liegt bei etwa 50 %, dieses Ergebnis ist nicht gut.
19, 50, der mehr ist. Nehmen Sie ein beliebiges Beispiel aus einer Datenbank mit mindestens Hunderten von Zeilen.
Für mich ist diese Software nicht geeignet, schon allein deshalb, weil ich selbst lieber die Parameter ab greifen und die Daten aufschlüsseln würde. Aber als Einstieg wäre es sicher interessant.
Reschetow!
Mein Angebot steht noch.
Hallo Juri!
Es gibt Fragen )) über die sequentielle Suche ...
Nehmen wir an, wir haben 10 Prädiktoren
1, 2, 3, 4, 5, 6, 7, 8, 9, 10
die grüne Gruppe ist die Gruppe der Prädiktoren, die die beste Verallgemeinerungsfähigkeit gezeigt hat, genau zu dieser Gruppe werden andere Prädiktoren N+1 hinzugefügt
dierote Gruppe, das ist die Gruppe, die etwas schlechter ist als die grüne unddie nicht an den Tests teilnehmen wird, alle Tests sind bereits auf die grüne Gruppe ausgerichtet
Frage: was ist, wenn sich nach allen Versuchen mit anderen N+1 Prädiktoren nacheinander herausstellt, dass die rote Gruppe im Endergebnis eine größere Generalisierungsfähigkeit hat, ist das auch recht realistisch, oder verstehe ich etwas falsch ???? Bitte klären Sie das.
Wenn Sie eine eindeutige Antwort erhalten wollen, ohne sich die Daten und Algorithmen anzuschauen, gehen Sie besser zu SanSanych Fomenko, denn er wird Sie mit einem klugen Gesicht mit "präzisen und wertvollen" Anweisungen zu jedem Thema ermahnen, unabhängig von seiner Mehrdeutigkeit.
Und wenn Sie eine genauere Antwort wollen, dann machen Sie einen A/B-Test, d. h. in einem Fall versuchen Sie, Rot mit Schwarz an Grün zu befestigen, und im anderen Fall nur Schwarz. Diejenige Option, die die beste Verallgemeinerbarkeit der Versuchsergebnisse ergibt, ist die richtige für Ihre Aufgabe.
Der Punkt ist, dass die Ergebnisse der Erfahrung immer das Kriterium der Wahrheit sind.
Ich habe heute zum Beispiel die Datenzentrierung für jPrediction getestet. Die Ergebnisse waren entweder miserabel oder etwas besser bei verschiedenen Proben. Beim Backpropagation-Grid führt die Zentrierung jedoch zu einer spürbaren Verbesserung. Musste die lineare Normalisierung verlassen.
Und wenn ich keine A/B-Tests durchführe, sondern stattdessen "fertiges Wissen" aus einem kleinen Buch oder einer Vorlesung über maschinelles Lernen beziehe oder irgendeinen Besserwisser frage, würde ich die Antwort erhalten, dass die Zentrierung angeblich "besser" ist als die lineare Normalisierung. Die Erfahrung zeigt jedoch, dass dies nicht eindeutig für alle Algorithmen gilt.
Das ist die Art von Kuchen.