Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 111

 
Mihail Marchukajtes:
Und Sie versuchen weiterhin, den Markt für Minuten in 5 Jahren einzudämmen?????? Diese 71 Beobachtungen, zwei Wochen des Handels auf 5 Minuten, wenn alles...... Und nur kaufen. Also los, mach es..... Oder sind Sie entkräftet?
Wovon redet er da... Das ist verrückt.
 
Dr.Trader:

Wie ich bereits sagte, ist diese Kennzahl nutzlos.

Die Daten werden nach dem Zufallsprinzip in zwei etwa gleich große Teile aufgeteilt, dann wird das Modell nur für den ersten Teil trainiert und für beide Teile gleichzeitig getestet. Eine Generalisierbarkeit von ~75% bedeutet, dass das Modell am Ende 75% aller Beispiele in der Datei richtig vorhersagt.
Es gibt mehrere Möglichkeiten, wie das Modell 75 % erreichen kann:
1) Das Modell wird auf 100 % Genauigkeit bei den Trainingsdaten trainiert und versagt bei den neuen Daten im zweiten Teil der Datei, wo es 50 % erhält (das entspricht dem Werfen einer Münze). Der Durchschnitt würde genau 75 % betragen. Dies ist eine sehr schlechte Entwicklung und wird sich im Handel negativ auswirken.
2) Das Modell wurde mit einer Genauigkeit von 75 % für die Trainingsdaten trainiert und zeigte dieselbe Genauigkeit von 75 % für die Testdaten, was wiederum einem Durchschnittswert von 75 % entspricht. In dieser Situation besteht im besten Fall die Möglichkeit, etwas zu verdienen.
3) Eine beliebige Zwischenoption zwischen diesen beiden Möglichkeiten.

Ihre Option ist wahrscheinlich eher die erste. Man muss schon sehr viel Glück haben, um mit solchen Ergebnissen zu handeln. Ich gehe davon aus, dass Sie Ihre Einlage nicht nur dank des Indikators verloren haben, der als Hauptsignal dient (Sequent, oder was auch immer). Ich denke, ein Expert Advisor, der auf diesem einen Indikator basiert, wird genauso gute Ergebnisse liefern wie der Indikator + jPrediction.

Woher wissen Sie, wie Sie die Verallgemeinerungsfähigkeit berechnen können? Reshetov weiß es, ich denke, die Berechnung basiert ausschließlich auf Testdaten, wie er bereits sagte...... Wenn die klassischen Sequenzen funktionieren würden, würde ich den Prädiktor nicht verwenden, aber leider... Es ist so anstrengend wie alles andere. Durch die Hinzufügung des Klassifizierers wird sie jedoch deutlich verbessert. Ich werde noch einmal schreiben, dass 71 Beobachtungen die Arbeit von TS für vierzehn Tage auf 5 Minuten ist. Dies ist ein durchaus akzeptabler Abstand für diesen Zeitraum. Ich bin es nicht gewohnt, dies ein halbes Jahr oder länger zu tun. Ich habe 2 Wochen lang trainiert, einen Tag verdient und war fertig, während du immer noch auf der Suche nach dem Gral bist. Und ja, ich trainiere jeden Tag Modelle. Morgens. Das Gute daran ist, dass die Optimierungszeit jetzt SEHR günstig ist.....
 
mytarmailS:
Wovon redet er... Das ist ein Haufen Unsinn.
Nun, was verstehen Sie nicht???? Oder liegt es jenseits Ihres Verständnisses????
 
Mihail Marchukajtes:
Nun, was verstehen Sie nicht???? Oder liegt es jenseits Ihres Verständnisses????

Ich frage Sie, wie Sie die Gesamtkapazität messen, und Sie erzählen mir etwas von jahrelanger Geschichte und anderem Blödsinn...

Ich kann allgemeine Fähigkeiten nicht auf die eine Art messen und Sie können sie nicht auf eine andere Art messen, aber Sie haben keine Ahnung, wie man sie messen kann, alles, was Sie tun können, ist, die Zahlen injPrediction nachzuschlagen, ohne die geringste Ahnung zu haben, woher und wie sie kommen, und wenn sie anfangen, Ihnen spezifische Fragen zu stellen, fangen Sie an, Unsinn über die Jahre der Geschichte usw. zu erzählen... Hören Sie auf! Bitte...

 
mytarmailS:

Ich frage Sie, wie Sie die Gesamtkapazität messen, und Sie erzählen mir etwas von jahrelanger Geschichte und anderem Blödsinn...

Ich kann allgemeine Fähigkeiten nicht auf die eine Art messen und Sie können sie nicht auf eine andere Art messen, aber Sie haben keine Ahnung, wie man sie messen kann, alles, was Sie tun können, ist, die Zahlen in derjPrediction nachzuschlagen, ohne die geringste Ahnung zu haben, woher und wie sie kommen, und wenn man Ihnen dann konkrete Fragen stellt, fangen Sie an, Unsinn über Jahre der Geschichte usw. zu erzählen... Bitte...

Ich habe vielleicht schon erklärt, dass ich den Prädiktor von Reschetow verwende, wie er die Verallgemeinerbarkeit misst, das sind Fragen für Juri. Fragen Sie ihn. Er hat zwar die Formeln genannt, und ich erinnere mich allgemein an sie, aber ich verstehe nicht, warum Sie mich fragen. Ich bin nur ein Nutzer seines Programms und nicht mehr.....
 
Mihail Marchukajtes:
Ich denke, die Berechnung basiert nur auf Testdaten.

Wenn das der Fall ist, bin ich froh, das ist viel besser.

In jedem Fall zeigt der Fronttest wesentlich bessere Ergebnisse. Ich habe Ihre Datei in zwei Teile aufgeteilt (ohne Mischen, nur in der Reihenfolge), der erste Teil hat 50 Zeilen, der zweite 19. jPrediction hat also keinen Zugriff auf die Beispiele aus der zweiten Datei, und es werden wirklich neue Daten für das Modell sein.

In der zweiten Datei gab JPrediction schließlich nur in 9 Fällen eine Antwort. Richtig in 5 Fällen, falsch in 4. Die Genauigkeit liegt bei etwa 50 %, was kein gutes Ergebnis ist.

Dateien:
 
Dr. Trader:

Wenn das der Fall ist, bin ich froh, das ist viel besser.

In jedem Fall zeigt der Fronttest ein viel besseres Ergebnis. Ich habe Ihre Datei in 2 Teile aufgeteilt (ohne Mischen, nur in der Reihenfolge), der erste Teil hat 50 Zeilen, der zweite 19. jPrediction hat also keinen Zugriff auf die Beispiele aus der zweiten Datei, und es werden wirklich neue Daten für das Modell sein.

In der zweiten Datei gab JPrediction schließlich nur in 9 Fällen eine Antwort. Richtig in 5 Fällen, falsch in 4. Die Genauigkeit liegt bei etwa 50 %, was kein gutes Ergebnis ist.

Einverstanden. Die Eingabedaten müssen bearbeitet werden.....
 
Dr.Trader:

Wenn das der Fall ist, bin ich froh, das ist viel besser.

Auf jeden Fall zeigt der Fronttest viel bessere Ergebnisse. Teilen Sie Ihre Datei in zwei Teile auf (nicht mischen, nur in der Reihenfolge), der erste Teil hat 50 Zeilen, der zweite 19. jPrediction hat also keinen Zugriff auf die Beispiele aus der zweiten Datei, und es werden wirklich neue Daten für das Modell sein.

In der zweiten Datei gab JPrediction nur in 9 Fällen eine Antwort. Richtig in 5 Fällen, falsch in 4. Die Genauigkeit liegt bei etwa 50 %, dieses Ergebnis ist nicht gut.

19, 50, der mehr ist. Nehmen Sie ein beliebiges Beispiel aus einer Datenbank mit mindestens Hunderten von Zeilen.

Für mich ist diese Software nicht geeignet, schon allein deshalb, weil ich selbst lieber die Parameter ab greifen und die Daten aufschlüsseln würde. Aber als Einstieg wäre es sicher interessant.

 

Reschetow!

Mein Angebot steht noch.

 
mytarmailS:

Hallo Juri!

Es gibt Fragen )) über die sequentielle Suche ...

Nehmen wir an, wir haben 10 Prädiktoren

1, 2, 3, 4, 5, 6, 7, 8, 9, 10

die grüne Gruppe ist die Gruppe der Prädiktoren, die die beste Verallgemeinerungsfähigkeit gezeigt hat, genau zu dieser Gruppe werden andere Prädiktoren N+1 hinzugefügt

dierote Gruppe, das ist die Gruppe, die etwas schlechter ist als die grüne unddie nicht an den Tests teilnehmen wird, alle Tests sind bereits auf die grüne Gruppe ausgerichtet

Frage: was ist, wenn sich nach allen Versuchen mit anderen N+1 Prädiktoren nacheinander herausstellt, dass die rote Gruppe im Endergebnis eine größere Generalisierungsfähigkeit hat, ist das auch recht realistisch, oder verstehe ich etwas falsch ???? Bitte klären Sie das.

Wenn Sie eine eindeutige Antwort erhalten wollen, ohne sich die Daten und Algorithmen anzuschauen, gehen Sie besser zu SanSanych Fomenko, denn er wird Sie mit einem klugen Gesicht mit "präzisen und wertvollen" Anweisungen zu jedem Thema ermahnen, unabhängig von seiner Mehrdeutigkeit.

Und wenn Sie eine genauere Antwort wollen, dann machen Sie einen A/B-Test, d. h. in einem Fall versuchen Sie, Rot mit Schwarz an Grün zu befestigen, und im anderen Fall nur Schwarz. Diejenige Option, die die beste Verallgemeinerbarkeit der Versuchsergebnisse ergibt, ist die richtige für Ihre Aufgabe.

Der Punkt ist, dass die Ergebnisse der Erfahrung immer das Kriterium der Wahrheit sind.

Ich habe heute zum Beispiel die Datenzentrierung für jPrediction getestet. Die Ergebnisse waren entweder miserabel oder etwas besser bei verschiedenen Proben. Beim Backpropagation-Grid führt die Zentrierung jedoch zu einer spürbaren Verbesserung. Musste die lineare Normalisierung verlassen.

Und wenn ich keine A/B-Tests durchführe, sondern stattdessen "fertiges Wissen" aus einem kleinen Buch oder einer Vorlesung über maschinelles Lernen beziehe oder irgendeinen Besserwisser frage, würde ich die Antwort erhalten, dass die Zentrierung angeblich "besser" ist als die lineare Normalisierung. Die Erfahrung zeigt jedoch, dass dies nicht eindeutig für alle Algorithmen gilt.

Das ist die Art von Kuchen.