Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2611

 
Renat Akhtyamov #:

99% Wahrscheinlichkeit oder 0,99 ohne Prozentsatz

Sie sind ein furchterregender Mann!

Eine solche Wahrscheinlichkeit zu haben und mit einfachen Sterblichen zu kommunizieren...? - das ist nicht echt...

 
Serqey Nikitin #:

Sie sind ein furchterregender Mann!

Eine solche Möglichkeit zu haben und mit einfachen Sterblichen zu kommunizieren...? - das ist nicht echt...

come on ;)

Der Punkt ist, dass die meisten Händler, egal wie sehr sie sich anstrengen, am Ende gegenläufige Trends handeln.

die Verteilung der Volumina an der CME, die dynamisch online veröffentlicht werden, und das Verhalten der Preise zu beobachten

das wiederum sagt nur eines - der Preis ist gegen die meisten

gekauft - Preis runter und umgekehrt.

und so war es und so wird es immer sein

denn:

https://www.mql5.com/ru/forum/86386/page2605#comment_28636383

Машинное обучение в трейдинге: теория, практика, торговля и не только
Машинное обучение в трейдинге: теория, практика, торговля и не только
  • 2022.03.29
  • www.mql5.com
Добрый день всем, Знаю, что есть на форуме энтузиасты machine learning и статистики...
 

Es ist keine gute Idee, eine Strategie auf der Grundlage von Informationen aus dem CME zu entwickeln.

denn.

Sobald sie es bemerken, wissen sie, wie sie die falschen Informationen wegwerfen können.

Das habe ich auch schon gemacht ;)

 

Es handelt sich um eine Art Boosting, wie Alexej betonte

Verbesserung bei jeder Iteration, angesichts der Prüfungsstichprobe

Iteration: 0, R^2: 0.187883200953193
Iteration: 1, R^2: 0.23135332833695177
Iteration: 2, R^2: 0.5069635195005324
Iteration: 3, R^2: 0.6549692113098968
Iteration: 4, R^2: 0.49450581772674385
Iteration: 5, R^2: 0.727741771152099
Iteration: 6, R^2: 0.7155342473909062
Iteration: 7, R^2: 0.7577880020333465
Iteration: 8, R^2: 0.7519731839574526
Iteration: 9, R^2: 0.6484696911159258
Iteration: 10, R^2: 0.7919754252032625
Iteration: 11, R^2: 0.7434806103697286
Iteration: 12, R^2: 0.7829611167594436
Iteration: 13, R^2: 0.8423847977639594
Iteration: 14, R^2: 0.8755566220080022
Iteration: 15, R^2: 0.8073736447495541
Iteration: 16, R^2: 0.7756062175823373
Iteration: 17, R^2: 0.8767667338484959
Iteration: 18, R^2: 0.8658089653482818
Iteration: 19, R^2: 0.7976304450279426
Iteration: 20, R^2: 0.8335757510984808
Iteration: 21, R^2: 0.8236019726095158
Iteration: 22, R^2: 0.8590437311223307
Iteration: 23, R^2: 0.8425455355207566
Iteration: 24, R^2: 0.7897953478024325

Aber die Rückseite ist nicht gut (auf der linken Seite), aber manchmal ist es besser.

Es gibt viele Einstellungen, die ich nicht im Detail erläutern werde. Ich habe die Idee so gut ich konnte beschrieben.


 

wenn Sie 100 Iterationen abwarten


 
Maxim Dmitrievsky #:
Regelmäßigkeit impliziert Wiederholbarkeit. Sie sind nicht auf der Suche nach einem Muster, sondern nach einer passenden Validierung.
Ihr Algorithmus berücksichtigt nicht die Wiederholbarkeit der gefundenen Abhängigkeiten, d.h. er prüft nicht, ob es ein Muster gibt...

Hier ist ein Beispiel für Ihre Finger.
Sie haben eine Stichprobe von 100 Beobachtungen.
Sie können 100 Regeln erstellen, die ein Mal pro Vorhersage verwendet werden, oder eine Regel finden, die 100 Mal verwendet wird...

Auf welchen Ansatz sollten Sie setzen?

 
Maxim Dmitrievsky #:

Es handelt sich um eine Art Boosting, wie Alexej betonte

Verbesserung bei jeder Iteration, angesichts der Prüfungsstichprobe

Aber die Rückseite ist nicht gut (auf der linken Seite), aber manchmal ist es besser.

Es gibt viele Einstellungen, die ich nicht im Detail erläutern werde. Ich habe die Idee so gut ich konnte beschrieben.


Im Grunde muss ich nur 2 Diagramme (Gleichheit) betrachten, alle auf reinen OOS: 1 - erstes Modell, trainiert, ohne zusätzliche Funktionen, 2 - nach all diesen beschriebenen Verfahren. Sie können auch PF-, RF- und Winrate-Metriken verwenden. Und so ist es nicht klar, was ist die Wirkung, eine schöne Lernkurve ist, wie ich verstehe, auf IS?

 
Replikant_mih #:

Sie brauchen sich nur zwei Diagramme (Equity) anzusehen, die alle auf reinen OOS basieren: 1 - das erste Modell, trainiert, ohne jeglichen Schnickschnack, 2 - nach all diesen beschriebenen Verfahren. Sie können auch PF-, RF- und Winrate-Metriken verwenden. Und so ist es nicht klar, was ist die Wirkung, eine schöne Lernkurve ist, wie ich es verstehe, auf IS?

erstes Drittel des Diagramms - neue Daten, nicht am Lernen beteiligt

die Bilder mit 25 und 100 Iterationen zeigen eine Verbesserung bei 100, obwohl das Maximum bei 70 lag
 
Maxim Dmitrievsky #:

Es gibt eine Frage wie diese:

Es werden zwei Modelle verwendet. Der eine sagt voraus, ob man kaufen oder verkaufen soll, der andere, ob man handeln soll oder nicht.

Zuerst wird das erste Modell trainiert, dann schauen wir, wo es schlechte Vorhersagen macht, markieren diese Beispiele als "nicht handeln", die anderen guten als "handeln" und lehren dies dem zweiten Modell.

Das erste Modell wird nicht nur im Trainingsbereich, sondern auch im zusätzlichen Bereich getestet, und das zweite Modell wird in beiden Bereichen trainiert.

Wir wiederholen diesen Vorgang mehrmals und trainieren beide Modelle mit demselben Datensatz. Die Ergebnisse verbessern sich allmählich bei den Proben. Aber nicht immer bei der Kontrollprobe.

Parallel dazu führen wir ein Protokoll der schlechten Geschäfte für alle Durchgänge, in dem alle "schlechten" Geschäfte für "nicht zu handeln" gesammelt werden, um das zweite Modell zu trainieren und nach einem bestimmten Prinzip zu filtern: je mehr Kopien von schlechten Geschäften für alle Durchgänge, desto größer die Chance, sie als "nicht zu handeln" zu markieren.

Zum Beispiel wird für jedes Datum eine bestimmte Anzahl von schlechten Geschäften für alle Iterationen des Trainings akkumuliert. Wenn diese Anzahl einen Schwellenwert (Mittelwert, Durchschnitt) überschreitet, werden diese Geschäfte als "nicht handeln" markiert. Die restlichen Gewerke werden übersprungen, da es sonst möglich wäre, alle Gewerke auszuschließen, wenn es viele Trainingsiterationen gibt.

Mit dem Koeffizienten können Sie die Anzahl der Abschlüsse am Ausgang anpassen. Je niedriger er ist, desto mehr Abschlüsse werden herausgefiltert.

... An diesem Punkt bin ich schon müde zu schreiben ...

Wie kann eine solche Kombination von Modellen so verbessert werden, dass sie ihre Ergebnisse auf einer neuen unabhängigen Fläche verbessert?
Gibt es eine Philosophie, warum das funktionieren könnte? Abgesehen von der Tatsache, dass sich die Modelle bei jeder Umschulung natürlich verbessern (der Fehler sinkt), stellt sich die Frage, wie man die Anpassung loswerden kann.

Illustration. Das Diagramm ist in 3 Teile aufgeteilt. Der letzte trainiert das erste Modell, der vorletzte und letzte das zweite, das erste Drittel ist ein Prüfungsbeispiel. Natürlich wird der letzte Abschnitt der beste sein und das erste Drittel der schlechteste.

In diesem Fall wurden beide Modelle in 15 Iterationen unter Verwendung des Protokolls der schlechten Geschäfte neu trainiert.

klingt nach einer trivialen Multi-Label-Klassifizierung - wir sollten nicht die Kombination der Modelle, sondern die Kombination der Prädiktoren variieren -- vor allem die Aufteilung der Prädiktoren in Merkmale von Smart- und Retail-Aktionen... denn natürlich wird es gegenteilige Signale geben, aber OTF-Einstiegspunkte (für den Zusammenbruch von Niveaus) - es ist bereits Edge für die Modellauswahl (dtf oder otf Aktion im Markt)... imho

==========

oder ohne Markierung, sondern nur mit LSTM mit Vergiss-Gate-Möglichkeiten, so dass man nicht aus 2 Modellen getrennt filtern muss... aber das ist alles Geschmackssache...

ibm

Ich habe eine Regression bei IBM (Testdaten von Ende 2021 - dort ist der rechte Schwanz auf dem Preisdiagramm im Zug- und Testdiagramm dargestellt)... ... einfach durch Schließen...

vor

- ... Ich habe eine triviale MA - und es wird immer in einem Trend arbeiten (wie auch immer es funktioniert), nicht in flachen - smart & Einzelhandel Verhalten sollte zusätzlich gefiltert werden (und das Modell sollte neu gestaltet werden, um eingehende und ausgehende klassifizieren ...)

Dateien:
 
JeeyCi #:

sieht aus wie eine triviale Multi-Label-Klassifikation - nicht die Kombination der Modelle sollte variiert werden, sondern die Kombination der Prädiktoren - vor allem die Aufteilung der Prädiktoren in Merkmale von Smart- und Retail-Aktionen... denn natürlich wird es gegenteilige Signale geben, aber OTF-Einstiegspunkte (für den Zusammenbruch von Niveaus) - es ist bereits Edge für die Modellauswahl (dtf oder otf Aktion auf dem Markt)... imho

==========

oder ohne Markup, aber nur mit LSTM und Layern, so dass Sie nicht separat aus 2 Modellen filtern müssen... aber das ist alles Geschmackssache...

Ich habe eine Regression bei IBM (Testdaten von Ende 2021 - dort ist der rechte Schwanz auf dem Preisdiagramm im Zug- und Testdiagramm dargestellt)... ... einfach durch Schließen... - Wir haben ein triviales MA - und es wird immer in einem Trend funktionieren (egal wie), nicht in flachen - smart & Einzelhandel Verhalten sollte zusätzlich gefiltert werden (und das Modell sollte neu gestaltet werden, um eingehende und ausgehende klassifizieren ...)

Es handelt sich nicht um ein Multilabel, sondern um eine andere Bedeutung. Schlechte Signale iterativ ausschließen, diejenigen, die vom Hauptmodell gut vorhergesagt werden, auf dem gemeinsamen Stapel lassen, und das zweite Modell lernt, die schlechten von den guten zu trennen, den Handel mit dem ersten zu verbieten oder zu erlauben

lstm erzeugt immer MA, vor langer Zeit getestet