Umschulung - Seite 4

 
Aliaksandr Hryshyn:
Wer setzt welche Techniken ein, um die Umschulung des Modells/Beraters zu minimieren?
Wir müssen davon ausgehen, dass wir in diesem Fall auf die Analyse historischer Daten nicht verzichten können, und das Konzept der "Anpassung an die Geschichte" muss vollständig eliminiert werden. Was im Vordergrund stehen sollte, ist die Idee des TS selbst, worauf er basiert. Jeder TS basiert auf den Messwerten eines oder mehrerer Indikatoren. Letztere haben einen Parameter wie das Probenahmevolumen N, das nach der Analyse des gesamten Probenahmevolumens sein Urteil fällt. Es liegt auf der Hand, dass kein Indikator alle historischen Daten gleich gut verarbeiten kann. Daher kommen Parameter wie SL und TP zur Hilfe. Hier sind 3 grundlegende Parameter, die optimiert werden müssen. Es ist notwendig, ihre Werte zu finden, damit der TS die gesamte Bandbreite historischer Daten auf der ausgewählten TF passieren kann. Nachdem wir den Aufbau-Chart für den gesamten Zeitraum erhalten haben, müssen wir die Tatsache analysieren und akzeptieren, dass in den schlechtesten Abschnitten die ursprüngliche Idee hinter dem TS aufgrund der vielen Gesichter des Marktes nicht funktioniert. Der Versuch, die gesamte Handlung in "schlecht" und "gut" sowie in "Training" und "vorwärts" einzuteilen, ist reine Zeitverschwendung. Die TS muss auf der Grundlage des gesamten verfügbaren historischen Materials bewertet werden.
 
Youri Tarshecki:

Sagen Sie mir, wie Sie entscheiden, ob ein Stürmer über- oder untertrainiert ist. Führt Übertraining zu einem anderen Abbau als Untertraining?

Dieeinzige Möglichkeit, die Qualität der Trainingsbedingungen zu bestimmen, besteht darin, die entsprechende Qualität des Tests außerhalb der Stichprobe zu sehen. Und nur durch den Vergleich der Ergebnisse können Sie feststellen, ob die Optimierung über- oder unteroptimiert ist. Aber ich sehe nirgendwo ein Thema, das sich mit Unteroptimierung beschäftigt. Aus irgendeinem Grund sieht jeder die Wurzel des Problems in der mythischen Überoptimierung und nicht in der Codequalität.

Die Vorwärtsdegradation gibt eine Einschätzung der Verallgemeinerbarkeit des Systems (d.h. Stabilität, Eignung für unbekannte Daten). Wenn sie (die Fähigkeit) niedrig ist, dann macht es vom praktischen Standpunkt aus keinen Unterschied, ob wir über- oder untertrainieren - in jedem Fall werden wir ausscheiden. Aber wenn der Expert Advisor klassisch trainiert wird - mit Hilfe des Parametersatzes und des MT-Testers - dann können wir nicht untertrainiert sein (aus technischer Sicht). Und wenn das Lernen mit einem eigenen Algorithmus erfolgt, können wir bekannte Methoden anwenden (z. B. frühes Aufhören), um den optimalen Punkt zu finden, an dem der "Fehler minimal" ist (das beste Ergebnis in OOS): An diesem Punkt ist die Unteroptimierung bereits vorbei, während die Überoptimierung noch nicht stattgefunden hat. Leider bietet der Standardtester keine solche automatische Funktion zum Vergleich der Systemleistung in der Optimierungsphase und im OOS-Modus. Das OOS in MT ist der Vorwärtstest. Das fett hervorgehobene ist also eigentlich dasselbe wie das, was ich sage. Der Themenstarter hat eine Frage zur Umschulung gestellt, daher beziehen sich die Antworten hier darauf. Wenn wir mit Unterlernen nicht den Grad der Optimierung meinen, sondern eher eine abstrakte "Codequalität", die die Wahl der Prädiktoren, die Methoden der Eingabedatenaufbereitung, die Tiefe der Trainingsstichprobe und anderes Metawissen zu umfassen scheint, dann ist Unterlernen sehr einfach definiert - durch das Fehlen positiver Optimierungsergebnisse.

 

Ich bin nicht der Meinung, dass man sich untertrainieren sollte - technisch gesehen ist das nicht schwer zu bewerkstelligen. D.h. die Tatsache des Abbaus selbst sagt nichts darüber aus, ob er über- oder untertrainiert ist.

Wenn der Autor sich von dem Begriff löst und versteht, dass das Optimum etwas in Gauß ist, dann wird er die Frage etwas anders formulieren - wie man die optimale Menge und Dichte des Trainings bestimmt.

Dann können wir konkreter werden.

Ich persönlich definiere sie auf der Grundlage der Testergebnisse.

 

Stanislav Korotky:
Термин этот не дурацкий, а давно устоявшийся и "одобренный лучшими собаководами"

Tatsächlich ist Überanpassung nicht wirklich Übertraining, sondern Überanpassung.

 

Lassen Sie uns versuchen, die Frage aus einer etwas anderen Perspektive zu betrachten.

Das trainierte Modell/TS (wenn es eine solche Möglichkeit hat) ist in der Lage, sich an einige Regelmäßigkeiten aus historischen Daten zu erinnern, aber auch, aufgrund seiner Unvollkommenheit, an "Rauschen". Wir betrachten Rauschen als etwas, das der TS "lernen" kann und bei neuen Daten keine guten Ergebnisse liefert; bei anderen Strategien kann Rauschen anders aussehen.

Die interessante Frage ist, wie man den TS/das Modell zumindest teilweise so einschränken kann, dass er/sie sich nicht an das Rauschen "erinnern" kann. Oder wie man die historischen Daten vom Rauschen "säubert", wiederum vom Rauschen in Bezug auf die TS.

Hier ist ein einfaches Beispiel im Bild, nehmen wir an, dass die Linien 1 und 2 das gleiche Modell sind.

Hier ein weiteres Beispiel: In dem Bereich zwischen den beiden vertikalen Linien ist das Modell (rote Linien) völlig falsch.

 
Worum geht es bei diesen Bildern überhaupt? Was ist mit den Achsen? Die Anzahl der Optimierungen?
 
Комбинатор:

Tatsächlich ist Überanpassung nicht wirklich Übertraining, sondern Überanpassung.

Das ist richtig. Fitting oder Overfitting ist dasselbe wie Overfitting.
 
Youri Tarshecki:
Das ist richtig. Der Einbau oder die Nachrüstung ist derselbe wie der Schwanz
Wenn die Anpassung oder Neuanpassung auf der gesamten Menge historischer Daten durchgeführt wird, verbessert dies nur die Qualität des TS.
 
Youri Tarshecki:
Worum geht es bei diesen Bildern überhaupt? Was ist mit den Achsen? Die Anzahl der Optimierungen?
Sie sind nicht spezifisch für den Handel. Sie zeigen einfache Beispiele dafür, wie ein Modell (Linien 1 und 2 in der ersten Abbildung und die rote Linie in der zweiten Abbildung) in Bezug auf die Daten (kleine Quadrate und darunter Punkte) "falsch" sein kann.

Nehmen wir an, dass auf der horizontalen Achse wird der Wert des Indikators, und auf der vertikalen Achse, für die Punkte - wie TS sollte eine bestimmte Eigenschaft des Preises vorherzusagen, mit diesem Wert des Indikators, um im Plus sein. Für die Linien - wie der TS vorhersagt. Auf der Grundlage dieser Vorhersage kann TS handeln. Dies ist ein solches bedingtes Beispiel. Die vorhergesagte Eigenschaft kann das Vorhandensein eines Trends oder einer Flaute, Volatilität usw. sein.
 
Aliaksandr Hryshyn:
Sie sind nicht spezifisch für den Handel. Sie zeigen die einfachsten Beispiele dafür, wie sich ein Modell (Linien 1 und 2 in der ersten Abbildung und die rote Linie in der zweiten) bei den Daten (kleine Quadrate und darunter Punkte) "irren" kann.

Die horizontale Achse ist der Indikatorwert, die vertikale Achse die Punkte - wie TS eine bestimmte Preiseigenschaft mit diesem Indikatorwert vorhersagen sollte, um profitabel zu sein. Für die Linien - wie der TS vorhersagt. Auf der Grundlage dieser Vorhersage kann TS handeln. Dies ist ein solches bedingtes Beispiel. Die vorhergesagte Eigenschaft kann das Vorhandensein eines Trends oder einer Flaute, Volatilität usw. sein.

Horizontal sollte die Anzahl der Optimierungsoperationen der Indikatorwerte oder der Gruppe von Indikatoren stehen, die zum gleichen Zeitpunkt der Geschichte kommen. Und auf der vertikalen Linie das Ergebnis der Überprüfung des gesamten Systems. Dann können wir über Übertraining und Untertraining sprechen und darüber, was das ist. Und dann wird die Kurve ganz anders aussehen. Es handelt sich um eine annähernde Normalverteilung, mit dem einzigen Unterschied, dass das Hinzufügen der Anzahl der Durchläufe (oder das Verringern der Schrittweite für den Indikatorparameter) ab einem bestimmten Punkt nichts Neues mehr ergibt.

Wie kann die Anzahl der Durchgänge angepasst werden?

1. Durch einfache Änderung der Anzahl der Trainingseinheiten oder durch Änderung des Abstands (Schritt) der Indikatorparameter.

2. Durch die Änderung der Tiefe der Geschichte für die Ausbildung in Bezug auf die "Stufe" der OOS-Prüfung. Dann wird derselbe Teil der Geschichte unterschiedlich oft optimiert, allerdings mit einer unterschiedlichen Anzahl von "Nachbarn".

3. Durch die Änderung eines genetischen Optimierungsalgorithmus, wenn wir ihn verwenden. Zum Beispiel durch Änderung der Anzahl der Generationen, der Zufälligkeit usw.

Hier sind vielleicht alle verfügbaren Instrumente zur Bekämpfung von PERE und NEDO.

Ich möchte noch anmerken, dass, wenn wir uns bei der Optimierung (Anpassung) genau auf die Prüfung und nicht auf das Ergebnis konzentrieren, die Art der Kurve nicht davon abhängt, ob das System selbst unrentabel ist oder nicht. D.h. wenn das System verliert, wird es einfach noch mehr verlieren, wenn es übertrainiert wird, das ist alles. Die Aufgabe des Trainings besteht darin, das Optimum der Parameter zu finden. Und die Aufgabe des Codierens ist es, praktikable Varianten zu finden, das Trainingsoptimum schafft von sich aus nichts Neues.