Umschulung - Seite 2

 
Dmitry Fedoseev:
Und ich dachte, "blah blah" wird nicht von Menschen beurteilt, sondern von dem, was sie schreiben.

Normalerweise antworte ich nicht auf verärgerte Beiträge, aber Ihnen werde ich persönlich antworten.

Was ich also mit "blah blah" meine.

FALL 1.

Angenommen, Sie haben einen Roboter geschrieben, seine Parameter mit einem TESTER ermittelt und ihn dann, ohne sie zu ändern, an neuen Kursbereichen und vorzugsweise an anderen Symbolen und TFs ausprobiert. Wir haben ein positives Ergebnis erzielt.

Die Frage ist: Inwieweit können wir dem Ergebnis vertrauen? Wird sie sinken oder nicht?

Als Antwort auf die Frage, schauen Sie sich die Registerkarte "Signale" hier auf der Website und sehen, dass die Signale mit der Rentabilität höher als die Bankeinlage und mit der Lebensdauer über ein Jahr sind recht selten: Es gibt nicht einmal einhundert von mehreren tausend. Daraus schließe ich persönlich, dass die Entwicklung einer stabilen TS eine Kunst ist, und der Tester ist eines der Werkzeuge für die Entwicklung einer solchen stabilen TS. Aber die wichtigste Schlussfolgerung: Der Tester garantiert keinen Gewinnausfall.

Dies war der Fall, als der Prüfer den TS bestätigte.

FALL 2

Dies ist ein interessanterer Fall im Sinne von "blah-blah" - Dies ist der Fall, wenn das Testgerät ein negatives Ergebnis liefert. Was ist zu tun? Schließlich gibt der Prüfer keine Hinweise darauf, in welche Richtung er graben sollte, und vor allem beantwortet er nicht die Frage, warum ein negatives Ergebnis vorliegt. Der Prüfer stellt fest, dass es schlecht ist. Dann kommt eine universelle Methode zum Einsatz, die TYKA-METHODE oder blah-blah genannt wird, was in der Regel einen intuitiven Wechsel der Indikatoren bedeutet, um zu versuchen, den Satz von Indikatoren zu erhalten, der uns zu dem oben beschriebenen Fall 1 führt.

Gibt es Ideen, Werkzeuge, die den Prozess von Fall 2 aussagekräftiger machen und sicherstellen können, dass die im Tester erzielten Ergebnisse in Zukunft auch auf dem echten Konto erzielt werden?

Ja, es gibt sie, ich habe einen Link zu einem parallelen Thema angegeben. Sie befasst sich mit solchen Werkzeugen zur Analyse des anfänglichen Satzes von Eingabedaten (Prädiktoren), die nicht zu einer Umschulung (Überanpassung) des TS führen. Diese sind nicht "blah-blah" - es handelt sich um spezifische Werkzeuge mit mathematischer Begründung ihrer Wirksamkeit, ohne intuitive Gralssuche und nach dem Finden eines solchen Grals, Entleerung des Depots.

 
Stanislav Korotky:
Wenn ein Vorwärtstest verwendet wird, wird die "Nachschulung" durch eine Verschlechterung der Ergebnisse außerhalb des Optimierungszeitraums sichtbar. Leider bietet MT keine eingebauten Methoden, um die Ergebnisse der Optimierung und der Vorwärtsprüfung zu vergleichen, d.h. es wird empfohlen, dies manuell (nach Augenmaß), mit externen Programmen oder Skripten nach eigenem Ermessen zu tun.
Der Begriff "Umschulung" an sich ist albern, er soll die Nichtfunktionalität des EA selbst rechtfertigen und verliert im Falle der Volking-Forwarding völlig seinen Sinn. Ob eine Variable über- oder unterlernt ist, ist aus der Degradation nicht ersichtlich. Dies ist nur beim Vergleich der Vorwärtsergebnisse unter verschiedenen Optimierungs- und Testbedingungen zu erkennen. Sowohl Geschichtstiefe als auch Vorwärtsschritt werden jeweils persönlich gewählt und dann ist schon sichtbar, was über- und was untertrainiert ist.
 
СанСаныч Фоменко:

...

FALL 2.

Der Prüfer stellt eine Tatsache fest - schlecht. Dann folgt die Anwendung einer universellen Methode, die als TYKA-METHODE oder Blabla bezeichnet wird und bei der in der Regel intuitiv eine Reihe von Indikatoren geändert wird, um eine Reihe von Indikatoren zu erhalten, die uns zu dem oben beschriebenen Fall 1 führen.

Gibt es Ideen, Werkzeuge, die den Prozess von Fall 2 aussagekräftiger machen und sicherstellen können, dass die im Tester erzielten Ergebnisse in Zukunft auch auf dem echten Konto erzielt werden?

Ja, es gibt sie, ich habe einen Link zu einem parallelen Thema angegeben. Sie befasst sich mit solchen Werkzeugen zur Analyse des anfänglichen Satzes von Eingabedaten (Prädiktoren), die nicht zu einer Umschulung (Überanpassung) des TS führen. Diese sind nicht "blah-blah" - es handelt sich um spezifische Werkzeuge mit mathematischer Begründung ihrer Wirksamkeit, ohne intuitive Gralssuche und nach dem Finden eines solchen Grals, Entleerung des Depots.

Was ist, wenn diese Methode automatisiert ist? Interessante Gedanken in diese Richtung. Die Indikatoren ändern sich, ebenso ihre Wechselwirkungen, die Wechselwirkungen werden als separate Funktionen dargestellt, so dass sich die Anzahl der Parameter ändern kann, wobei nur die einfachste Optimierung nach ihnen erfolgt. Deshalb bin ich an der in diesem Thread gestellten Frage interessiert, einem universelleren Ansatz, der nicht von Strategieparametern abhängt. Der Zweig, den Sie vorschlagen, verfolgt ganz andere Ziele. Aber wenn Sie die Anwendbarkeit dieser Methoden auf dieses Problem zeigen, sind Sie willkommen.

 
Youri Tarshecki:
Der Begriff "Umschulung" selbst ist albern und soll die Unbrauchbarkeit des EA selbst rechtfertigen. Ob eine Variable übertrainiert oder untertrainiert ist, lässt sich an der Degradation nicht erkennen. Dies ist nur beim Vergleich der Vorwärtsergebnisse unter verschiedenen Optimierungs- und Testbedingungen zu erkennen. Sowohl Geschichtstiefe als auch Vorwärtsschritt werden jeweils persönlich gewählt und dann ist schon sichtbar, was über- und was untertrainiert ist.

In dieser Situation ist der Begriff "Übertraining" zutreffend, denn das Training bezieht sich nicht nur auf das Setzen von Parametern, sondern auch auf die Strategiebildung.

Ich möchte die Wahrscheinlichkeit des Übertrainierens abschätzen, damit das Suchsystem zumindest die zweifelhaften Stellen "umgehen" kann, wenn es nur mit einem Vorwärtsverlaufsplot vergleicht, kann es passieren, dass das System zwei Verlaufsplots (Training, Test) als einen Trainingsplot wahrnimmt. Ideen anhören)).

 
Aliaksandr Hryshyn:

In dieser Situation ist der Begriff "Übertraining" zutreffend, denn das Training bezieht sich nicht nur auf das Setzen von Parametern, sondern auch auf die Strategiebildung.

Ich möchte die Wahrscheinlichkeit des Übertrainierens abschätzen, damit das Suchsystem zumindest die zweifelhaften Stellen "umgehen" kann, wenn es nur mit einem Vorwärtsverlaufsplot vergleicht, kann es passieren, dass das System zwei Verlaufsplots (Training, Test) als einen Trainingsplot wahrnimmt. Ideen anhören)).

Bei der Entwicklung einer Strategie ist der Begriff "Übertraining" erst recht nicht zutreffend, da wir nur das Testergebnis unter denselben Trainingsbedingungen vergleichen, um die Codevariante auszuwählen. Wie diese Bedingungen optimal gewählt werden, ist nicht so wichtig, die Hauptsache ist, dass sie für alle Varianten des Codes gleich sind. Ansonsten ist die Wahl sinnlos.
 

Der Begriff "Übertraining" oder "Überoptimierung" wurde von Tweakern geprägt, denn je mehr man einen EA auf einen bestimmten Teil der Geschichte optimiert und je mehr Optimierungsparameter vorhanden sind, desto besser sind die Ergebnisse beim Training.

Aus irgendeinem Grund gibt es die Meinung, dass es eine umgekehrte Korrelation mit den Testergebnissen gibt, d. h. je weniger, desto besser, aber meine Erfahrung zeigt, dass dies nicht stimmt. Das Testergebnis hängt nicht von der Anzahl der Optimierungsdurchläufe ab, sondern von der Qualität des Expert Advisors selbst und der optimalen Auswahl der Trainings- und Testläufe. Die Ergebnisse von Systemen, bei denen die Geschichte nur minimal optimiert wird, sind nicht die besten, die ich gesehen habe.

Zum Beispiel wird beim Wolfkin-Forward-Schema in einem 4-Monats-Training - 1-Monats-Test jedes Intervall der Historie viermal optimiert, beim 2-Monats-Training - 2-Monats-Test-Schema jedoch nur einmal. Ist es zu viel oder zu wenig? Wer weiß! Wir müssen uns nur die Testergebnisse ansehen. Wenn die Summe der Stürme besser ist, dann ist das die beste Option.

 
Youri Tarshecki:
Beim Aufbau einer Strategie ist der Begriff "Übertraining" erst recht nicht zutreffend, da wir nur das Testergebnis unter denselben Trainingsbedingungen vergleichen, um eine Variante des Codes auszuwählen. Wie diese Bedingungen optimal gewählt werden, ist nicht so wichtig, die Hauptsache ist, dass sie für alle Varianten des Codes gleich sind. Ansonsten ist die Wahl sinnlos.

Dieser Begriff wird recht häufig verwendet:"Übertraining,Überanpassung ist ein unerwünschtes Phänomen, das beiauf Präzedenzfällen basierenden Lernaufgaben auftritt, wenn die Fehlerwahrscheinlichkeit des trainierten Algorithmus bei den Objekten derTeststichprobedeutlich höher ist als der durchschnittliche Fehler bei derTrainingsstichprobe."

Gemäß der Definition steht die Gleichheit der Trainingsbedingungen der Anwendbarkeit des Begriffs auf unser Problem nicht entgegen.

 
Nikkk:

Umschulung ist wie das Wort Konterrevolution. Warum sollte man dann überhaupt unterrichten, wenn man umschulen muss? Und wenn es Sinn macht, umzuschulen, dann kennt man die fließenden Grenzen für die Umschulung, sonst ist es am Ende das gleiche Roulette. Und da es Entscheidungspunkte gibt, wann/wie oft/welche Parameter... neu trainiert werden müssen, warum sollte dieses Verständnis nicht von Anfang an in die Logik des Trainings/Algorithmus selbst einfließen.

Weg von der Preisanalyse, hin zur Feedback-Analyse zwischen Ausbildung und Realität (Preis). Die gleiche Sache aus einem anderen Blickwinkel.

Vergleichen Sie einfach das Lernen mit dem Gedächtnis. Es ist ja nicht so, dass Sie sich fragen, warum Sie sich erinnern müssen, wenn Sie sowieso vergessen müssen. Das Problem ist, dass EAs im Allgemeinen nicht über ein separates Langzeitgedächtnis und ein Arbeitsgedächtnis verfügen. Darüber hinaus ist die Bewertung ihrer Leistung sehr primitiv. Daher sollten wir idealerweise jeden einzelnen Lernenden separat unterrichten (ihm ein Gedächtnis geben) (was ich übrigens auch versuche) und ihn nicht auf Trainingssegmenten, sondern auf Testsegmenten testen.
 
Aliaksandr Hryshyn:

Dieser Begriff wird recht häufig verwendet:"Übertraining,Überanpassung ist ein unerwünschtes Phänomen, das beiauf Präzedenzfällen basierenden Lernaufgaben auftritt, wenn die Fehlerwahrscheinlichkeit des trainierten Algorithmus bei den Objekten derTeststichprobedeutlich höher ist als der durchschnittliche Fehler bei derTrainingsstichprobe."

Gemäß der Definition steht die Gleichheit der Trainingsbedingungen der Anwendbarkeit des Begriffs auf unser Problem nicht entgegen.

Bei der Entwicklung einer Strategie geht es also um etwas anderes: nicht um Präzedenzfälle, nicht um Optimierung, sondern um das Schreiben von Code.

Außerdem bin ich mit dieser Definition nicht einverstanden. Wenn wir überhaupt nicht optimieren und die Wahrscheinlichkeit des Scheiterns im Test größer ist als im Training (was häufig vorkommt), wird dies ebenfalls als Überoptimierung betrachtet. Und was bedeutet das konkret? Zweimal? Um das Zehnfache?

 
Youri Tarshecki:
Vergleichen Sie einfach das Lernen mit dem Gedächtnis. Es ist ja nicht so, dass Sie sich fragen, warum Sie sich erinnern müssen, wenn Sie sowieso vergessen müssen. Das Problem ist, dass EAs im Allgemeinen kein getrenntes Langzeit- und Kurzzeitgedächtnis haben. Darüber hinaus ist die Bewertung ihrer Leistung sehr primitiv. Daher sollten wir idealerweise jeden einzelnen Permenenten separat unterrichten (was ich übrigens gerade versuche) und ihn nicht an Trainingssegmenten, sondern an Testsegmenten überprüfen.

Vergessen Sie nicht, dass die Erinnerung an den Abschnitt, in dem die Ausbildung stattgefunden hat, in die Erinnerung an die Ergebnisse der Ausbildung in diesem Abschnitt umgewandelt wird. Es ist dasselbe, wie wenn wir einen Bereich filtern und später die gefilterten Informationen für die Analyse verwenden, dann filtern und einen anderen verwenden und so weiter, wobei es einen Zusammenhang zwischen der Art der Filterung/Bereiche gibt, in denen diese Filter durchgeführt wurden.

Dort wird nichts vergessen, die gleiche Analyse der Geschichte unter einem anderen Blickwinkel. Wie auch immer Sie es nennen wollen, Überlernen/Überoptimierung/Anpassung/Überanpassung.