Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2842
![MQL5 - Sprache von Handelsstrategien, eingebaut ins Kundenterminal MetaTrader 5](https://c.mql5.com/i/registerlandings/logo-2.png)
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Auch Sie betreiben in Wirklichkeit eine Optimierung. Sie haben ein Kriterium für die "Stationarität von Merkmalen" erfunden und wählen die optimalen Merkmale nach diesem Kriterium aus. Es ist die gleiche Optimierung in der Geschichte, aber im Profil.
Wir sollten auf jeden Fall ein Kriterium für die TS-Robustheit erfinden und nach diesem Kriterium optimieren.)Großartig, was die Toleranz angeht.
Sie gehen in ein Geschäft, wählen eine Hose - Optimierung nach Ihrer Figur!
Hier geht es um etwas ganz anderes, nämlich um die Verfeinerung der in den Modellen vorhandenen Optimierungsalgorithmen. Ich wende mich gegen die Verfeinerung von bereits eingebauten Optimierungsalgorithmen. Es gibt einen Algorithmus im Tester - gut. Die Verfeinerung dieses Algorithmus wird es nicht ermöglichen, einen gewinnbringenden TS aus einem auszehrenden zu machen. Das Gleiche gilt für eingebaute Algorithmen in Modellen.
Außerdem sollten Sie bei der Optimierung der Modellparameter äußerst vorsichtig sein, denn Sie können das Modell leicht neu trainieren.
Damit bin ich beim wichtigsten Gedanken angelangt: dem unzweifelhaften Zusammenhang zwischen Optimierung und Übertraining des Modells. Das Modell sollte immer recht "grob" gehalten werden, und es werden sicherlich keine globalen Optima benötigt.
Wenn ich nach einer akzeptablen Liste von Prädiktoren suche - Optimierung im Sinne der Hose. Aber die Bedeutung ist eine ganz andere: Es geht darum, "Müll rein - Müll raus" zu vermeiden. Das ist ein qualitativer Unterschied zu dem Versuch, den "richtigen" Algorithmus zu finden, der das globale Optimum findet. Kein globales Optimum wird einen profitablen TS auf Müll ergeben.
Maxim Vladimirovich, was halten Sie von Quantenclustern?
https://github.com/enniogit/Quantum_K-means
Das Wort "Optimierung" hat in unserem Forum aus naheliegenden Gründen einen schlechten Ruf. Daher ist es durchaus verständlich, dass wir uns irgendwie davon fernhalten und das Wort selbst nicht verwenden wollen. Nichtsdestotrotz ist jedes Training eines MO-Modells fast immer eine Optimierung, so dass man das Wort nicht aus einem Lied nehmen kann.
Ich will niemanden verletzen, über das Leben belehren oder erklären, wie man Geschäfte macht) Ich schreibe nur mit der leisen Hoffnung, dass metaquotes meine Bemerkungen bei der Implementierung von MO in MT5 berücksichtigt.
Das ist richtig für automatische Kontrollsysteme, aber absolut NICHT richtig für Modelle, die auf Finanzmärkten mit nicht-stationären Prozessen arbeiten. Es gibt ein solches Übel, ein absolutes Übel, das "Übertraining" genannt wird. Dies ist das Hauptübel (nach dem Input-Müll), das jedes Modell völlig unbrauchbar macht. Ein gutes Modell sollte immer suboptimal sein, eine Vergröberung der Realität. Meiner Meinung nach ist es das globale Optimum, das einen besonderen Beitrag zum Übertraining des Modells leistet.
Eine gute Idee für automatische Kontrollsysteme, aber absolut NICHT richtig für Modelle, die auf Finanzmärkten mit NICHT stationären Prozessen arbeiten. Es gibt ein Übel, ein absolutes Übel, das "Übertraining" genannt wird. Dies ist das Hauptübel (nach dem Input-Müll), das jedes Modell völlig unbrauchbar macht. Ein gutes Modell sollte immer suboptimal sein, eine Vergröberung der Realität. Meiner Meinung nach ist es das globale Optimum, das einen besonderen Beitrag zum Übertraining des Modells leistet.
Es scheint, dass Begriffe mit unterschiedlichen Kontexten verwendet werden.
Zum Beispiel, "Plateau" ist eher eine breite Palette von Einstellungen der Art und Weise der Gewinnung von externen Faktoren, die die Logik des Modells. Zum Beispiel, eine breite Palette von Effizienz der mashka auf der Grundlage derer der Prädiktor gemacht wird.
Die hier besprochene Optimierung mit MO-Algorithmen befasst sich mit dem Aufbau der Entscheidungslogik, während sich die Optimierung im Strategietester in der Regel mit der Abstimmung der Eingabedaten befasst, während die Entscheidungslogik bereits vorgegeben ist und bestenfalls Variabilität aufweist.
Die beiden Arten der Optimierung sind unterschiedlich - die eine verändert den Raum und die andere die Beziehungen darin.
Nun habe ich mich gefragt, was ich zuerst abstimmen soll - Vorzeichen/Prädiktoren oder ein Modell suchen und dann im Terminal-Optimierer nach optimalen Einstellungen suchen. Allerdings ist es äußerst schwierig, nach Einstellungen zu suchen, wenn es viele Eingabedaten gibt.
Ist es möglich, den Raum und die Logik während des Trainings gleichzeitig zu ändern, vielleicht sollten wir darüber nachdenken, wie man das macht?
SanSanych Fomenko, sollten wir mit Stichproben rechnen?
Ich verstehe. Sie sind nur oberflächlich mit Modellen des maschinellen Lernens vertraut.
Das erste Element in der Kette ist die Vorverarbeitung, die 50 bis 70 % der Arbeit ausmacht. Hier entscheidet sich der zukünftige Erfolg.
Das zweite Glied der Kette ist das Training des Modells auf der Trainingsmenge.
Das dritte Glied der Kette ist die Ausführung des trainierten Modells auf der Testmenge. Weicht die Leistung des Modells auf diesen Sets um mindestens ein Drittel ab, wird das Modell neu trainiert. Das kommt hin und wieder vor, wenn nicht sogar öfters. Ein übertrainiertes Modell ist ein Modell, das zu genau ist. Entschuldigung, die Grundlagen.