Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2842

 
Aleksey Nikolayev #:

Auch Sie betreiben in Wirklichkeit eine Optimierung. Sie haben ein Kriterium für die "Stationarität von Merkmalen" erfunden und wählen die optimalen Merkmale nach diesem Kriterium aus. Es ist die gleiche Optimierung in der Geschichte, aber im Profil.

Wir sollten auf jeden Fall ein Kriterium für die TS-Robustheit erfinden und nach diesem Kriterium optimieren.)

Großartig, was die Toleranz angeht.

Sie gehen in ein Geschäft, wählen eine Hose - Optimierung nach Ihrer Figur!

Hier geht es um etwas ganz anderes, nämlich um die Verfeinerung der in den Modellen vorhandenen Optimierungsalgorithmen. Ich wende mich gegen die Verfeinerung von bereits eingebauten Optimierungsalgorithmen. Es gibt einen Algorithmus im Tester - gut. Die Verfeinerung dieses Algorithmus wird es nicht ermöglichen, einen gewinnbringenden TS aus einem auszehrenden zu machen. Das Gleiche gilt für eingebaute Algorithmen in Modellen.

Außerdem sollten Sie bei der Optimierung der Modellparameter äußerst vorsichtig sein, denn Sie können das Modell leicht neu trainieren.

Damit bin ich beim wichtigsten Gedanken angelangt: dem unzweifelhaften Zusammenhang zwischen Optimierung und Übertraining des Modells. Das Modell sollte immer recht "grob" gehalten werden, und es werden sicherlich keine globalen Optima benötigt.


Wenn ich nach einer akzeptablen Liste von Prädiktoren suche - Optimierung im Sinne der Hose. Aber die Bedeutung ist eine ganz andere: Es geht darum, "Müll rein - Müll raus" zu vermeiden. Das ist ein qualitativer Unterschied zu dem Versuch, den "richtigen" Algorithmus zu finden, der das globale Optimum findet. Kein globales Optimum wird einen profitablen TS auf Müll ergeben.

 

Maxim Vladimirovich, was halten Sie von Quantenclustern?

https://github.com/enniogit/Quantum_K-means

 
Aleksey Nikolayev #:

Das Wort "Optimierung" hat in unserem Forum aus naheliegenden Gründen einen schlechten Ruf. Daher ist es durchaus verständlich, dass wir uns irgendwie davon fernhalten und das Wort selbst nicht verwenden wollen. Nichtsdestotrotz ist jedes Training eines MO-Modells fast immer eine Optimierung, so dass man das Wort nicht aus einem Lied nehmen kann.

Ich will niemanden verletzen, über das Leben belehren oder erklären, wie man Geschäfte macht) Ich schreibe nur mit der leisen Hoffnung, dass metaquotes meine Bemerkungen bei der Implementierung von MO in MT5 berücksichtigt.


wie es mir auf der Zunge lag... Es gibt eine wirklich negative Einstellung zum Begriff der "Optimierung".
Ich möchte nur hinzufügen, dass man immer daran denken sollte, dass das Modell (TS) primär ist, die Optimierung sekundär. Wenn das Modell nicht funktioniert, wird die Optimierung keine Robustheit hinzufügen.
In der Realität gibt es TS, die mit einer großen Bandbreite von Parametern arbeiten, aber auch in solchen Systemen gibt es immer noch optimale Parameter, die am Ende ein höheres Handelsergebnis liefern, d.h. die Optimierung kann per Definition das Modell nicht verschlechtern.
Beim Aufbau eines Handelssystems ist in erster Linie das Modell wichtig, in zweiter Linie seine Bewertungskriterien, und erst dann kommt die Optimierung. das Gegenteil wäre grundlegend falsch.
Wenn jemand sagt, die Optimierung sei böse, bedeutet das, dass er oder sie die Reihenfolge falsch gemacht hat.
Nur wenn man das oben Gesagte versteht, kann man zu der Einsicht kommen, dass, egal wie es ist, MO ohne Optimierung nicht möglich ist.
Der tester und der optimierer als bündel haben gerade dadurch bekanntheit erlangt, dass anwender einen Mist machen und denken, dass dieser Mist nach der optimierung profitabel sein wird. nein, das wird er nicht, deshalb wird es ein Mist sein. dies wird durch die einfache erstellung von Expert Advisors in ME und die Verfügbarkeit von vorgefertigten varianten in der lieferung erleichtert. gleichzeitig gibt es aber praktisch keine werkzeuge, um die strategie der erstellung von clustern von working sets zu evaluieren. das gute ist, dass µl diese lücke vollständig füllt.
Zusammenfassend lässt sich sagen: Optimierungsalgorithmen machen erfolgreiche Menschen noch erfolgreicher (das gilt für jeden Bereich menschlicher Tätigkeit) und unglückliche Menschen leider noch unglücklicher. der Grund ist einfach - falsch gesetzte Prioritäten.
selbst formel eins autos werden sorgfältig optimiert, warum? weil diese autos gut sind, wie sie sind))) die antwort ist einfach, sie werden nach den benutzerkriterien des fahrers des autos optimiert. obwohl die allgemeinen eigenschaften der autos gleich sind, kann man durch tuning das auto z.b. auf der beschleunigungskurve anpassen, ein anderer fahrer wird eine höhere geschwindigkeit auf der geraden bevorzugen. keiner der fahrer der autos denkt "optimierung ist scheiße!, was zum teufel brauche ich, ich fahre nach standard!" - Sonst verliert man, hat hungrige Kinder, eine wütende Frau und all die anderen Freuden des Scheiterns.

Daher die für den Erfolg notwendige Reihenfolge: Auto (TK) - Tuningkriterien (Bewertungskriterien der TK) - Optimierung.
Andere richtige Reihenfolgen sind prinzipiell nicht möglich.
 
Ich möchte noch hinzufügen, dass Optimierungsalgorithmen in erster Linie Suchalgorithmen sind, sie werden nicht nur für die Suche nach MASK-Parametern verwendet, wie viele Leute denken.
Sie können viel komplexere und nicht triviale Dinge tun.
 
Andrey Dik #:

D .h. eine Optimierung kann das Modell per Definition nicht verschlechtern.

Das ist richtig für automatische Kontrollsysteme, aber absolut NICHT richtig für Modelle, die auf Finanzmärkten mit nicht-stationären Prozessen arbeiten. Es gibt ein solches Übel, ein absolutes Übel, das "Übertraining" genannt wird. Dies ist das Hauptübel (nach dem Input-Müll), das jedes Modell völlig unbrauchbar macht. Ein gutes Modell sollte immer suboptimal sein, eine Vergröberung der Realität. Meiner Meinung nach ist es das globale Optimum, das einen besonderen Beitrag zum Übertraining des Modells leistet.

 
ein weiterer wichtiger Punkt.
Je weniger Parameter, desto besser schneidet das Modell in der Kette von
Modell - Kriterium - Optimierung,
Da die Freiheitsgrade zunehmen, und das ist schlecht, verringert die Erhöhung der Anzahl der Kriterien oder der Parameter des Kriteriums im Gegenteil die Freiheitsgrade des Modells und wirkt wie eine Art "Grenze".
Was die Anzahl der AO-Parameter anbelangt, so verweise ich auf die Nachteile der großen Anzahl von Abstimmungsmöglichkeiten, da dies die praktische Anwendung der AO erschwert, obwohl es in den geschickten Händen eines Forschers, der versteht, was er tut, zusätzliche Vorteile in Bezug auf die Qualität und die Geschwindigkeit der Optimierung ermöglicht, wobei in gewisser Weise indirekt die Variabilität des Modells noch mehr reduziert wird, wenn es zu viele Parameter hat. dies ist oft der Fall bei neuronalen Netzen.
 
СанСаныч Фоменко #:

Eine gute Idee für automatische Kontrollsysteme, aber absolut NICHT richtig für Modelle, die auf Finanzmärkten mit NICHT stationären Prozessen arbeiten. Es gibt ein Übel, ein absolutes Übel, das "Übertraining" genannt wird. Dies ist das Hauptübel (nach dem Input-Müll), das jedes Modell völlig unbrauchbar macht. Ein gutes Modell sollte immer suboptimal sein, eine Vergröberung der Realität. Meiner Meinung nach ist es das globale Optimum, das einen besonderen Beitrag zum Übertraining des Modells leistet.


Das Übertraining ist nicht eine Folge des Missbrauchs der Optimierung, sondern eine Folge der falschen Wahl des Modellbewertungskriteriums. Der Fehler wurde VOR der Optimierung gemacht.
Zu sagen, dass das Modell ein bisschen untertrainiert sein sollte, ist genauso falsch wie ein guter untertrainierter Pionier oder Chirurg. Sie sollten entweder den Pionier oder den Chirurgen oder ihre Lehrer verantwortlich machen, nicht die Möglichkeit zu lernen (verbessern, optimieren).
Die Nicht-Stationarität zu tadeln, ist ebenfalls falsch und bringt auch die Optimierung mit sich.
 
Ich entschuldige mich, wenn ich jemanden beleidigt habe, indem ich den Leser in die harte Realität stürzte.
 

Es scheint, dass Begriffe mit unterschiedlichen Kontexten verwendet werden.

Zum Beispiel, "Plateau" ist eher eine breite Palette von Einstellungen der Art und Weise der Gewinnung von externen Faktoren, die die Logik des Modells. Zum Beispiel, eine breite Palette von Effizienz der mashka auf der Grundlage derer der Prädiktor gemacht wird.

Die hier besprochene Optimierung mit MO-Algorithmen befasst sich mit dem Aufbau der Entscheidungslogik, während sich die Optimierung im Strategietester in der Regel mit der Abstimmung der Eingabedaten befasst, während die Entscheidungslogik bereits vorgegeben ist und bestenfalls Variabilität aufweist.

Die beiden Arten der Optimierung sind unterschiedlich - die eine verändert den Raum und die andere die Beziehungen darin.

Nun habe ich mich gefragt, was ich zuerst abstimmen soll - Vorzeichen/Prädiktoren oder ein Modell suchen und dann im Terminal-Optimierer nach optimalen Einstellungen suchen. Allerdings ist es äußerst schwierig, nach Einstellungen zu suchen, wenn es viele Eingabedaten gibt.

Ist es möglich, den Raum und die Logik während des Trainings gleichzeitig zu ändern, vielleicht sollten wir darüber nachdenken, wie man das macht?

SanSanych Fomenko, sollten wir mit Stichproben rechnen?

 
Andrey Dik #:

Übertraining ist keine Folge des Missbrauchs der Optimierung, sondern eine Folge der falschen Wahl des Modellbewertungskriteriums. Der Fehler wurde VOR der Optimierung begangen, und es ist durchaus möglich, dass das Modell beim ersten Element der Kette beschissen ist.
zu sagen, dass das Modell ein bisschen untertrainiert sein sollte, ist genauso falsch wie ein guter untertrainierter Pionier oder Chirurg. man sollte entweder dem Pionier oder dem Chirurgen oder ihren Lehrern die Schuld geben, nicht der Möglichkeit zu lernen (zu verbessern, zu optimieren).
Die Nicht-Stationarität zu tadeln, ist ebenfalls falsch und bringt auch die Optimierung mit sich.

Ich verstehe. Sie sind nur oberflächlich mit Modellen des maschinellen Lernens vertraut.

Das erste Element in der Kette ist die Vorverarbeitung, die 50 bis 70 % der Arbeit ausmacht. Hier entscheidet sich der zukünftige Erfolg.

Das zweite Glied der Kette ist das Training des Modells auf der Trainingsmenge.

Das dritte Glied der Kette ist die Ausführung des trainierten Modells auf der Testmenge. Weicht die Leistung des Modells auf diesen Sets um mindestens ein Drittel ab, wird das Modell neu trainiert. Das kommt hin und wieder vor, wenn nicht sogar öfters. Ein übertrainiertes Modell ist ein Modell, das zu genau ist. Entschuldigung, die Grundlagen.