Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3023

 
Maxim Dmitrievsky #:

Dies ist leicht zu automatisieren und funktioniert ohne menschliches Zutun.

Ein ähnlicher Algorithmus wurde im letzten Artikel vorgestellt.

Im Wesentlichen geht es um das Herausfiltern von Modellfehlern und deren Einordnung in eine separate Klasse "nicht handeln", besser durch ein zweites Modell, das lernt, die Spreu vom Weizen zu trennen

und nur die Körner bleiben im ersten Modell

Das ist dasselbe wie mit Baumregeln, nur von der Seite. Aber Regeln sollten geplündert und miteinander verglichen werden, und am Ende steht schon ein verfeinertes TS.

Ich habe oben begründet, dass man Modellfehler nicht verwerfen kann.

Ich würde gerne meine Meinung ändern.

Aber für diesen Zweck ist es notwendig.

Bewertung des Ausgangsmodells auf der Trainingsauswahl und außerhalb davon

Bewertung eines "bereinigten" Modells außerhalb der Trainingsauswahl, das NICHT mit den beiden vorherigen Modellen übereinstimmt

Können wir das?

 
СанСаныч Фоменко #:

Oben wurde begründet, dass man Modellfehler nicht ausschließen kann.

Ich würde meine Meinung gerne ändern.

Aber um das zu tun.

Bewertung des Ausgangsmodells mit und ohne Trainingsauswahl

Schätzung eines "bereinigten" Modells außerhalb der Trainingsauswahl, das NICHT mit den beiden vorherigen Modellen übereinstimmt

Können wir das?

Ich habe oben ein paar Bildschirme hinzugefügt

Die Algorithmen zum Trennen der Spreu vom Weizen können unterschiedlich sein, ich zeige Ihnen, wie ich es mache.

links von der gestrichelten Linie ist das OOS, das in keiner Weise am Training teilnimmt

Lernen an einfachen Zeichen wie Inkrementen

Die gelbe Kurve ist die Kurstabelle selbst, die Sie sich nicht ansehen sollten. Aber Sie können sie nutzen, um zu verstehen, in welchen Situationen das Modell besser/schlechter funktioniert.
 

Wenn man viele Fehler auf einmal wegwirft, degeneriert der Lehrer (es können viele Fehler und null Körner übrig bleiben), daher sollte man bei jeder Iteration schrittweise wegwerfen

und der Fehler bei OOS nimmt allmählich ab, in diesem Fall steigt r^2

Iteration: 0, R^2: 0.10170503363002426
Iteration: 1, R^2: 0.3786110827222656
Iteration: 2, R^2: 0.36326063198923375
Iteration: 3, R^2: 0.4316690005974817
Iteration: 4, R^2: 0.71390099630815
Iteration: 5, R^2: 0.8178962191209952
im Wesentlichen ist dies ein Analogon von bestinterval aus fxsaber, nur dass hier der TS auf einmal vorbereitet wird
 
Aleksey Vyazmikin #:

Ich glaube, es ist alles aufgelistet. Dies ist ein Buch von Jeremy Howard, dem Gründer von Kaggle und framevoc fast.ai.

Fast.ai.

Buch im Original

Buch auf Russisch

Kostenlose Version

 
Maxim Dmitrievsky #:

Wenn man viele Fehler auf einmal wegwirft, degeneriert der Lehrer (es können viele Fehler und null Körner übrig bleiben), daher sollte man bei jeder Iteration schrittweise wegwerfen

und der OOS-Fehler sinkt allmählich, in diesem Fall steigt r^2.

im Wesentlichen ist es ein Analogon zu bestinterval aus fxsaber, nur dass hier die TS auf einmal erstellt wird

Für mich ist das Zitat überzogen.

Wo ist "Out of sample"?

 
Vielleicht wird es besser, wenn du die Bäume so durcheinander bringst und dann die Regeln herausnimmst.
 
СанСаныч Фоменко #:

Für mich passt das Zitat hervorragend.

Wo ist "Out of sample"?

Das ist nicht mehr lustig.

 
Aleksey Vyazmikin #:

Ich schlage vor, diesen Hut mit einem Baum in Python mit einer Auswahl von Blättern zu machen, in Kolab, können Sie Ihre Datensätze dort setzen.

Wenn Sie irgendwelche Ideen haben, was besser/schlechter ist, Regeln, um nur die besten oder durch einige Filter zu nehmen, schlagen Sie es vor.

Ich möchte vergleichen, indem ich einen Datensatz durch beide Ansätze laufen lasse. Dann werden wir verstehen, was was ist :)

 
Maxim Dmitrievsky #:

Dies ist leicht zu automatisieren und funktioniert ohne menschliches Zutun.

Ein ähnlicher Algorithmus wurde im letzten Artikel vorgestellt.

Im Wesentlichen geht es um das Herausfiltern von Modellfehlern und deren Einordnung in eine separate Klasse "nicht handeln", besser durch ein zweites Modell, das lernt, die Spreu vom Weizen zu trennen

und nur die Körner bleiben im ersten Modell

Das ist dasselbe wie mit Baumregeln, nur von der Seite. Aber Regeln sollten geplündert und miteinander verglichen werden, und am Ende steht schon ein verfeinertes TS.

Zum Beispiel die erste Iteration der Auswahl von Körnern aus der Spreu (links der senkrechten gestrichelten Linie - OOS):

Und hier ist die 10:


Ja, der Punkt ist derselbe - arbeiten Sie letztendlich mit Daten, die die Prädiktoren besser beschreiben.

Wie dies am effizientesten zu bewerkstelligen ist, bleibt eine offene Frage - jede Methode hat Vor- und Nachteile.

 
Rorschach #:

Ich glaube, es ist alles aufgelistet. Dies ist ein Buch von Jeremy Howard, dem Gründer von Kaggle und framevoc fast.ai.

Fast.ai.

Das Buch im Original

Buch auf Russisch

Kostenlose Version

Danke! Ich werde nach einer kostenlosen Version auf Russisch suchen müssen - der Übersetzer macht manchmal Perlen und erzählt mir von Sole, was nützlich sein kann :)