Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3023
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Dies ist leicht zu automatisieren und funktioniert ohne menschliches Zutun.
Ein ähnlicher Algorithmus wurde im letzten Artikel vorgestellt.
Im Wesentlichen geht es um das Herausfiltern von Modellfehlern und deren Einordnung in eine separate Klasse "nicht handeln", besser durch ein zweites Modell, das lernt, die Spreu vom Weizen zu trennen
und nur die Körner bleiben im ersten Modell
Das ist dasselbe wie mit Baumregeln, nur von der Seite. Aber Regeln sollten geplündert und miteinander verglichen werden, und am Ende steht schon ein verfeinertes TS.
Ich habe oben begründet, dass man Modellfehler nicht verwerfen kann.
Ich würde gerne meine Meinung ändern.
Aber für diesen Zweck ist es notwendig.
Bewertung des Ausgangsmodells auf der Trainingsauswahl und außerhalb davon
Bewertung eines "bereinigten" Modells außerhalb der Trainingsauswahl, das NICHT mit den beiden vorherigen Modellen übereinstimmt
Können wir das?
Oben wurde begründet, dass man Modellfehler nicht ausschließen kann.
Ich würde meine Meinung gerne ändern.
Aber um das zu tun.
Bewertung des Ausgangsmodells mit und ohne Trainingsauswahl
Schätzung eines "bereinigten" Modells außerhalb der Trainingsauswahl, das NICHT mit den beiden vorherigen Modellen übereinstimmt
Können wir das?
Ich habe oben ein paar Bildschirme hinzugefügt
Die Algorithmen zum Trennen der Spreu vom Weizen können unterschiedlich sein, ich zeige Ihnen, wie ich es mache.
links von der gestrichelten Linie ist das OOS, das in keiner Weise am Training teilnimmt
Lernen an einfachen Zeichen wie Inkrementen
Die gelbe Kurve ist die Kurstabelle selbst, die Sie sich nicht ansehen sollten. Aber Sie können sie nutzen, um zu verstehen, in welchen Situationen das Modell besser/schlechter funktioniert.Wenn man viele Fehler auf einmal wegwirft, degeneriert der Lehrer (es können viele Fehler und null Körner übrig bleiben), daher sollte man bei jeder Iteration schrittweise wegwerfen
und der Fehler bei OOS nimmt allmählich ab, in diesem Fall steigt r^2
im Wesentlichen ist dies ein Analogon von bestinterval aus fxsaber, nur dass hier der TS auf einmal vorbereitet wirdIch glaube, es ist alles aufgelistet. Dies ist ein Buch von Jeremy Howard, dem Gründer von Kaggle und framevoc fast.ai.
Fast.ai.
Buch im Original
Buch auf Russisch
Kostenlose Version
Wenn man viele Fehler auf einmal wegwirft, degeneriert der Lehrer (es können viele Fehler und null Körner übrig bleiben), daher sollte man bei jeder Iteration schrittweise wegwerfen
und der OOS-Fehler sinkt allmählich, in diesem Fall steigt r^2.
im Wesentlichen ist es ein Analogon zu bestinterval aus fxsaber, nur dass hier die TS auf einmal erstellt wirdFür mich ist das Zitat überzogen.
Wo ist "Out of sample"?
Für mich passt das Zitat hervorragend.
Wo ist "Out of sample"?
Das ist nicht mehr lustig.
Ich schlage vor, diesen Hut mit einem Baum in Python mit einer Auswahl von Blättern zu machen, in Kolab, können Sie Ihre Datensätze dort setzen.
Wenn Sie irgendwelche Ideen haben, was besser/schlechter ist, Regeln, um nur die besten oder durch einige Filter zu nehmen, schlagen Sie es vor.
Ich möchte vergleichen, indem ich einen Datensatz durch beide Ansätze laufen lasse. Dann werden wir verstehen, was was ist :)
Dies ist leicht zu automatisieren und funktioniert ohne menschliches Zutun.
Ein ähnlicher Algorithmus wurde im letzten Artikel vorgestellt.
Im Wesentlichen geht es um das Herausfiltern von Modellfehlern und deren Einordnung in eine separate Klasse "nicht handeln", besser durch ein zweites Modell, das lernt, die Spreu vom Weizen zu trennen
und nur die Körner bleiben im ersten Modell
Das ist dasselbe wie mit Baumregeln, nur von der Seite. Aber Regeln sollten geplündert und miteinander verglichen werden, und am Ende steht schon ein verfeinertes TS.
Zum Beispiel die erste Iteration der Auswahl von Körnern aus der Spreu (links der senkrechten gestrichelten Linie - OOS):
Und hier ist die 10:
Ja, der Punkt ist derselbe - arbeiten Sie letztendlich mit Daten, die die Prädiktoren besser beschreiben.
Wie dies am effizientesten zu bewerkstelligen ist, bleibt eine offene Frage - jede Methode hat Vor- und Nachteile.
Ich glaube, es ist alles aufgelistet. Dies ist ein Buch von Jeremy Howard, dem Gründer von Kaggle und framevoc fast.ai.
Fast.ai.
Das Buch im Original
Buch auf Russisch
Kostenlose Version
Danke! Ich werde nach einer kostenlosen Version auf Russisch suchen müssen - der Übersetzer macht manchmal Perlen und erzählt mir von Sole, was nützlich sein kann :)