Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 472
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
mit anderen Worten, nicht alles in mt5 wurde bisher getestet :)
Das kann ich nicht verstehen. (Warum sollte man etwas versuchen, das bereits in MT enthalten ist?
Wenn es ein TC-Konzept gibt, nehmen wir einen Werkzeugkasten mit. Wenn es MT gibt und es gut mit dem Rest des Systems zusammenarbeitet, verwenden wir es. Es interagiert schlecht - wir verwenden die externe Software.
Es ist überhaupt nicht razzo, Informationen hin- und herzuschicken, nur um bestehende MT-Funktionen zu nutzen.
Das kann ich nicht verstehen. (Warum sollte man etwas ausprobieren, das bereits in MT enthalten ist?
Wenn es ein TC-Konzept gibt, nehmen wir einen Werkzeugkasten mit. Wenn es MT gibt und es gut mit dem Rest des Systems zusammenarbeitet, verwenden wir es. Es interagiert schlecht - wir verwenden die externe Software.
Es ist nicht sinnvoll, Informationen hin- und herzuschicken, nur um bestehende MT-Funktionen zu nutzen.
Es gibt also nie von Anfang an ein fertiges Konzept, alles geschieht nach Instinkt, je mehr Werkzeuge, desto besser.
Ich beginne mit einem Konzept und arbeite es in einer Software aus (Excel, SciLab, MatLab, R - manchmal alles zusammen). Dort teste ich es mit meinem Tester (ich habe keinen signifikanten Unterschied zur echten Software festgestellt). Dann übertrage ich einen Teil davon in das Terminal und den Rest in C++/C# und schließe externe Bibliotheken an.
Meine ersten Systeme (seit 2008) wurden mit VBA-Excel erstellt und haben sehr gut mit dem Terminal zusammengearbeitet. Keine Leistungsprobleme, auch nicht bei langsamer VBA. Im Allgemeinen ist eine Verzögerung von 50 ms keine gute Zeit, selbst wenn man innerhalb der 1-m-TF arbeitet.
Übrigens, erinnern Sie sich an Ihren Artikel über die Sequenzierung, in dem Sie vorschlugen, mehrere Signale hintereinander zu zählen... Überlagerung von Signalen
Ich habe eine interessante Lösung gefunden, um so etwas durch Fuzzy-Logik zu implementieren und in den Lernprozess einzubauen ... Ich werde später etwas dazu schreiben :)
Ja, das ist nur aus diesem Artikel..... Vielleicht wurde es dort nicht deutlich erklärt, aber niemand hat die Tatsache der Trennung aufgehoben.
Wir müssen die Aufteilung in gut und schlecht klar sehen, wenn das Modell stetig verliert oder gewinnt, ist das bereits ein Indikator, die Hauptsache ist die Stabilität der Aufteilung, nicht ihre Korrektheit, sondern die Stabilität der Aufteilung.....
SanSanych.
Schauen Sie sich die interessante Diskussion über "Overfittinga" an.
Viel Glück!
SanSanych.
Schauen Sie sich die interessante Diskussion über "Overfittinga" an.
Viel Glück!
Alles, was ich hier schreibe und in meiner Praxis anwende, ist eine Art Trick, um die Auswirkungen des grundlegenden Erkenntnisproblems, das hier Überanpassung oder Übertraining genannt wird, irgendwie zu verringern.
Das Problem der Überanpassung von Modellen ist NICHT prinzipiell gelöst, es ist nicht theoretisch gelöst, und dies ist schon seit langem bekannt. Ein Modell ist immer eine Annäherung, eine Vergröberung der Realität, der äußeren Welt. Daher spiegelt ein Modell IMMER ein Objekt mit einem gewissen Fehler wider. Dies ist die Stärke und die Schwäche eines jeden Modells. Daraus folgt, dass es unmöglich ist, ein Modell zu erstellen, ohne das zu modellierende Objekt gründlich zu untersuchen.
Wenn wir ein Zitat nehmen.
WAS modellieren wir?
Beim Random Forest automatisieren wir die Suche nach Mustern.
Wenn GARCH, dann modellieren wir statistische Merkmale eines Kurses.
Es wird dabei IMMER ein Fehler auftreten. Und ich habe hier eine Art Heuristik vorgeschlagen, dass sich dieser Fehler bei aufeinanderfolgenden Teilen der Zeitreihe NICHT ändern sollte. Wenn das Modell beim nächsten Chunk buchstäblich einen anderen Fehler liefert, dann ist es übertrainiert (over-fitted) und kann im Prinzip nicht verwendet werden.
Bei Random Forests habe ich festgestellt, dass, wenn man die verrauschten Prädiktoren entfernt, das trainierte Modell viel länger den gleichen Fehler liefert als mit den verrauschten Prädiktoren. Aber mir sind keine Lösungen bekannt, die ein Modell für alle Zeiten schaffen würden, und das brauche ich auch nicht. Ich habe kein Problem damit, das Modell auf der Grundlage der neuesten Daten neu zu trainieren. Das Training muss jedoch mit der Überprüfung der Rauschprädiktoren beginnen - ihre Menge ändert sich im Laufe der Zeit. Das heißt, nicht nur das Modell selbst ändert sich, sondern auch der Satz der Eingabedaten. Ich habe Fensterläufe entlang von Zeitreihen durchgeführt, d. h. von meinen 25 Prädiktoren gibt es eine konstante Auswahl von 10-15 Prädiktoren, und die Zusammensetzung dieser Gruppe ändert sich, d. h. etwas geht in Rauschen über und dann wieder zurück. Der Fehler ist sehr stabil und liegt zwischen 23% und 27% = immer unter 30%. Wenn der Fehler bei meinen Prädiktoren weniger als 20 % beträgt, verwende ich dieses Modell nicht und warte ab.
PS.
Aus dem, was ich gesagt habe, können Sie den Grund erkennen, warum ich mich nicht für andere Modelle interessiere.
Alles, was ich hier schreibe und in meiner Praxis anwende, ist eine Art von Technik, um die Auswirkungen des Grundproblems der Erkenntnis, das hier Überanpassung, Überlernen genannt wird, irgendwie zu reduzieren.
Der Standpunkt ist klar.
Viel Glück!
http://journal.frontiersin.org/article/10.3389/fnsys.2016.00095/full
http://journal.frontiersin.org/article/10.3389/fnsys.2016.00095/full