Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 75
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Aus diesem Grund konnte Dr.Trader keine vollständige, in R umgeschriebene libVMR ausführen - zu viele Berechnungen und zu viel Speicherbedarf.
Ich hatte einen Fehler in meinem Code in der großen Kernel-Konvertierungsfunktion. Atach hat die gleiche alte Version 3.01 aber mit Korrektur. Der Speicher ist jetzt in Ordnung, ebenso der große Kernel. Aber es wird langsamer sein als Java.
Ich hatte einen Fehler in meinem Code in der großen Kernel-Konvertierungsfunktion. Atach hat die gleiche alte Version 3.01, aber mit einer Korrektur. Der Speicher ist jetzt in Ordnung, ebenso der große Kernelrechner. Aber die Geschwindigkeit ist langsamer als bei Java.
Das Ekelhafteste daran ist, dass die Geschwindigkeit unterhalb des Sockels liegt.
Außerdem ist libVMR ein binärer Klassifikator, was nicht gut ist. Ternary kann aus Scheiße ein süßes Objekt machen:
Im Prädiktor selbst beträgt der Grad der Datenverallgemeinerung 90 %, aber im unbelasteten Modell sind es nur 47 %. Das ist nicht klar.... Und es hat in MQL noch nicht funktioniert....
Langsam habe ich den Verallgemeinerungsgrad des Modells auf 100% erhöht, mal sehen, wie es in Zukunft funktioniert :-)
100%ige Verallgemeinerbarkeit ist nicht die Grenze. Wir können dies noch weiter verbessern, indem wir die Prädiktoren nach ihrer Verzerrung auswählen. Wenn zwei ternäre Klassifikatoren eine Generalisierungsfähigkeit von 100 %, aber unterschiedliche Verzerrungen haben, dann ist der Klassifikator mit der geringsten Verzerrung besser - er hat mehr signifikante Prädiktoren.
Je geringer die Verzerrung ist, desto weniger Beispiele in der Stichprobe sind mit einem Strich (Unsicherheit) gekennzeichnet.
100%ige Verallgemeinerbarkeit ist nicht die Grenze. Wir können dies noch weiter verbessern, indem wir die Prädiktoren nach ihrer Verzerrung auswählen. Wenn zwei ternäre Klassifikatoren eine 100%ige Verallgemeinerbarkeit, aber unterschiedliche Verzerrungen aufweisen, ist der Klassifikator mit der geringsten Verzerrung der beste, da er mehr signifikante Prädiktoren hat.
Je geringer die Verzerrung, desto weniger Beispiele in der Stichprobe sind durch Striche gekennzeichnet (Unsicherheit).
Das frage ich mich schon seit langem. Was bedeutet der Indikator des Reshetov-Parameters und was bedeutet er? Was bedeutet das?
Der Punkt ist, dass er ein guter Indikator für die Lernfähigkeit ist, aber er ist bedeutungslos für die Verallgemeinerungsfähigkeit. Deshalb werde ich sie in den nächsten Versionen von jPrediction entfernen, damit sie nicht mehr stört.
Der Punkt ist, dass es ein guter Indikator für die Lernfähigkeit ist, aber es macht keinen Sinn für die Generalisierungsfähigkeit. Deshalb werde ich sie in den nächsten Versionen von jPrediction entfernen, um sie weniger lästig zu machen.
Juri, eine Frage. Kann ein Prädiktor Wahrscheinlichkeiten anstelle von Klassen ausgeben?
Yuri, eine Frage. Kann ein Prädiktor Wahrscheinlichkeiten anstelle von Klassen erzeugen?
Nein, Wahrscheinlichkeiten wurden in sehr frühen Versionen von libVMR berechnet, aber es gab ein großes Problem, dass alle Prädiktoren streng unabhängig voneinander sein müssen, um den Wahrscheinlichkeitswert korrekt zu berechnen. Und die Durchsetzung einer solchen Bedingung ist in vielen Anwendungsbereichen überhaupt nicht realistisch. Zum Beispiel korrelieren fast alle Indikatoren und Oszillatoren im Handel miteinander, d.h. sie sind nicht unabhängig. Außerdem wirkt sich die Bedingung der Unabhängigkeit im Algorithmus, wenn sie in den Daten fehlt, negativ auf die Verallgemeinerungsfähigkeit aus. Deshalb musste eine solche Sackgasse aufgegeben werden.
Nun achtet jPrediction nicht auf die Unabhängigkeit der Prädiktoren, sondern nur auf den Wert der Verallgemeinerbarkeit. Dies liegt daran, dass sich mehrere Prädiktoren gegenseitig ergänzen können, d. h. einige Beispiele werden für einige Prädiktoren gute Ergebnisse liefern, andere für andere, und Kombinationen von Prädiktoren für andere. Die Berechnung von Wahrscheinlichkeiten unter solchen Bedingungen kann eine sehr große und höchst fragwürdige Fehlerspanne aufweisen.