Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 75

 
Yury Reshetov:

Aus diesem Grund konnte Dr.Trader keine vollständige, in R umgeschriebene libVMR ausführen - zu viele Berechnungen und zu viel Speicherbedarf.

Ich hatte einen Fehler in meinem Code in der großen Kernel-Konvertierungsfunktion. Atach hat die gleiche alte Version 3.01 aber mit Korrektur. Der Speicher ist jetzt in Ordnung, ebenso der große Kernel. Aber es wird langsamer sein als Java.

Dateien:
libVMR.txt  12 kb
 
Dr. Trader:

Ich hatte einen Fehler in meinem Code in der großen Kernel-Konvertierungsfunktion. Atach hat die gleiche alte Version 3.01, aber mit einer Korrektur. Der Speicher ist jetzt in Ordnung, ebenso der große Kernelrechner. Aber die Geschwindigkeit ist langsamer als bei Java.

Das Ekelhafteste daran ist, dass die Geschwindigkeit unterhalb des Sockels liegt.

Außerdem ist libVMR ein binärer Klassifikator, was nicht gut ist. Ternary kann aus Scheiße ein süßes Objekt machen:

Mihail Marchukajtes:
Im Prädiktor selbst beträgt der Grad der Datenverallgemeinerung 90 %, aber im unbelasteten Modell sind es nur 47 %. Das ist nicht klar.... Und es hat in MQL noch nicht funktioniert....
D.h. der binäre Klassifikator verallgemeinert nur 47% der Beispiele, was viel schlechter ist als der zufällige - 50%. Und ternär filtert man Müll heraus und erhält bereits 90% Generalisierungsfähigkeit bei den verbleibenden Beispielen.
 
Ich habe den Generalisierungsgrad des Modells langsam auf 100% erhöht, mal sehen, wie es in Zukunft funktioniert :-)
 
Mihail Marchukajtes:
Langsam habe ich den Verallgemeinerungsgrad des Modells auf 100% erhöht, mal sehen, wie es in Zukunft funktioniert :-)

100%ige Verallgemeinerbarkeit ist nicht die Grenze. Wir können dies noch weiter verbessern, indem wir die Prädiktoren nach ihrer Verzerrung auswählen. Wenn zwei ternäre Klassifikatoren eine Generalisierungsfähigkeit von 100 %, aber unterschiedliche Verzerrungen haben, dann ist der Klassifikator mit der geringsten Verzerrung besser - er hat mehr signifikante Prädiktoren.

Je geringer die Verzerrung ist, desto weniger Beispiele in der Stichprobe sind mit einem Strich (Unsicherheit) gekennzeichnet.

 
Yury Reshetov:

100%ige Verallgemeinerbarkeit ist nicht die Grenze. Wir können dies noch weiter verbessern, indem wir die Prädiktoren nach ihrer Verzerrung auswählen. Wenn zwei ternäre Klassifikatoren eine 100%ige Verallgemeinerbarkeit, aber unterschiedliche Verzerrungen aufweisen, ist der Klassifikator mit der geringsten Verzerrung der beste, da er mehr signifikante Prädiktoren hat.

Je geringer die Verzerrung, desto weniger Beispiele in der Stichprobe sind durch Striche gekennzeichnet (Unsicherheit).

Ich interessiere mich schon lange dafür und ich kann sagen, dass mich die Frage verwirrt hat. Was bedeutet der Parameter Indikator von Reshetov und seine Bedeutung? Und Bias ist in meiner Ausbildung bei 100% Generalisierung gleich Null...
 
Mihail Marchukajtes:
Das frage ich mich schon seit langem. Was bedeutet der Indikator des Reshetov-Parameters und was bedeutet er? Was bedeutet das?

Der Punkt ist, dass er ein guter Indikator für die Lernfähigkeit ist, aber er ist bedeutungslos für die Verallgemeinerungsfähigkeit. Deshalb werde ich sie in den nächsten Versionen von jPrediction entfernen, damit sie nicht mehr stört.

 
Yury Reshetov:

Der Punkt ist, dass es ein guter Indikator für die Lernfähigkeit ist, aber es macht keinen Sinn für die Generalisierungsfähigkeit. Deshalb werde ich sie in den nächsten Versionen von jPrediction entfernen, um sie weniger lästig zu machen.

Juri, eine Frage. Kann der Prädiktor Wahrscheinlichkeiten anstelle von Klassen ausgeben?
 
Ich frage mich, ob uns das in irgendeiner Weise helfen wird https://news.mail.ru/society/26600207/?frommail=10
 
Alexey Burnakov:
Juri, eine Frage. Kann ein Prädiktor Wahrscheinlichkeiten anstelle von Klassen ausgeben?
Wenn Sie mit Wahrscheinlichkeit den Grad der Ausprägung eines Merkmals meinen, dann ist das möglich. Aber nicht im Ausschuss, weil er entweder 0 oder 1 oder -1 ausgibt, sondern im Binärformat. Erstellen Sie ein Modell t für den gesamten Markt, und Sie werden sehen, wie das Modell über den Nullpunkt springt, und je höher der Nullpunkt, desto wahrscheinlicher ist die Klasse. Aber prozentual gesehen....mmm... es sei denn, man nimmt den Maximalwert als 100% und rechnet davon ab. Angenommen, ich habe ein Kaufsignal und das Modell liegt über Null mit einem Wert von, sagen wir, 0,1, und der Maximalwert war 1, dann weiß ich, dass dieses Kaufsignal einen Wahrheitswert von 10 % hat, wie dies.... wenn es das ist, wofür ich es halte....
 
Alexey Burnakov:
Yuri, eine Frage. Kann ein Prädiktor Wahrscheinlichkeiten anstelle von Klassen erzeugen?

Nein, Wahrscheinlichkeiten wurden in sehr frühen Versionen von libVMR berechnet, aber es gab ein großes Problem, dass alle Prädiktoren streng unabhängig voneinander sein müssen, um den Wahrscheinlichkeitswert korrekt zu berechnen. Und die Durchsetzung einer solchen Bedingung ist in vielen Anwendungsbereichen überhaupt nicht realistisch. Zum Beispiel korrelieren fast alle Indikatoren und Oszillatoren im Handel miteinander, d.h. sie sind nicht unabhängig. Außerdem wirkt sich die Bedingung der Unabhängigkeit im Algorithmus, wenn sie in den Daten fehlt, negativ auf die Verallgemeinerungsfähigkeit aus. Deshalb musste eine solche Sackgasse aufgegeben werden.

Nun achtet jPrediction nicht auf die Unabhängigkeit der Prädiktoren, sondern nur auf den Wert der Verallgemeinerbarkeit. Dies liegt daran, dass sich mehrere Prädiktoren gegenseitig ergänzen können, d. h. einige Beispiele werden für einige Prädiktoren gute Ergebnisse liefern, andere für andere, und Kombinationen von Prädiktoren für andere. Die Berechnung von Wahrscheinlichkeiten unter solchen Bedingungen kann eine sehr große und höchst fragwürdige Fehlerspanne aufweisen.