Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1342

 
Vladimir Perervenko:

Herzlichen Glückwunsch!

Terminal: API für die Abfrage von Daten vom MetaTrader 5-Terminal über Anwendungen mitRhinzugefügt.

Wir haben ein spezielles Paket MetaTraderR vorbereitet. Es enthält eine DLL für die Interaktion zwischen R und dem MetaTrader 5-Terminal, Dokumentation und r-Hilfsdateien. Das Paket wird derzeit imCRAN-Repositoryregistriert und steht in Kürze zum Herunterladen und Installieren zur Verfügung.

Warten wir auf die Fortsetzung.

Viel Glück!

Oder vielleicht sogar Beileid, denn jetzt ist es einfach, die Arbeit mit der nativen mql auf Big Data zu vergleichen und zu verstehen - was für ein Mist das r...)

 
Aleksey Vyazmikin:

Hier ist eine weitere Möglichkeit, das Verhalten der Modelle in der Stichprobe darzustellen - hier nach Farben:

TP - richtige Klassifizierung "1" - grün

FP - Fehlklassifizierung "1" - rot

FN - Fehlklassifizierung "0" (eigentlich fehlende "1") - blau

Der Bildschirm ist groß - es ist interessanter, ihn per Klick zu betrachten.

Und das Gif beim Drücken der beiden Varianten wechselt zur Verdeutlichung

Es ist zu erkennen, dass meine Modelle nur sehr wenige Einbrüche auf dem Markt haben, da es sehr viel Blau gibt - wir müssen die Gründe für die Inaktivität untersuchen. Vielleicht sollte ich nach anderen Wegen suchen, um das Lernen zu stoppen, nicht nur durch Genauigkeit. Natürlich hätte ich sowohl der Vollständigkeit als auch der Genauigkeit gewisse Grenzen gesetzt, aber aus irgendeinem unbekannten Grund wird diese Option des Bildungsstopps von den Entwicklern nicht angeboten, was sehr schade ist.

Auslassungen aufgrund von Abrufen, die Wertebereiche überschreiten

irgendwelche interessanten Prädiktoren gefunden?

 
Maxim Dmitrievsky:

Auslassungen aufgrund von Merkmalen, die Wertebereiche überschreiten

Haben Sie irgendwelche interessanten Prädiktoren gefunden?

Sie glauben also, dass solche Werte in der Geschichte noch nie gefunden wurden und das Modell deshalb bei Inaktivität Lücken bildet, d.h. die Stichprobe ist nicht vollständig genug für das Training?

Nun, meine Vorhersagen sind alle interessant - sie sind seit Jahren erfunden :) Was besser funktioniert, weiß ich noch nicht, ich arbeite gerade an einem Skript, das mir hoffentlich helfen wird, es besser zu verstehen.

 
Vladimir Perervenko:

Herzlichen Glückwunsch!

Terminal: Es wurde eine API für die Abfrage von Daten vom MetaTrader 5-Terminal über Anwendungen mit derSprache Rhinzugefügt.

Wir haben ein spezielles Paket MetaTraderR vorbereitet. Es enthält eine DLL für die Interaktion zwischen R und dem MetaTrader 5-Terminal, Dokumentation und r-Hilfsdateien. Das Paket wird derzeit imCRAN-Repositoryregistriert und steht in Kürze zum Herunterladen und Installieren zur Verfügung.

Warten wir auf die Fortsetzung.

Viel Glück!

Sehr interessant, wir werden warten

 

Was die Bäume so alles von sich geben...

In der Grafik ist die Y-Achse die Nummer des Blattes (Binärbaum) und die X-Achse die Stichprobenzeichenfolge (in diesem Fall die Testzeichenfolge). Die Farbbereiche in der Legende - modulo genommene Werte - zeigen die Reaktion des Blattes. Das Modell verwendet 7 Bäume, d.h. ein Wert von jedem Blatt kommt in eine Zeile, insgesamt 7, sie werden summiert und dann wird die logistische Funktion angewendet, z.B. die Summe von 0 ist gleich 0,5.

Aus dem Diagramm kann man schließen, dass einige der Blätter im Testzeitraum nicht aktiviert wurden, d.h. Situationen in der Trainings- und Teststichprobe wurden nicht wiederholt. Man kann auch eine große Konzentration von Blättern mit geringer Reaktion (rot) feststellen, die das Ergebnis nicht signifikant beeinflussen, was eher auf Rauschen oder Uneinheitlichkeit logisch ähnlicher Bedingungen hinweist.

Grafik des Modells auf dem Markt

Das Diagramm der Genauigkeitsbilanz

Das Modell enthält zum Beispiel nur eine kleine Anzahl von Blättern (Bäumen).

 

Ich habe versucht, ein neuronales Netz in Python zu trainieren. Das Paket ist scikit-learn, der NS selbst ist sklearn.neural_network.MLPRegressor. Neuronen über 100, versteckte Schichten -7, Eingänge -19, Ausgang - 1. Die Aufgabe besteht darin, einen Zufallsprozess vorherzusagen.

Die Aufgabe ist künstlich, auf Rauschgenerator gemacht und so, dass dieser Lärm theoretisch vorhergesagt werden könnte. Ich habe es für ein paar Zählungen im Voraus ausprobiert.

Ergebnis des Vergleichs von Prognose und Realität für 5 Tausend zufällig ausgewählte Punkte:

X ist die Prognose, Y ist der tatsächliche Wert. Sie liegen alle sehr nahe an einer geraden Linie von 45 Grad. D.h. die Vorhersage ist nahezu perfekt (bei künstlichen Stichproben).

Das Lernen ist sehr schnell - 24 Epochen. In der Zeit, etwa 10 Sekunden.

Ich muss sagen, ich war sehr überrascht. Ich habe mich sehr bemüht, die Daten zu verbergen. Ich bin überrascht, dass sie es gefunden hat. Im Allgemeinen nahe der Mystik).

Schlussfolgerungen: Der NS sklearn.neural_network.MLPRegressor ist recht brauchbar. Ich habe den Klassifikator noch nicht ausprobiert.

Ich habe bereits etwas mit Market ausprobiert, bisher ohne Ergebnis. Keine Suche, sagt, dass es dort nichts gibt, obwohl die Aufgabe von der gleichen Klasse ist wie die künstlich erzeugte.

 
Yuriy Asaulenko:

Ich habe versucht, ein neuronales Netz in Python zu trainieren. Das Paket ist scikit-learn, der NS selbst ist sklearn.neural_network.MLPRegressor. Neuronen über 100, versteckte Schichten -7, Eingänge -19, Ausgang - 1. Die Aufgabe besteht darin, einen Zufallsprozess vorherzusagen.

Die Aufgabe ist künstlich, auf Rauschgenerator gemacht und so, dass dieser Lärm theoretisch vorhergesagt werden könnte. Ich habe es für ein paar Zählungen im Voraus ausprobiert.

Ergebnis des Vergleichs von Prognose und Realität für 5 Tausend zufällig ausgewählte Punkte:

X ist die Prognose, Y ist der tatsächliche Wert. Sie liegen alle sehr nahe an einer geraden Linie von 45 Grad. D.h. die Vorhersage ist nahezu perfekt (bei künstlichen Stichproben).

Das Lernen ist sehr schnell - 24 Epochen. In der Zeit, etwa 10 Sekunden.

Ich muss sagen, ich war sehr überrascht. Ich habe mich sehr bemüht, die Daten zu verbergen. Ich bin überrascht, dass sie es gefunden hat. Im Allgemeinen nahe der Mystik).

Schlussfolgerungen: Der NS sklearn.neural_network.MLPRegressor ist recht brauchbar. Ich habe den Klassifikator noch nicht ausprobiert.

Ich habe bereits etwas mit Market ausprobiert, bisher ohne Ergebnis. Sucht nicht, sagt, dass es dort nichts gibt, obwohl die Aufgabe von der gleichen Klasse ist wie die künstlich erzeugte.

Es handelt sich nicht um eine Aufgabe derselben Klasse.

Der Markt ist KEIN Rauschgenerator.
 
Oleg Avtomat:

Es handelt sich um eine Aufgabe, die NICHT zur gleichen Klasse gehört.

Der Markt ist KEIN Rauschgenerator.

Die Frage ist sehr strittig.)) Geben Sie Ihr Modell an, und ob es möglich ist, es gleichzeitig in NS zu fahren, und prüfen Sie, ob dieser Traktor funktioniert).

 
Yuriy Asaulenko:

Die Aufgabe besteht darin, einen Zufallsprozess vorherzusagen.

Es handelt sich um eine künstliche Aufgabe, die mit einem Rauschgenerator durchgeführt wird, so dass dieser Lärm theoretisch vorhergesagt werden kann. Ich habe es für ein paar Zählungen im Voraus ausprobiert.

Das Ergebnis ist ein Vergleich zwischen der Vorhersage und der Realität an 5.000 zufällig ausgewählten Punkten:


D. h., die Vorhersage ist nahezu perfekt (bei künstlichen Stichproben).

Die Daten sind also nicht zufällig, wie sonst wären sie zu erklären.

 
Yuriy Asaulenko:

Es ist ein strittiger Punkt.) Geben Sie uns Ihr Modell, und wenn es möglich ist, es in NS zu fahren, werden wir prüfen, ob dieser Traktor funktioniert).

Die Frage ist keineswegs überflüssig. Und das ist genau das, was Ihr NS sagt, der zwar beim Rauschgenerator funktioniert, aber nicht beim Markt-BP mit seinem Ergebnis"Nicht suchen, sagt, dass es dort nichts gibt".