Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3236

 
Nichtsdestotrotz ist das Thema der Erstellung benutzerdefinierter Pipelines und der anschließenden Konvertierung in ONNX sehr interessant und wichtig und verdient einen oder sogar mehrere Artikel im Forum.
 

Wenn ich richtig verstanden habe, sieht das Schema der Arbeit mit ONNX vereinfacht wie folgt aus:

MQL5_Input_Data -> ONNX -> MQL5_TS, wobei:

MQL5_Input_Data - Datenerfassung

ONNX - Modell (neuronales Netz mit Gewichtskoeffizienten)

MQL5_TS - Handler und Handelssystem.


Es ist nicht klar, wie das ONNX-Modell ausgeführt wird, ob es direkt von MT5 ausgeführt wird, oder ob Python für diesen Zweck verwendet werden sollte.

 
Andrey Dik #:

Wenn ich es richtig verstanden habe, sieht das Schema der Arbeit mit ONNX vereinfacht so aus:

MQL5_Input_Data -> ONNX -> MQL5_TS, wobei:

MQL5_Input_Data - Empfangsdaten

ONNX - Modell (neuronales Netz mit Gewichtskoeffizienten)

MQL5_TS - Handler und Handelssystem.


Es ist nicht klar, wie das ONNX-Modell ausgeführt wird, ob es direkt von MT5 ausgeführt wird, oder ob Python dafür verwendet werden sollte.

MT5 führt es aus. Die Ausgabe ist nur eine Exe des Bots. Als Ressource wird sie abgelegt.
 
Andrey Dik #:

Wenn ich es richtig verstanden habe, sieht das Schema der Arbeit mit ONNX vereinfacht so aus:

MQL5_Input_Data -> ONNX -> MQL5_TS, wobei:

MQL5_Input_Data - Empfangsdaten

ONNX - Modell (neuronales Netz mit Gewichtskoeffizienten)

MQL5_TS - Handler und Handelssystem.


Es ist nicht klar, wie das ONNX-Modell ausgeführt wird, ob es direkt von MT5 ausgeführt wird, oder ob Python dafür verwendet werden sollte.

Mein Verständnis ist wie folgt:. Onnx - Modell erzeugt nur
Signal (grob gesagt eine Zahl oder eine Reihe von Zahlen), und MT5-Terminal selbst macht den Handel.
Durch die Funktion OrderSend()
 
Andrey Dik #:

Es ist nicht klar, wie das ONNX-Modell ausgeführt wird, ob es direkt von MT5 ausgeführt wird oder ob Python dafür involviert werden muss.

Offenbar wird es über onnxruntime von Microsoft ausgeführt, das in MT5 enthalten ist. Es gab einen kurzen Moment, in dem es notwendig war, einige Dlls zum Stammverzeichnis des Terminals hinzuzufügen, um das Modell auszuführen.

GitHub - microsoft/onnxruntime: ONNX Runtime: cross-platform, high performance ML inferencing and training accelerator
GitHub - microsoft/onnxruntime: ONNX Runtime: cross-platform, high performance ML inferencing and training accelerator
  • microsoft
  • github.com
ONNX Runtime is a cross-platform inference and training machine-learning accelerator . ONNX Runtime inference can enable faster customer experiences and lower costs, supporting models from deep learning frameworks such as PyTorch and TensorFlow/Keras as well as classical machine learning libraries such as scikit-learn, LightGBM, XGBoost, etc...
 
Maxim Dmitrievsky #:
MT5 macht es. Wie es anschließend in den Botkörper eingenäht wird - ich glaube, Renat hat darüber geschrieben, ich weiß es nicht mehr. Die Ausgabe ist nur eine Exe des Bots.

Wenn ein EA mit ONNX nur eine Exe ist, wie sollen die Organisatoren dann wissen, dass ONNX überhaupt verwendet wird?

Oder: "Keine Sorge, sie werden es wissen!"?)))

 
Andrey Dik #:

Wenn ein EA mit ONNX nur eine Exe ist, wie können die Organisatoren dann wissen, dass ONNX überhaupt verwendet wird?

Oder: "Keine Sorge, sie werden es wissen!" ))))

Nein, das Modell wird als Ressource hinzugefügt. Sie können es als separate Datei hinzufügen - alles ist im Handbuch beschrieben.
 
Andrey Dik #:

Wenn ein EA mit ONNX nur eine Exe ist, wie können die Organisatoren dann wissen, dass ONNX überhaupt verwendet wird?

Oder: "Keine Sorge, sie werden es wissen!"?)))

🤷‍♂️
 
Aleksey Nikolayev #:
Nein, das Modell wird als Ressource hinzugefügt.

Nun, das ist es, was ich sage, das Modell als Ressource wird in die EA-Exe eingebettet, die Exe wird an den Organisator gesendet. Alles kann in der Exe sein, bis hin zum Fehlen des ONNX-Modells überhaupt))))

 
Andrey Dik #:

Nun, das ist, was ich sage, das Modell als Ressource ist in der EA-Exe eingebettet, die Exe wird an den Organisator gesendet. Alles kann in der Exe sein, bis zum Fehlen des ONNX-Modells überhaupt)))

))

Nein, es gibt einige Meldungen über den Start von onnx. Und sie werden Modelle akzeptieren, nicht Exeshniks, und dann werden sie Modelle in der gleichen Vorlage für alle ausführen.