Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2939

 
Renat Fatkhullin #:

Sie sind derjenige, der noch am Anfang steht, wenn es darum geht, mit der Hölle der gegenseitigen Inkompatibilitäten umzugehen und separate Umgebungen für Aufgaben in Python zu schaffen.

Einige Pakete erfordern Compiler für den Ziel-Build.

Da stimme ich voll und ganz zu! Es ist eine Menge Arbeit. Zwei Fragen in diesem Zusammenhang:

1. Können Modelle, die mit GPU erstellt wurden, in ONNX konvertiert werden?

2. Wir brauchen kein Python, um die Modellvorhersage in ONNX im MQL5 Expert Advisor zu erhalten, oder? Die Berechnungen werden von der onnxruntime-Umgebung durchgeführt?

 
Vladimir Perervenko #:

Dem stimme ich voll und ganz zu! Es ist eine Menge Arbeit. Zwei Fragen:

1. Können Modelle, die mit GPU erstellt wurden, in ONNX konvertiert werden?

2. Um die Modellvorhersage in ONNX im MQL5 Expert Advisor zu erhalten, brauchen wir kein Python, oder? Die Berechnungen werden von der onnxruntime-Umgebung durchgeführt?

In der Theorie ist das wahrscheinlich so. Aber in der Praxis könnte sich herausstellen, dass nur in Python trainierte Modelle geeignet sind, und auch nur in einer bestimmten Umgebung von Paketen, Dienstprogrammen und Compilern (unter Berücksichtigung ihrer Versionsnummern). Zumindest habe ich Renates Hinweis so verstanden.

 
Vladimir Perervenko #:

Dem stimme ich voll und ganz zu! Es ist eine Menge Arbeit. Zwei Fragen:

1. Können Modelle, die mit GPU erstellt wurden, in ONNX konvertiert werden?

2. Um die Modellvorhersage in ONNX im MQL5 Expert Advisor zu erhalten, brauchen wir kein Python, oder? Die Berechnungen werden von der onnxruntime-Umgebung durchgeführt?

1. Ja, es hängt von der Quell-Engine ab, die innerhalb des bestehenden Opsets in ONNX konvertieren kann.

2. Sie brauchen kein Python, um das Modell auszuführen, alles was Sie brauchen ist eine EX5-Datei und ein Terminal. Auch die ONNX-Laufzeitbibliotheken werden in absehbarer Zeit nicht benötigt.

 
Renat Fatkhullin #:

2. Sie brauchen kein Python, um das Modell auszuführen, Sie brauchen nur eine EX5-Datei und ein Terminal. Auch die ONNX-Laufzeitbibliotheken werden bald überflüssig sein

Und wird das Ding dann auf Halbleitern funktionieren?

 
Renat Fatkhullin #:

1. Ja, es hängt von der Quell-Engine ab, die innerhalb des bestehenden Opsets in ONNX konvertieren kann

2. Sie brauchen kein Python, um das Modell auszuführen, alles was Sie brauchen ist eine EX5-Datei und ein Terminal. Auch die ONNX-Laufzeitbibliotheken werden in absehbarer Zeit nicht benötigt.

1. und wir haben opset=14 ? Ich verwende PyTorch(1.12.1) und TF(2.10).

Предупреждение: TensorFlow 2.10 был последним выпуском TensorFlow, который поддерживал GPU в родной Windows. 
Начиная с TensorFlow 2.11 , вам нужно будет установить TensorFlow в WSL2 или установить tensorflow-cpu и, 
при желании, попробовать TensorFlow-DirectML-Plugin.

2. extrem wichtig und das wird der größte Vorteil dieser Integration sein. Toll

 

Das Interessanteste ist, ob ONNX-Modelle, die in R erstellt wurden, funktionieren.

Eine Liste der unterstützten ONNX-Versionen und Opsets wäre nützlich.

 
Aleksey Nikolayev #:

Am interessantesten ist, ob die in R erstellten ONNX-Modelle funktionieren.

Wir können die Frage sogar noch verschärfen. Werden ONNX-Modelle,die in R erstellt wurden, unter Linux laufen?

 
Aleksey Nikolayev #:

Am interessantesten ist, ob die in R erstellten ONNX-Modelle funktionieren.

Eine Liste der unterstützten ONNX-Versionen und Opsets wäre nicht unvernünftig.

Ich unterstütze die Frage
 
mytarmailS #:
Zweite Frage

Welche R-Pakete verwenden Sie zur Erstellung von Modellen?

 
Aleksey Nikolayev #:

Ich stelle das Projekt vorsichtshalber in das Archiv ein.

Danke, aber ich springe ab ... es ist zu teuer, um noch weiter zu gehen, ich habe nicht so viel Zeit ))