L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3236

 
Néanmoins, le sujet de la création de pipelines personnalisés et de leur conversion en ONNX est très intéressant, important et mérite un ou plusieurs articles sur le forum.
 

Si j'ai bien compris, le schéma de travail avec ONNX simplifié ressemble à ceci :

MQL5_Input_Data -> ONNX -> MQL5_TS, où :

MQL5_Input_Data - acquisition des données

ONNX - modèle (réseau neuronal avec coefficients de poids)

MQL5_TS - gestionnaire et système de négociation.


La manière dont le modèle ONNX est exécuté n'est pas claire, à savoir s'il est exécuté directement par MT5 ou si Python doit être utilisé à cette fin.

 
Andrey Dik #:

Si j'ai bien compris, le schéma de travail avec ONNX se présente de manière simpliste comme suit :

MQL5_Input_Data -> ONNX -> MQL5_TS, où :

MQL5_Input_Data - réception des données

ONNX - modèle (réseau neuronal avec coefficients de poids)

MQL5_TS - gestionnaire et système de négociation.


La manière dont le modèle ONNX est exécuté n'est pas claire, qu'il soit exécuté directement par MT5 ou qu'il faille utiliser Python pour cela.

MT5 l'exécute. Le résultat n'est qu'un fichier exe du robot. En tant que ressource, il est classé.
 
Andrey Dik #:

Si j'ai bien compris, le schéma de travail avec ONNX se présente de manière simpliste comme suit :

MQL5_Input_Data -> ONNX -> MQL5_TS, où :

MQL5_Input_Data - réception des données

ONNX - modèle (réseau neuronal avec coefficients de poids)

MQL5_TS - gestionnaire et système de négociation.


La manière dont le modèle ONNX est exécuté n'est pas claire, à savoir s'il est exécuté directement par MT5 ou si Python doit être utilisé à cet effet.

Ma compréhension est la suivante :. Onnx - le modèle produit uniquement
Signal (en gros, un nombre ou un ensemble de nombres), et le terminal MT5 effectue lui-même les transactions.
Par le biais de la fonction OrderSend()
 
Andrey Dik #:

Il n'est pas clair comment le modèle ONNX est exécuté, s'il est exécuté directement par MT5 ou si Python doit être impliqué pour cela.

Apparemment, il est exécuté via onnxruntime de Microsoft, qui est inclus dans MT5. Il y a eu un bref moment où il a fallu ajouter quelques dlls à la racine du terminal pour exécuter le modèle.

GitHub - microsoft/onnxruntime: ONNX Runtime: cross-platform, high performance ML inferencing and training accelerator
GitHub - microsoft/onnxruntime: ONNX Runtime: cross-platform, high performance ML inferencing and training accelerator
  • microsoft
  • github.com
ONNX Runtime is a cross-platform inference and training machine-learning accelerator . ONNX Runtime inference can enable faster customer experiences and lower costs, supporting models from deep learning frameworks such as PyTorch and TensorFlow/Keras as well as classical machine learning libraries such as scikit-learn, LightGBM, XGBoost, etc...
 
Maxim Dmitrievsky #:
MT5 le fait. Je pense que Renat a écrit à ce sujet, mais je ne me souviens pas. La sortie est juste un exe du bot.

Si un EA avec ONNX n'est qu'un exe, comment les organisateurs sauront-ils qu'ONNX est utilisé ?

Ou, "ne vous inquiétez pas, ils le sauront !"?)))

 
Andrey Dik #:

Si un EA avec ONNX n'est qu'un exe, comment les organisateurs sauront-ils qu'ONNX est utilisé ?

Ou, "ne vous inquiétez pas, ils le sauront !"))))

Non, le modèle est ajouté en tant que ressource. Vous pouvez l'ajouter en tant que fichier séparé - tout est décrit dans le manuel.
 
Andrey Dik #:

Si un EA avec ONNX n'est qu'un exe, comment les organisateurs sauront-ils qu'ONNX est utilisé ?

Ou, "ne vous inquiétez pas, ils le sauront !"?)))

🤷‍♂️
 
Aleksey Nikolayev #:
Non, le modèle est ajouté en tant que ressource.

C'est ce que je dis, le modèle en tant que ressource est intégré dans l'exe de l'EA, l'exe est envoyé à l'organisateur. Tout peut se trouver dans l'exe, jusqu'à l'absence totale du modèle ONNX))))

 
Andrey Dik #:

C'est ce que je dis, le modèle en tant que ressource est incorporé dans l'exe EA, l'exe est envoyé à l'organisateur. tout peut être dans l'exe, jusqu'à l'absence du modèle ONNX))))

))

Non, il y a des messages sur le lancement d'onnx. Et ils accepteront les modèles, pas les exeshniks, et ensuite ils feront tourner les modèles dans le même template pour tous.