L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 2939
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Vous êtes celui qui n'en est qu'au début de son périple pour faire face à l'enfer des incompatibilités mutuelles et créer des environnements distincts pour les tâches en Python.
Certains paquets nécessitent des compilateurs pour la compilation cible.
Tout à fait d'accord ! C'est beaucoup de travail. Deux questions à ce sujet :
1. Les modèles créés à l'aide du GPU peuvent-ils être convertis en ONNX ?
2. Nous n'avons pas besoin de Python pour obtenir la prédiction du modèle en ONNX dans l'Expert Advisor MQL5, n'est-ce pas ? Les calculs seront effectués par l'environnement onnxruntime ?
Je suis tout à fait d'accord ! C'est un travail considérable. Deux questions :
1. Les modèles créés à l'aide du GPU peuvent-ils être convertis en ONNX ?
2. Pour obtenir la prédiction du modèle en ONNX dans l'Expert Advisor MQL5, nous n'avons pas besoin de Python, n'est-ce pas ? Les calculs seront effectués par l'environnement onnxruntime ?
En théorie, c'est probablement le cas. Mais il peut s'avérer en pratique que seuls les modèles formés en Python conviennent, et seulement dans un environnement unique de paquets, d'utilitaires et de compilateurs (en tenant compte de leurs numéros de version). C'est du moins ainsi que j'ai compris l'allusion de Renate.
Je suis tout à fait d'accord ! C'est un travail considérable. Deux questions :
1. Les modèles créés à l'aide du GPU peuvent-ils être convertis en ONNX ?
2. Pour obtenir la prédiction du modèle en ONNX dans l'Expert Advisor MQL5, nous n'avons pas besoin de Python, n'est-ce pas ? Les calculs seront effectués par l'environnement onnxruntime ?
1. Oui, cela dépend du moteur source, qui peut être converti en ONNX dans l'opset existant.
2. Vous n'avez pas besoin de Python pour exécuter le modèle, tout ce dont vous avez besoin est un fichier EX5 et un terminal. Même les bibliothèques d'exécution ONNX ne seront bientôt plus nécessaires.
2. Vous n'avez pas besoin de Python pour exécuter le modèle, tout ce dont vous avez besoin est un fichier EX5 et un terminal. Même les bibliothèques ONNX Runtime seront bientôt inutiles.
Et alors, ce truc fonctionnera-t-il sur les semi-conducteurs ?
1. Oui, cela dépend du moteur source qui peut convertir en ONNX dans l'opset existant.
2. Vous n'avez pas besoin de Python pour exécuter le modèle, tout ce dont vous avez besoin est un fichier EX5 et un terminal. Même les bibliothèques d'exécution ONNX ne seront bientôt plus nécessaires.
1. et nous avons opset=14 ? J'utilise PyTorch(1.12.1) et TF(2.10).
2. extrêmement important et ce sera le plus grand avantage de cette intégration. Très bien...
La chose la plus intéressante est de savoir si les modèles ONNX créés dans R fonctionneront.
Une liste des versions d'ONNX et des opsets supportés serait utile.
Le plus intéressant est de savoir si les modèles ONNX créés en R fonctionneront.
Nous pouvons même aggraver la question. Les modèles ONNXréalisés en R fonctionneront-ils sous linux ?
Le plus intéressant est de savoir si les modèles ONNX créés en R fonctionneront.
Une liste des versions ONNX et des opsets supportés ne serait pas déraisonnable.
Deuxième question
Quels sont les packages R que vous utilisez pour créer des modèles ?
Je publie le projet dans les archives au cas où.