L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3235

 
Maintenant, les fans de Basic vont sortir et commencer à brandir des pancartes "Les Basicistes sont importants aussi !
et les eRastas brandissent déjà .....
 

Il est sur le site web depuis des années, pourquoi vous donner la peine de le faire ?

Laréunion virtuelle de la communauté ONNX a commencé par l'introduction - Systèmes de trading automatisés - MQL5

/Vous ne lisez rien d'autre que ce fil de discussion ? ;)
Изучаем ONNX для применения в трейдинге - Виртуальная встреча сообщества ONNX началась с введения.
Изучаем ONNX для применения в трейдинге - Виртуальная встреча сообщества ONNX началась с введения.
  • 2023.04.19
  • www.mql5.com
презентации сообщества и обсуждения дорожной карты Руководящим комитетом ONNX. Спикер также рассказывает об управлении сообществом и новых членах руководящего комитета и приглашает принять участие в обсуждениях дорожной карты. 00 00 В этом разделе спикер обсуждает обсуждения дорожной карты Руководящим комитетом ONNX, которые проходили летом
 
Aleksey Nikolayev #:
Google onnx.

Merci.

Ai-je bien compris qu'un certain nombre de fonctions standard sont prises en charge, mais pas les fonctions auto-écrites ?

 
Aleksey Vyazmikin #:

Nous vous remercions.

Ai-je bien compris qu'un certain nombre de fonctions standard sont prises en charge, mais pas les fonctions auto-écrites ?

Google (ou CHATGPTit) onnx à partir de zéro. Je suis un piètre substitut à l'IA.
 
Aleksey Nikolayev #:
Google (ou CHATGRTit) onnx à partir de zéro. Je suis un piètre remplaçant de l'IA.

ChatGPT :

"
ONNX (Open Neural Network Exchange) est un format d'échange de modèles d'apprentissage profond conçu pour stocker et transférer des modèles entre différents cadres et outils d'apprentissage profond. L'idée principale derrière ONNX est de fournir un format commun pour représenter les modèles, indépendamment de la façon dont ils ont été créés.

ONNX n'est pas conçu pour stocker des fonctions ou du code personnalisés arbitraires. Il est conçu pour représenter des modèles qui peuvent être exprimés comme un graphe de calcul composé de couches et d'opérations prises en charge par des opérations d'apprentissage profond standard telles que les convolutions, la mise en commun, les activations, etc.

Si vous avez une fonction personnalisée que vous souhaitez intégrer dans un modèle d'apprentissage profond et stocker au format ONNX, vous devrez peut-être mettre en œuvre la fonction en utilisant des opérations et des couches prises en charge par ONNX, ou la réécrire en tant que graphe de calcul. Le code utilisateur ou les fonctions écrites dans un langage de programmation doivent être représentés comme une partie de ce graphe en utilisant des opérations standard.

"

 
Aleksey Vyazmikin #:

ChatGPT :

"
ONNX (Open Neural Network Exchange) est un format d'échange de modèles d'apprentissage profond conçu pour stocker et transférer des modèles entre différents cadres et outils d'apprentissage profond. L'idée principale derrière ONNX est de fournir un format commun pour représenter les modèles, indépendamment de la façon dont ils ont été créés.

ONNX n'est pas conçu pour stocker des fonctions ou du code personnalisés arbitraires. Il est conçu pour représenter des modèles qui peuvent être exprimés comme un graphe de calcul composé de couches et d'opérations prises en charge par des opérations d'apprentissage profond standard telles que les convolutions, la mise en commun, les activations, etc.

Si vous avez une fonction personnalisée que vous souhaitez intégrer dans un modèle d'apprentissage profond et stocker au format ONNX, vous devrez peut-être mettre en œuvre la fonction en utilisant des opérations et des couches prises en charge par ONNX, ou la réécrire en tant que graphe de calcul. Le code utilisateur ou les fonctions écrites dans un langage de programmation doivent être représentés comme une partie de ce graphe en utilisant des opérations standard.

"

Pour convertir une moyenne mobile exponentielle (EMA) au format ONNX, vous pouvez utiliser l'API ONNX Python.

. Tout d'abord, vous devez créer un modèle ONNX à l'aide de l'API ONNX. Ensuite, vous pouvez ajouter le calcul de l'EMA au modèle. Une façon de calculer l'EMA en Python est d'utiliser la bibliothèque Pandas
1
2 .
Une fois que le calcul de l'EMA est implémenté en Python, vous pouvez utiliser l'API ONNX pour convertir le code Python en un modèle ONNX. Voici un exemple de code Python pour calculer l'EMA à l'aide de Pandas :

****************************

Voilà le début de la réponse d'AI à votre question sur l'EMA. Une fois de plus, je vous invite à passer de la fabrication de cerveaux humains à l'IA.

 
Aleksey Nikolayev #:

Pour convertir une moyenne mobile exponentielle (EMA) au format ONNX, vous pouvez utiliser l'API Python ONNX

. Tout d'abord, vous devez créer un modèle ONNX à l'aide de l'API ONNX. Ensuite, vous pouvez ajouter le calcul de l'EMA au modèle. Une façon de calculer l'EMA en Python est d'utiliser la bibliothèque Pandas
1
2 .
Une fois que le calcul de l'EMA est implémenté en Python, vous pouvez utiliser l'API ONNX pour convertir le code Python en un modèle ONNX. Voici un exemple de code Python pour calculer l'EMA à l'aide de Pandas :

****************************

Voilà le début de la réponse d'AI à votre question sur l'EMA. Une fois de plus, je vous invite à passer de la fabrication de cerveaux humains à l'IA.

Ne faites pas le malin - je ne suis pas intéressé par les fonctions de la bibliothèque, mais par mes propres fonctions. Et l'IA m'a répondu qu'on ne peut pas le faire sans tambourin.

Si vous ne voulez pas répondre, mieux vaut vous taire plutôt que de vous étouffer dans la bile.

Branche super toxique.

 
)))
Il est magnifique
 
Tout est codé sous forme de graphes dont les nœuds contiennent des opérateurs matriciels. Rien de surnaturel. Chaque modèle a son propre analyseur dans ce format et vice-versa. Il existe un programme sur github qui vous permet de créer ou d'éditer visuellement ces graphes, basé sur netron.
 
Aleksey Vyazmikin #:

Ne soyez pas malin - je ne suis pas intéressé par les fonctions de la bibliothèque, mais par mes propres fonctions. Et l'IA m'a répondu qu'il était impossible de le faire sans tambourin.

Si vous ne voulez pas répondre, vous feriez mieux de vous taire au lieu de vous étouffer dans la bile.

Branche super toxique.

Ceux qui veulent faire quelque chose cherchent des opportunités, ceux qui ne veulent pas le faire cherchent des raisons.

C'est vous qui intoxiquez le fil de discussion, en essayant de forcer ses participants à "travailler ensemble pour votre bénéfice" avec vos manipulations.