L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 3085
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
J'ai essayé d'entraîner des EA à partir de ce cycle en utilisant des méthodes génétiques et évolutionnaires (articles 30 et 31). L'auteur a 1000 époques dans les paramètres. La population est de 50 individus par époque, si j'ai bien compris. Le meilleur résultat est affiché dans le journal lors de l'apprentissage. Donc pour 200 époques, ce meilleur résultat n'a pas changé par rapport au résultat initial. J'ai aussi mis la population de 100 individus et j'ai entraîné environ 150 époques. L'effet est le même. J'ai donc abandonné cette méthode et je suis passé à des méthodes plus récentes.
Et les nouvelles ne sont pas entraînées correctement ? ) honnêtement, je n'ai pas envie de lire plus de 30 articles sans backtests normaux.
Qu'est ce que c'est ? du dernier article :)
Les nouveaux n'ont-ils pas été formés correctement ? ) honnêtement, je n'ai pas envie de lire plus de 30 articles où il n'y a pas de backtests normaux.
Qu'est-ce que c'est ? du dernier article :)
Dans cet article (et dans le précédent) l'auteur a implémenté un algorithme d'un ensemble de modèles (10 agents + 1 critique + 1 planificateur). Il collecte d'abord une base de données d'exemples (d'abord par des neurones aléatoires, puis les neurones entraînés sont utilisés) et ensuite un autre conseiller entraîne le modèle sur cette base de données. D'après l'auteur, le "scheduler" devrait utiliser tous les agents de manière égale. Mais dans mon cas, il utilise soit un seul agent (et ne fait rien avec), soit deux (il ouvre juste une transaction et attend que le temps de test soit écoulé ou que l'équilibre soit atteint).
Je ne comprends pas comment faire pour qu'il utilise tous les agents. En général, l'auteur de l'article (42) écrit qu'il avait aussi un tel problème avec la variante de (41) mais dans (42) il l'a corrigé et maintenant il utilise tous les agents. .... Je ne peux pas forcer le modèle à utiliser tous les agents. Cependant, au cours de toutes les expériences, le modèle a accidentellement utilisé 3 ou 4 agents à quelques reprises et il a été en mesure de conclure des transactions et d'effectuer des sortes d'échanges.
PS : J'ai demandé à l'auteur de l'article dans le commentaire d'expliquer et d'écrire en détail dans les figures comment il a entraîné le modèle. Combien d'exemples a-t-il collectés dans la base de données ? Combien de passes d'entraînement a-t-il effectuées ? Au moins quelques données spécifiques sur ce sur quoi il faut se concentrer..... Mais pour une raison quelconque, l'auteur ignore la question. Pourtant, quel est l'intérêt d'écrire toute une série d'articles s'il est impossible d'en tirer quoi que ce soit ? Si vous pensez que c'est de l'autopromotion ? Mais l'auteur ne vend rien, alors pourquoi a-t-il besoin de publicité....
Dans cet article (et dans le précédent), l'auteur a mis en œuvre un algorithme d'une sorte d'ensemble de modèles (10 agents + 1 critique + 1 planificateur). Il collecte d'abord une base de données d'exemples (d'abord par des neurones aléatoires, puis les neurones entraînés sont utilisés) et ensuite un autre conseiller entraîne le modèle sur cette base de données. D'après l'auteur, le "planificateur" devrait utiliser tous les agents de manière égale. Mais en fait, il utilise soit un seul agent (et ne fait rien avec lui), soit deux (il ouvre juste une transaction et attend que le temps de test soit écoulé ou que l'équilibre soit atteint).
Je ne comprends pas comment faire pour qu'il utilise tous les agents. En général, l'auteur de l'article (42) écrit qu'il avait aussi un tel problème avec la variante de (41), mais dans (42) il l'a corrigé et maintenant il utilise tous les agents. .... Je ne peux pas forcer le modèle à utiliser tous les agents. Cependant, au cours de toutes les expériences, le modèle a accidentellement utilisé 3 ou 4 agents à quelques reprises et il a été en mesure de clôturer des transactions et d'effectuer une sorte d'échange.
PS : J'ai demandé à l'auteur de l'article dans le commentaire d'expliquer et d'écrire en détail dans les figures comment il a entraîné le modèle. Combien d'exemples a-t-il collectés dans la base de données ? Combien de passes d'entraînement a-t-il effectuées ? Au moins quelques données spécifiques sur ce sur quoi il faut se concentrer..... Mais pour une raison quelconque, l'auteur ignore la question. Pourtant, quel est l'intérêt d'écrire toute une série d'articles s'il est impossible d'en tirer quoi que ce soit ? Si vous pensez que c'est de l'autopromotion ? Mais l'auteur ne vend rien, alors pourquoi a-t-il besoin de publicité....
Peut-être que l'auteur est tellement imbu de sa personne (car le travail effectué est vraiment colossal) qu'il ne répond plus aux questions des simples mortels :).
Je n'ai malheureusement pas l'occasion de vérifier tout cela, car je m'intéresse à d'autres choses.
Je n'ai fait qu'exprimer mon expérience d'utilisation de RL : les résultats sur les nouvelles données étaient médiocres, c'est parce que ces algorithmes ne prennent pas en compte toutes sortes de décalages et de dérives et que l'on ne sait pas très bien comment y intégrer ces informations.
Il y a peut-être des solutions dans les articles, mais je n'ai pas cherché.
Amis, bonjour !
Il y a une bataille, bienvenue, faites du bruit !!!
...
Bonjour JeeCi ! Bonne journée à vous !
Je vous invite au championnat, participez et amusez-vous).