L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 3145
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Ajout. En blanc, le temps est pratiquement une caractéristique nulle
Je comprends cela, mais vous pourriez également vous pencher sur la forêt causale. D'ailleurs, je ne l'ai pas étudiée, mais si quelqu'un la trouve, il serait intéressant de lire des expériences à ce sujet.
Non. Mon sko concerne les écarts de "capacité de prédiction". Rien à voir avec l'estimation du modèle lui-même.
Non. Mon commentaire porte sur les écarts de "capacité prédictive". Elle n'a rien à voir avec l'évaluation du modèle lui-même
Au cours d'une expérience similaire de sélection de caractéristiques informatives, j'ai essayé tous les moyens. Ce n'est pas difficile. En commençant par la corrélation, l'information mutuelle et le knn, en passant par les MCO et les SVM, jusqu'à la forêt, le bousting et les réseaux neuronaux (je n'ai pas touché aux réseaux profonds). Il s'est avéré que c'est le bousting qui est le plus performant. Les MCO arrivent en deuxième position.
Non. Mon sco porte sur les écarts de "capacité prédictive". Cela n'a rien à voir avec l'évaluation du modèle lui-même.
Est-il possible que les paramètres du modèle sautent beaucoup d'une étape à l'autre ? En d'autres termes, malgré un bon "pouvoir prédictif" à chaque étape, la dépendance souhaitée est organisée de manière très différente et change constamment. Dans ce cas, il peut s'agir d'une forme de surentraînement.
Si j'ai bien compris, vous pourriez également vous pencher sur la forêt causale. D'ailleurs, je ne l'ai pas étudiée, mais si quelqu'un la comprend, il serait intéressant de lire des comptes rendus d'expériences menées avec elle
Il semble que ce soit la même forêt aléatoire, mais avec une interprétation causale. En tant que vulgarisateur des forêts et maintenant des forêts causales, vous avez donc les cartes en main.)
Pourtant, je ne comprends pas encore l'application de l'analyse causale au commerce. Une recherche rapide sur Google n'a pas permis de trouver des applications directes, seulement des applications indirectes - comme l'étude de l'influence des actions sur le Forex.
Il semble que ce soit la même forêt aléatoire, mais avec une interprétation causale. En tant que vulgarisateur des forêts et de l'interprétation causale, vous avez donc les cartes en main.)
Pourtant, je ne comprends pas encore l'application de l'interprétation causale au commerce. Une recherche rapide sur Google n'a pas permis de trouver des applications directes, seulement des applications indirectes - comme l'étude de l'influence des actions sur le Forex.
Est-il possible que, d'une étape à l'autre, les paramètres du modèle sautent beaucoup ? En d'autres termes, malgré une bonne "prévisibilité" à chaque étape, la dépendance souhaitée est organisée de manière très différente et change constamment. Dans ce cas, il pourrait s'agir d'un type de surentraînement.
Dans mon cas, il est impossible de répondre à votre question : le modèle est réentraîné à chaque étape et, naturellement, l'ensemble des caractéristiques peut être différent à chaque étape.
L'erreur de classification varie de 20 % à 10 %. Il n'y a jamais eu d'erreur de 25 %.
Au cours d'une expérience similaire de sélection de caractéristiques informatives, j'ai essayé tous les moyens. Ce n'est pas difficile. En commençant par la corrélation, l'information mutuelle et le knn, en passant par les MCO et les SVM, jusqu'à la forêt, le bousting et les réseaux neuronaux (je n'ai pas touché aux réseaux profonds). Il s'est avéré que c'est le bousting qui est le plus performant. Les MCO sont en deuxième position.
Aucun des algorithmes susmentionnés ne donne de pouvoir prédictif, pas plus que les centaines d'algorithmes de MO qui calculent stupidement l'importance, qui indique combien de fois l'algorithme utilise une caractéristique : Si l'on donne des déchets à un algorithme de MO, n'importe quel algorithme de MO calculera l'importance de ces déchets.
Aucun des algorithmes susmentionnés n'a de pouvoir prédictif, pas plus que les centaines d'algorithmes de MO qui calculent stupidement l'importance, qui indique la fréquence d' utilisation d'une caractéristique par l'algorithme : Si vous introduisez des déchets dans un algorithme de MO, n'importe quel algorithme de MO calculera l'importance de ces déchets.