L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 3098
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
c'est là qu'il se dirigeait.
il n'y a pas de poisson dans le MO, c'est un fait évident à 100%, prouvé à maintes reprises par ce fil de discussion.
sur internet, ils le disent avec joie.
Regardez autour de vous.
Il faut savoir que les MO ts ne sont pas différents des autres, le taux de réussite est en moyenne le même (à peu près zéro, mais parfois on continue)
Je suis d'accord avec la partie surlignée.
Tout le monde n'a pas cette chance :
Non, pas Neira (son processeur préférerait bouillir plutôt que de trouver une telle solution), je l'ai fait moi-même.
Étant donné que nous éliminons le biais dans l'échantillon d'apprentissage (c'est l'élément principal) et la variance par le biais de la validation croisée, le modèle commence à se comporter de manière +- adéquate sur les nouvelles données. Il peut alors être affiné.
Au fait, avez-vous essayé de faire un graphique non pas avec un pas uniforme entre les transactions, mais avec le temps ?
Ou il peut se révéler comme le mien avec 5 ans de seulement 2 zones de croissance pendant la moitié de l'année, le reste du temps presque sans transactions. Et 2 ans de drawdown, pour la même raison. On ne peut pas mettre une telle chose sur le réel...
Si vous le faites non pas par le temps, mais par les étapes, il sera aussi beau que le vôtre.
Au fait, avez-vous essayé de faire un graphique non pas avec un pas régulier entre les transactions, mais par temps ?
Ou cela pourrait se passer comme j'ai eu pendant 5 ans avec seulement 2 zones de croissance pendant la moitié de l'année, le reste du temps presque sans transactions. Et 2 ans en drawdown, pour la même raison. On ne peut pas mettre une telle chose sur le réel...
Si vous le faites non pas par le temps, mais par les étapes, il sera aussi beau que le vôtre.
Vous avez les jetons hors de portée, je suppose. D'après le graphique eurodoll ci-dessous, les échanges sont plus ou moins réguliers. Mais l'OOS a toujours moins de transactions, à durée égale de formation et d'OOS. Eh bien, parce que les métriques sont moins bonnes. Nous n'avons pas encore réussi à le rendre parfait.
Essayez un graphique temporel. Il n'est pas exclu que ce soit la même chose....
Kozul utilise un paramètre externe pour estimer son effet sur les résultats du modèle. Il peut s'agir d'un prédicteur ou d'une variable binaire, n'importe quoi. Il peut même s'agir de la différence entre les prédicteurs.
Ensuite, à l'aide de différentes techniques, on déduit l'effet de ce paramètre sur les prédictions. Ensuite, on peut augmenter le modèle en tenant compte de cette influence, afin d'obtenir de nouvelles valeurs, par exemple, pour les étiquettes. Et de nouveaux coefficients du modèle, comme c'est le cas dans l'apprentissage automatique double. Il y a là 2 modèles : l'un fait du débruitage, l'autre du débruitage. Comme la validation croisée est utilisée dans le processus d'estimation, les nouveaux paramètres sont plus robustes, même sur de nouvelles données. Le modèle final est ensuite entraîné.
Il est difficile de l'expliquer avec les doigts, il vaut mieux lire la littérature spécialisée. J'ai réalisé plusieurs variantes, elles fonctionnent. Le sujet est assez vaste, avec ses propres nuances. Il y a vos "paquets" préférés.
Il existe à la fois des approches purement empiriques et des approches strictement éprouvées, comme celle de Tchernozhukov. C'est une belle technique en général.
Étant donné que nous éliminons le biais dans l'échantillon d'apprentissage (c'est l'élément principal) et la variance grâce à la validation croisée, le modèle commence à se comporter de manière +- adéquate sur les nouvelles données. Il peut alors être affiné.
Il existe de nombreuses méthodes différentes. Peu d'études prouvent qu'elles fonctionnent. La question est donc la suivante : vous essayez maintenant de trouver les domaines de prédicteurs sur lesquels la variance augmente dans l'ensemble et de construire un modèle pour les exclure, puis sur les résidus après la classification, vous vous entraînez à appliquer le modèle dans le commerce ?
Vous essayez la ligne de temps. Il est possible que ce soit la même chose....
Aucune de ces fenêtres n'est grande, la moyenne est égale, vérifiée. C'était le cas sur d'autres CT lorsque les panneaux dépassaient les fourchettes.
Il existe de nombreuses méthodes. Il y a peu de preuves qu'elles fonctionnent. La question est donc la suivante : vous essayez maintenant de trouver les domaines de prédicteurs sur lesquels la variance augmente dans l'ensemble et de construire un modèle pour les exclure, puis sur les résidus après la classification, vous êtes formés pour appliquer le modèle dans le commerce ?
Je n'en sortirai pas. Le seuil de déclenchement est élevé et exclut de nombreuses transactions. Si vous l'activez par le milieu, ce sera bien pire. D'une manière générale, vous relevez vous-même les indicateurs commerciaux (vous l'avez écrit aujourd'hui).