L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 2594
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
La critique de Dieu à nouveau
C'est autant dans le front que dans la tête.
Vous faites un point, pas ces conneries - ça va marcher, parce que ça ne marchera pas.
Je vois, même la fantaisie est complètement absente. Le PO ne couvrira pas tout l'espace des variantes de modèles, vous devrez choisir et qu'elle s'est optimisée et arrêtée à la meilleure variante. Allez à l'usine, en bref. Vous entreprenez certaines choses sans même comprendre à peu près ce sur quoi vous travaillez. Et dans le cas du boosting, il est impossible de construire des OP, car le nombre de paramètres augmente à chaque itération.
L'utilisation de la MO dans le commerce soulève des questions plus intéressantes. Par exemple, l'algorithme de détermination de l'intervalle d'histoire à prendre pour la formation. Il est peut-être possible de le définir par des méta-paramètres qui sont optimisés par validation croisée. Je dois lire Prado).
Je voulais écrire que plus il y a de données, mieux c'est, puis je me suis souvenu d'une de mes petites expériences (bien qu'elle ait été faite sans représentativité suffisante, donc le résultat peut très bien être aléatoire, mais quand même). En fait, il y a deux marchés - selon mon estimation subjective, l'un est plus efficace, l'autre moins. Le modèle formé sur le marché le plus efficace a donné de moins bons résultats en matière d'OOS sur ce marché que le modèle formé sur le marché le moins efficace dans la même zone.
Souvent, les modèles cessent de fonctionner en un instant, quelle que soit la taille du plateau. Je me suis entraîné sur des échantillons de différentes longueurs, tous cessent de fonctionner à un certain moment de l'histoire précédente. Grâce à cela, vous pouvez voir que certains motifs manquent ou changent.
Il s'avère ensuite que vous devez vous entraîner sur une section aussi courte que possible. Ainsi, après le changement de motif, le nouveau motif commence à fonctionner plus rapidement.
Par exemple, si vous vous entraînez pendant 12 mois, après un changement de schéma dans 6 mois, le nouveau et l'ancien schéma seront à 50/50. Et dans environ un an, il y aura une formation et des échanges sur le nouveau modèle. C'est-à-dire que pendant presque une année entière, le modèle a été négocié sur un modèle périmé et très probablement perdant.
Si vous vous entraînez pendant un mois, le motif réapprendra à fonctionner correctement dans un mois.
Ce serait bien de s'entraîner pendant une semaine... Mais je n'ai pas assez de données.
Souvent, les modèles cessent de fonctionner à un moment donné, quelle que soit la taille du plateau. Je les ai entraînés sur des échantillons de différentes longueurs, tous cessent de fonctionner à un certain moment de l'histoire passée. Grâce à cela, vous pouvez voir que certains motifs manquent ou changent.
Pour le bruit, oui. Je n'y ai pas pensé en termes de sections de l'histoire avec et sans bruit. Et d'ailleurs, comment comprendre cela avant de former le modèle ? Comme, itérativement ? J'ai entraîné tous les secteurs, regardé où il est le plus performant, laissé ces secteurs et entraîné seulement ces secteurs en premier ? Cela donne lieu à la deuxième question que l'on peut qualifier de philosophique avant la validation expérimentale : est-il préférable que le modèle voie immédiatement différentes zones, y compris les zones bruyantes, mais apprenne en moyenne à partir de données bruyantes ou apprenne à partir de données plus propres, mais ne voie pas une fois les données bruyantes.
Et quel est le problème avec les tailles géantes ? En dehors de l'augmentation du temps de calcul ?