L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 3023
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Ce système est facilement automatisé et fonctionne sans intervention humaine
un algorithme similaire a été présenté dans le dernier article.
Il s'agit essentiellement de filtrer les erreurs de modèle et de les placer dans une classe distincte "ne pas négocier", mieux à l'aide d'un second modèle qui apprend à séparer le grain de l'ivraie.
et seuls les grains restent dans le premier modèle
C'est la même chose qu'avec les règles de l'arbre, mais sur le côté. Mais les règles devraient être pillées et comparées les unes aux autres, et il y a déjà un TS raffiné à la sortie.
J'ai justifié plus haut le fait que l'on ne peut pas écarter les erreurs de modèle.
J'aimerais changer d'avis.
Mais à cette fin, c'est nécessaire.
Évaluation du modèle initial sur la sélection de formation et en dehors de celle-ci
Évaluation d'un modèle "nettoyé" en dehors de la sélection de formation qui ne correspond PAS aux deux modèles précédents.
Peut-on ?
Il a été justifié plus haut que l'on ne peut pas rejeter les erreurs de modèle.
Je voudrais changer d'avis.
Mais pour ce faire.
Évaluation du modèle initial sur et hors sélection d'entraînement
Estimation d'un modèle "nettoyé" en dehors de la sélection d'entraînement qui ne correspond PAS aux deux modèles précédents
Peut-on ?
J'ai ajouté quelques écrans ci-dessus
Les algorithmes permettant de séparer le grain de l'ivraie de cette manière peuvent être différents, je vous montre comment je procède.
à gauche de la ligne pointillée se trouve l'OOS, qui ne participe en aucune façon à la formation
l'apprentissage sur des signes simples comme les incréments
la courbe jaune est le tableau des cotations lui-même, ne le regardez pas. Mais vous pouvez l'utiliser pour comprendre dans quelles situations le modèle fonctionne mieux/moins bien.Si vous éliminez beaucoup d'erreurs d'un coup, l'enseignant dégénère (il peut rester beaucoup d'erreurs et zéro grain), il faut donc éliminer progressivement à chaque itération
et l'erreur sur les OOS diminue progressivement, dans ce cas r^2 augmente
en substance, il s'agit d'un analogue de bestinterval de fxsaber, sauf qu'ici la TS est préparée en une seule foisJe pense que tout est listé. Il s'agit d'un livre de Jeremy Howard, fondateur de Kaggle et de framevoc fast.ai.
Fast.ai.
Livre en original
Livre en russe
Version gratuite
Si vous éliminez beaucoup d'erreurs d'un coup, l'enseignant dégénère (il peut rester beaucoup d'erreurs et zéro grain), il faut donc éliminer progressivement à chaque itération
et l'erreur OOS diminue progressivement, dans ce cas r^2 augmente.
Il s'agit essentiellement d'un analogue de bestinterval de fxsaber, sauf qu'ici le TS est préparé en une seule fois.À mon avis, la citation est exagérément adaptée.
Où se trouve "Out of sample" ?
Pour moi, il y a une super adéquation entre la citation et la réalité.
Où est "Out of sample" ?
Ce n'est plus drôle.
Je propose de faire ce chapeau avec un arbre en python avec un choix de feuilles, dans kolab, vous pouvez y mettre vos jeux de données.
Si vous avez des idées sur ce qui est mieux/pire, des règles pour ne prendre que le meilleur ou à travers certains filtres, suggérez-le.
Je veux comparer, en faisant passer un ensemble de données par les deux approches. Nous comprendrons alors ce qu'il en est :)
Ce système est facilement automatisé et fonctionne sans intervention humaine
un algorithme similaire a été présenté dans le dernier article.
En substance, il s'agit de filtrer les erreurs de modèle et de les placer dans une classe distincte "ne pas négocier", mieux grâce à un second modèle qui apprend à séparer le grain de l'ivraie.
et seuls les grains restent dans le premier modèle
C'est la même chose qu'avec les règles de l'arbre, mais sur le côté. Mais les règles devraient être pillées et comparées les unes aux autres, et il y a déjà un TS raffiné à la sortie.
Par exemple, la première itération de la sélection des grains de l'ivraie (à gauche de la ligne verticale pointillée - OOS) :
Et voici la 10e :
Oui, l'objectif est le même : travailler en fin de compte avec des données qui décrivent mieux les prédicteurs.
La question de savoir comment y parvenir le plus efficacement possible reste ouverte - chaque méthode a ses avantages et ses inconvénients.
Je pense que tout est listé. Il s'agit d'un livre de Jeremy Howard, fondateur de Kaggle et de framevoc fast.ai.
Fast.ai.
Le livre dans sa version originale
Livre en russe
Version gratuite
Merci ! Il faudra que je cherche une version gratuite en russe - le traducteur fait parfois des perles et me parle de saumure, ce qui peut être utile :)