L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 3023

 
Maxim Dmitrievsky #:

Ce système est facilement automatisé et fonctionne sans intervention humaine

un algorithme similaire a été présenté dans le dernier article.

Il s'agit essentiellement de filtrer les erreurs de modèle et de les placer dans une classe distincte "ne pas négocier", mieux à l'aide d'un second modèle qui apprend à séparer le grain de l'ivraie.

et seuls les grains restent dans le premier modèle

C'est la même chose qu'avec les règles de l'arbre, mais sur le côté. Mais les règles devraient être pillées et comparées les unes aux autres, et il y a déjà un TS raffiné à la sortie.

J'ai justifié plus haut le fait que l'on ne peut pas écarter les erreurs de modèle.

J'aimerais changer d'avis.

Mais à cette fin, c'est nécessaire.

Évaluation du modèle initial sur la sélection de formation et en dehors de celle-ci

Évaluation d'un modèle "nettoyé" en dehors de la sélection de formation qui ne correspond PAS aux deux modèles précédents.

Peut-on ?

 
СанСаныч Фоменко #:

Il a été justifié plus haut que l'on ne peut pas rejeter les erreurs de modèle.

Je voudrais changer d'avis.

Mais pour ce faire.

Évaluation du modèle initial sur et hors sélection d'entraînement

Estimation d'un modèle "nettoyé" en dehors de la sélection d'entraînement qui ne correspond PAS aux deux modèles précédents

Peut-on ?

J'ai ajouté quelques écrans ci-dessus

Les algorithmes permettant de séparer le grain de l'ivraie de cette manière peuvent être différents, je vous montre comment je procède.

à gauche de la ligne pointillée se trouve l'OOS, qui ne participe en aucune façon à la formation

l'apprentissage sur des signes simples comme les incréments

la courbe jaune est le tableau des cotations lui-même, ne le regardez pas. Mais vous pouvez l'utiliser pour comprendre dans quelles situations le modèle fonctionne mieux/moins bien.
 

Si vous éliminez beaucoup d'erreurs d'un coup, l'enseignant dégénère (il peut rester beaucoup d'erreurs et zéro grain), il faut donc éliminer progressivement à chaque itération

et l'erreur sur les OOS diminue progressivement, dans ce cas r^2 augmente

Iteration: 0, R^2: 0.10170503363002426
Iteration: 1, R^2: 0.3786110827222656
Iteration: 2, R^2: 0.36326063198923375
Iteration: 3, R^2: 0.4316690005974817
Iteration: 4, R^2: 0.71390099630815
Iteration: 5, R^2: 0.8178962191209952
en substance, il s'agit d'un analogue de bestinterval de fxsaber, sauf qu'ici la TS est préparée en une seule fois
 
Aleksey Vyazmikin #:

Je pense que tout est listé. Il s'agit d'un livre de Jeremy Howard, fondateur de Kaggle et de framevoc fast.ai.

Fast.ai.

Livre en original

Livre en russe

Version gratuite

 
Maxim Dmitrievsky #:

Si vous éliminez beaucoup d'erreurs d'un coup, l'enseignant dégénère (il peut rester beaucoup d'erreurs et zéro grain), il faut donc éliminer progressivement à chaque itération

et l'erreur OOS diminue progressivement, dans ce cas r^2 augmente.

Il s'agit essentiellement d'un analogue de bestinterval de fxsaber, sauf qu'ici le TS est préparé en une seule fois.

À mon avis, la citation est exagérément adaptée.

Où se trouve "Out of sample" ?

 
Peut-être que si vous modifiez les arbres comme ça et que vous sortez ensuite les règles, ce sera mieux.
 
СанСаныч Фоменко #:

Pour moi, il y a une super adéquation entre la citation et la réalité.

Où est "Out of sample" ?

Ce n'est plus drôle.

 
Aleksey Vyazmikin #:

Je propose de faire ce chapeau avec un arbre en python avec un choix de feuilles, dans kolab, vous pouvez y mettre vos jeux de données.

Si vous avez des idées sur ce qui est mieux/pire, des règles pour ne prendre que le meilleur ou à travers certains filtres, suggérez-le.

Je veux comparer, en faisant passer un ensemble de données par les deux approches. Nous comprendrons alors ce qu'il en est :)

 
Maxim Dmitrievsky #:

Ce système est facilement automatisé et fonctionne sans intervention humaine

un algorithme similaire a été présenté dans le dernier article.

En substance, il s'agit de filtrer les erreurs de modèle et de les placer dans une classe distincte "ne pas négocier", mieux grâce à un second modèle qui apprend à séparer le grain de l'ivraie.

et seuls les grains restent dans le premier modèle

C'est la même chose qu'avec les règles de l'arbre, mais sur le côté. Mais les règles devraient être pillées et comparées les unes aux autres, et il y a déjà un TS raffiné à la sortie.

Par exemple, la première itération de la sélection des grains de l'ivraie (à gauche de la ligne verticale pointillée - OOS) :

Et voici la 10e :


Oui, l'objectif est le même : travailler en fin de compte avec des données qui décrivent mieux les prédicteurs.

La question de savoir comment y parvenir le plus efficacement possible reste ouverte - chaque méthode a ses avantages et ses inconvénients.

 
Rorschach #:

Je pense que tout est listé. Il s'agit d'un livre de Jeremy Howard, fondateur de Kaggle et de framevoc fast.ai.

Fast.ai.

Le livre dans sa version originale

Livre en russe

Version gratuite

Merci ! Il faudra que je cherche une version gratuite en russe - le traducteur fait parfois des perles et me parle de saumure, ce qui peut être utile :)