L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 963

 
Ivan Negreshniy:

Et qu'est-ce qui, pour vous, justifie l'admissibilité des écarts à la baisse, sinon le pur hasard ?

Je n'ai aucune raison de m'attendre à ce que OOS soit meilleur que Train.
Comment pouvez-vous exiger de données OOS aléatoires de meilleurs résultats que ceux sur lesquels vous avez appris ? Ce n'est pas possible, sauf par hasard.
Il a récemment été écrit dans un autre fil de discussion que l'étudiant ne peut pas en savoir plus que le professeur.
Exemple.
Une partie des données (par exemple 80 %) sur l'EP sera familière au modèle et il montrera la même erreur que sur le train (erreur = 30 %), les autres 20 % des données sur l'EP seront nouvelles et non apprises, et donneront une erreur de 50 %. Combinées, ces 80 % de données familières et 20 % de nouvelles données devraient porter l'erreur d'OOS du site à environ 35 %.
Je m'attendrais donc à une détérioration des résultats de l'OOS plutôt qu'à une amélioration.
Il y a également une probabilité d'amélioration si un très grand nombre de bons exemples se retrouvent dans l'OOS, dans une plus grande proportion que dans la parcelle du Train. Je ne vois pas d'autres moyens de réduire les erreurs dans le retour d'information.

Ivan Negreshniy:

Et puis, quelle est votre tâche principale, si ce n'est de lutter contre cet aléa, car il nivelle le sens de la validation et de l'OOS et de l'IO en général) ?

La tâche consiste à faire en sorte que le delta d'erreur ne soit pas trop important.

 
Une question pour Alesha.
Comment faire le tri entre les bruits et les 600 prédicteurs ?
 
elibrarius:

Je n'ai aucune raison d'attendre d'OOS qu'il soit meilleur que le Train.
Comment pouvez-vous espérer que des données aléatoires non utilisées produisent de meilleurs résultats que celles qui sont enseignées ? Ce n'est pas possible, sauf par hasard.
Il a récemment été écrit dans un autre fil de discussion que l'étudiant ne peut pas en savoir plus que le professeur.
Exemple.
Unepartie des données (par exemple 80 %) de l'OOS seront familières au modèle et celui-ci affichera la même erreur que pour le train (erreur = 30 %), les 20 % restants des données de l'OOS seront nouvelles et non apprises, et donneront une erreur de 50 %. Combinées, ces 80 % de données familières et 20 % de nouvelles données devraient porter l'erreur d'OOS du site à environ 35 %.
Je m'attendrais donc à une détérioration des résultats de l'OOS plutôt qu'à une amélioration.
Il y a également une probabilité d'amélioration si un très grand nombre de bons exemples se retrouvent dans l'OOS, dans une plus grande proportion que dans la parcelle du Train. Je ne vois pas d'autres moyens de réduire l'erreur dans le retour d'information.

La tâche consiste à faire en sorte que le delta d'erreur ne soit pas trop important.

Afin de ne pas s'embrouiller, il est nécessaire de définir la terminologie - OOS ou OOS (out of sample) est une donnée, par définition non familière au modèle, autre chose est IS (in sample)

 
Ivan Negreshniy:

Vous devez définir la terminologie - OOS ou OOS (out of sample) sont des données, par définition, pas des modèles familiers, IS (in sample) est une autre question

Si des régularités sont trouvées dans les données, alors les exemples qui leur correspondent peuvent être considérés comme familiers.
 
elibrarius:

Il y a également une chance d'amélioration si un grand nombre de bons exemples se retrouvent dans l'OOS, en plus grande proportion que dans la section Train. Je ne vois pas d'autres options pour réduire l'erreur dans la boucle de rétroaction.

J'ai lu dans un des livres du MoD que lors de la formation, le rapport entre les succès et les échecs doit correspondre à la réalité. Nous devrions former aussi bien les résultats positifs que les résultats négatifs.

 
Yuriy Asaulenko:

J'ai lu dans un des livres du MoD que lors d'une formation, le rapport succès/échec doit être conforme à la réalité. Nous devrions enseigner de la même manière les résultats positifs et négatifs.

Pourquoi alors essayer de filtrer les exemples ratés et bruyants, ou les isoler, les re-partitionner en "ne sait pas" et entraîner à nouveau le réseau ?
 
elibrarius:
Alors pourquoi essayer de filtrer les exemples mauvais et bruyants, ou les isoler, les répartir dans la catégorie "ne sait pas" et entraîner à nouveau le réseau ?

Je ne suis pas au courant. C'est pour ceux qui le font. J'enseigne comme je l'ai écrit ci-dessus.

 
Dr. Trader:

Oui, c'est dommage que votre démo ait disparu. Et tout cela parce que vous regardez trop l'OOS, même si vous avez cité un article où il est dit que le modèle OOS ne peut pas être sélectionné, et sur le forum ici plusieurs fois écrit la même chose.

J'ai déjà écrit qu'il y a une corrélation directe entre le TOF et la stabilité sur le TOF.

Je n'ai pas eu la même erreur sur OOB que sur trayne jusqu'à présent, toujours au moins 2 fois plus grand. Je réessayerai plus tard, j'en ai marre de ces conneries maintenant :)

Je vais peut-être devoir passer à P et obtenir un meilleur modèle, car l'alglib lui-même ne me permet pas de voir autre chose...
 
Maxim Dmitrievsky:

car l'alglib lui-même ne vous laissera pas voir autre chose

Je vous l'ai dit il y a longtemps, c'est une impasse. Vous ne devez pas modéliser en MT - R, MathLab, comme A_K2, dans VisSim, etc.

Lorsque le modèle fonctionne, vous pouvez le transférer à MT, et vous ne pouvez pas le transférer).

 
Yuriy Asaulenko:

On vous l'a dit pendant longtemps - c'est une impasse. Vous ne devez pas modéliser en MT - R, MathLab, comme A_K2, dans VisCim, etc.

Lorsque le modèle fonctionne, vous pouvez alors le transférer à MT, mais vous n'êtes pas obligé de le faire).

Que pouvez-vous dire d'autre d'intéressant ?