L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 963
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Et qu'est-ce qui, pour vous, justifie l'admissibilité des écarts à la baisse, sinon le pur hasard ?
Je n'ai aucune raison de m'attendre à ce que OOS soit meilleur que Train.
Comment pouvez-vous exiger de données OOS aléatoires de meilleurs résultats que ceux sur lesquels vous avez appris ? Ce n'est pas possible, sauf par hasard.
Il a récemment été écrit dans un autre fil de discussion que l'étudiant ne peut pas en savoir plus que le professeur.
Exemple.
Une partie des données (par exemple 80 %) sur l'EP sera familière au modèle et il montrera la même erreur que sur le train (erreur = 30 %), les autres 20 % des données sur l'EP seront nouvelles et non apprises, et donneront une erreur de 50 %. Combinées, ces 80 % de données familières et 20 % de nouvelles données devraient porter l'erreur d'OOS du site à environ 35 %.
Je m'attendrais donc à une détérioration des résultats de l'OOS plutôt qu'à une amélioration.
Il y a également une probabilité d'amélioration si un très grand nombre de bons exemples se retrouvent dans l'OOS, dans une plus grande proportion que dans la parcelle du Train. Je ne vois pas d'autres moyens de réduire les erreurs dans le retour d'information.
Et puis, quelle est votre tâche principale, si ce n'est de lutter contre cet aléa, car il nivelle le sens de la validation et de l'OOS et de l'IO en général) ?
La tâche consiste à faire en sorte que le delta d'erreur ne soit pas trop important.
Comment faire le tri entre les bruits et les 600 prédicteurs ?
Je n'ai aucune raison d'attendre d'OOS qu'il soit meilleur que le Train.
Comment pouvez-vous espérer que des données aléatoires non utilisées produisent de meilleurs résultats que celles qui sont enseignées ? Ce n'est pas possible, sauf par hasard.
Il a récemment été écrit dans un autre fil de discussion que l'étudiant ne peut pas en savoir plus que le professeur.
Exemple.
Unepartie des données (par exemple 80 %) de l'OOS seront familières au modèle et celui-ci affichera la même erreur que pour le train (erreur = 30 %), les 20 % restants des données de l'OOS seront nouvelles et non apprises, et donneront une erreur de 50 %. Combinées, ces 80 % de données familières et 20 % de nouvelles données devraient porter l'erreur d'OOS du site à environ 35 %.
Je m'attendrais donc à une détérioration des résultats de l'OOS plutôt qu'à une amélioration.
Il y a également une probabilité d'amélioration si un très grand nombre de bons exemples se retrouvent dans l'OOS, dans une plus grande proportion que dans la parcelle du Train. Je ne vois pas d'autres moyens de réduire l'erreur dans le retour d'information.
La tâche consiste à faire en sorte que le delta d'erreur ne soit pas trop important.
Afin de ne pas s'embrouiller, il est nécessaire de définir la terminologie - OOS ou OOS (out of sample) est une donnée, par définition non familière au modèle, autre chose est IS (in sample)
Vous devez définir la terminologie - OOS ou OOS (out of sample) sont des données, par définition, pas des modèles familiers, IS (in sample) est une autre question
Il y a également une chance d'amélioration si un grand nombre de bons exemples se retrouvent dans l'OOS, en plus grande proportion que dans la section Train. Je ne vois pas d'autres options pour réduire l'erreur dans la boucle de rétroaction.
J'ai lu dans un des livres du MoD que lors de la formation, le rapport entre les succès et les échecs doit correspondre à la réalité. Nous devrions former aussi bien les résultats positifs que les résultats négatifs.
J'ai lu dans un des livres du MoD que lors d'une formation, le rapport succès/échec doit être conforme à la réalité. Nous devrions enseigner de la même manière les résultats positifs et négatifs.
Alors pourquoi essayer de filtrer les exemples mauvais et bruyants, ou les isoler, les répartir dans la catégorie "ne sait pas" et entraîner à nouveau le réseau ?
Je ne suis pas au courant. C'est pour ceux qui le font. J'enseigne comme je l'ai écrit ci-dessus.
Oui, c'est dommage que votre démo ait disparu. Et tout cela parce que vous regardez trop l'OOS, même si vous avez cité un article où il est dit que le modèle OOS ne peut pas être sélectionné, et sur le forum ici plusieurs fois écrit la même chose.
J'ai déjà écrit qu'il y a une corrélation directe entre le TOF et la stabilité sur le TOF.
Je n'ai pas eu la même erreur sur OOB que sur trayne jusqu'à présent, toujours au moins 2 fois plus grand. Je réessayerai plus tard, j'en ai marre de ces conneries maintenant :)
Je vais peut-être devoir passer à P et obtenir un meilleur modèle, car l'alglib lui-même ne me permet pas de voir autre chose...car l'alglib lui-même ne vous laissera pas voir autre chose
Je vous l'ai dit il y a longtemps, c'est une impasse. Vous ne devez pas modéliser en MT - R, MathLab, comme A_K2, dans VisSim, etc.
Lorsque le modèle fonctionne, vous pouvez le transférer à MT, et vous ne pouvez pas le transférer).
On vous l'a dit pendant longtemps - c'est une impasse. Vous ne devez pas modéliser en MT - R, MathLab, comme A_K2, dans VisCim, etc.
Lorsque le modèle fonctionne, vous pouvez alors le transférer à MT, mais vous n'êtes pas obligé de le faire).
Que pouvez-vous dire d'autre d'intéressant ?