L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 3293
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Le ministère de la défense utilise un calendrier différent
Dans l'inférence de Kozol, il est plus facile de travailler avec le biais qu'avec la variance. D'où la conclusion non hypothétique que la complexité du modèle ou l'augmentation du nombre de caractéristiques entrave plus qu'elle n'aide.
D'où vient ce graphique ?
Le MO utilise des critères complètement différents, tels que l'AIC, qui est pénalisé par la présence d'un trop grand nombre de paramètres.
Ce critère et d'autres critères d'information sont conformes à une hypothèse courante en matière de modélisation, à savoir que parmi deux modèles ayant les mêmes performances, c'est celui qui comporte le moins de paramètres qui est choisi.
N'oublions pas que le concept même de "modèle" est un abrutissement de la réalité. Il n'y a pas d'extrêmes. Il y a un équilibre entre la simplification et l'acceptabilité de la précision du modèle. Mais l'essentiel n'est pas la précision du modèle, mais sa grossièreté, sa capacité de généralisation. Et c'est compréhensible, puisque le principal ennemi de la modélisation est l'ajustement excessif, le frère de la précision du modèle.
D'où vient ce graphique ?
L'essentiel de l'essentiel
https://en.wikipedia.org/wiki/Bias%E2%80%93variance_tradeoff
N'oublions pas que la notion même de "modèle" est une condensation de la réalité. Il n'y a pas d'extrêmes ici. Il y a un équilibre entre le grossissement et l'acceptabilité de la précision du modèle. Mais l'essentiel n'est pas la précision du modèle, mais son caractère plus grossier, sa capacité de généralisation. Et c'est compréhensible, puisque le principal ennemi de la modélisation est l'ajustement excessif, le frère de la précision du modèle.
Vous confondez constamment le concept d'"extremum" avec celui de "pic aigu" (le point où une fonction n'a pas de dérivée).
Même une surface plane a un extremum.
Une autre chose est que les FF essaient toujours de choisir de manière à ce que la surface du FF soit aussi lisse que possible et que l'extremum global soit le seul. L'unique extremum global doit être la seule solution non ambiguë du problème.
Si l'extremum global de la FF n'est pas le seul, et plus encore s'il n'a pas de dérivée, cela signifie que le choix de la FF (le critère d'évaluation du modèle) est incorrect. Une mauvaise compréhension de ce point conduit au terme "overfitting", une mauvaise compréhension de ce point conduit à la recherche d'un extrémum local ambigu.
Nous pouvons faire une analogie : un spécialiste - un médecin - est formé, des examens de qualification (FF) sont développés pour la certification, pour un médecin il ne peut y avoir de concept de "surformation" ou de "suradaptation", si un médecin n'obtient pas le score maximum - cela signifie qu'il est sous-formé. Et selon vous, un bon médecin devrait toujours être un sous-entraîné peu performant.
Une fois de plus, le problème du "surentraînement" réside dans le mauvais choix des critères d'évaluation du modèle. Il semble que de tels experts soient présents sur le forum, mais ils répètent sans cesse les mêmes erreurs. Le développement de critères d'estimation corrects n'est pas moins important que le choix des prédicteurs, sinon il est tout simplement impossible d'estimer correctement le modèle.
Je m'attends à une avalanche d'objections, mais ce n'est pas grave, j'y suis habitué. Si cela peut être utile à quelqu'un, tant mieux, et ceux qui ne le seront pas, peu importe, alors ils pensent que c'est très bien comme ça.
Vous continuez à confondre le concept d'"extremum" avec celui de "pic aigu" (le point où une fonction n'a pas de dérivée).
Même une surface plane possède un extremum.
Par ailleurs, les FF essaient toujours de choisir de manière à ce que la surface des FF soit aussi lisse que possible et que l'extremum global soit le seul. L'unique extremum global doit être la seule solution non ambiguë du problème.
Si l'extremum global de la FF n'est pas le seul, et plus encore s'il n'a pas de dérivée, cela signifie que le choix de la FF (le critère d'évaluation du modèle) est incorrect. Une mauvaise compréhension de ce point conduit au terme "overfitting", une mauvaise compréhension de ce point conduit à la recherche d'un extremum local ambigu.
Nous pouvons faire une analogie : un spécialiste - un médecin - est formé, des examens de qualification (FF) sont développés pour la certification, pour un médecin il ne peut y avoir de concept de "surformation" ou de "suradaptation", si un médecin n'obtient pas le score maximum - cela signifie qu'il est sous-formé. Et selon vous, un bon médecin devrait toujours être un non-scientifique sous-formé.
Une fois de plus, le problème du "surentraînement" réside dans le mauvais choix des critères d'évaluation du modèle. Il semble que de tels experts soient présents sur le forum, mais ils répètent sans cesse les mêmes erreurs. L'élaboration de critères d'estimation corrects n'est pas moins importante que la sélection des prédicteurs, sans quoi il est tout simplement impossible d'estimer correctement le modèle.
Je m'attends à une avalanche d'objections, mais ce n'est pas grave, j'y suis habitué. Si cela peut être utile à quelqu'un, tant mieux, et ceux qui ne seront pas utiles s'en fichent complètement, ils pensent donc que c'est très bien comme ça.
L'approximation et l'optimisation sont des approches différentes pour résoudre les problèmes d'apprentissage automatique.
L'approximation consiste à construire un modèle qui se rapproche de la relation entre les données d'entrée et de sortie. Il peut s'agir, par exemple, de construire une fonction linéaire ou non linéaire qui décrit au mieux les données. L'approximation ne tient pas compte de l'objectif ou du problème à résoudre, mais cherche seulement à construire un modèle qui corresponde au mieux aux données.
L'optimisation, quant à elle, consiste à trouver les paramètres optimaux du modèle pour atteindre un objectif ou un problème particulier. Dans ce cas, le modèle peut être plus complexe et contenir plus de paramètres que dans le cas de l'approximation. L'optimisation tient compte du but ou de l'objectif et ajuste les paramètres du modèle pour obtenir le meilleur résultat possible.
En général, l'approximation et l'optimisation sont souvent utilisées conjointement pour construire des modèles d'apprentissage automatique efficaces. L'approximation est d'abord utilisée pour construire le modèle, puis l'optimisation pour ajuster les paramètres de ce modèle afin d'atteindre l'objectif ou la tâche souhaitée.
Je vous l'ai dit.
Je comprendrais que Sanych commence à se défendre, mais Max....
FF est une évaluation, nous évaluons tout. Si nous évaluons mal ce que nous faisons, cela ne veut pas dire que nous le faisons mal. Sans une évaluation correcte, c'est du 50/50 et ensuite ils disent - ceci ne marche pas, cela ne marche pas.... Je ne prétends pas être un expert en conception d'évaluation, c'est une tâche très difficile.
"C'est juste la même chose qui est dite en rond" - ce ne sont pas mes mots, si tant est qu'il y en ait)))))) Il est possible de changer des mots à certains endroits pour que le résultat soit encore pire. Ici, le critère d'évaluation est le "nombre de mots", mais ce n'est pas une évaluation correcte, car en changeant des mots à certains endroits, le sens peut changer radicalement.
Il y a une substitution constante des concepts, il est impossible de communiquer.
Je suis d'accord, personne ne se comprend, il n'y a pas de critère unique pour évaluer un énoncé et sa charge sémantique. Personne ne sait qui veut dire quoi, comme dans cette anecdote :
- Qu'est-ce que tu veux dire ?
- Je veux dire ce que je veux dire.
C'est comme ça au ministère de la défense.