L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3321

 
Maxim Dmitrievsky #:

que vous voulez faire croire qu'il s'agit du minimum/maximum du critère ? Cela n'a rien à voir avec le minimum/maximum global du modèle lui-même.

Montrez-moi le graphique.

Je vous en prie.

Montrez sur ce graphique du critère où vous devez arrêter la formation.

 

C'est loin d'être le cas,

Je vais essayer de faire une chanson.

C'est difficile à dire, je l'ai déjà oubliée et elle est longue, la musique, si on l'apprend, est une longue mélodie :

 
Andrey Dik #:

Montrez-moi le graphique.

S'il vous plaît.

Montrez sur ce graphique les critères selon lesquels vous devez arrêter la formation.

Au minimum du critère sur l'ensemble de l'échantillon, quelle est la prochaine étape ?

 
Lorsque vous tombez amoureux d'une nouvelle fille, vous commencez à écouter de la musique féminine.
 

vous voyez ce que je veux dire ?

Un vrai spécialiste de l'IA a besoin de cigarettes rouges et d'eau de Cologne verte.

 
Maxim Dmitrievsky #:

au minimum du critère sur l'échantillon brut, qu'est-ce qui se passe ensuite ?

Bingo !

Vous avez enfin compris que tout apprentissage n'est rien d'autre qu'une optimisation avec recherche d'un extremum global. Ou peut-être ne l'avez-vous pas encore réalisé, mais vous le ferez.

Il ne peut en être autrement, vous avez toujours besoin d'un critère sans ambiguïté pour arrêter l'apprentissage et ce critère est toujours conçu de telle sorte qu'il s'agisse d'un extremum global. En général, un critère intégral est conçu (pas toujours). Vous avez nommé des critères intégraux.

 
Andrey Dik #:

Bingo !

Vous avez enfin compris que tout apprentissage n'est rien d'autre qu'une optimisation avec recherche d'un extremum global. Ou peut-être ne l'avez-vous pas encore réalisé, mais vous le ferez.

Il ne peut en être autrement, vous avez toujours besoin d'un critère sans ambiguïté pour arrêter l'apprentissage et ce critère est toujours conçu de manière à ce qu'il s'agisse d'un extremum global. Il s'agit généralement d'un critère intégral (pas toujours). Vous avez nommé des critères intégraux.

Le message initial portait sur la complexité du modèle, et non sur les extrema. Vous ne faites que tirer votre épingle du jeu, en oubliant ce que j'ai écrit.

En d'autres termes, vous vous livrez une fois de plus au "pee-hacking", c'est-à-dire à l'étirement des données pour les faire correspondre à vos propos.

 
Andrey Dik #:

Montrez-moi le graphique.

S'il vous plaît.

Montrez sur ce graphique les critères selon lesquels vous devez arrêter la formation.


Voici un graphique typique de l'erreur d'ajustement du modèle.

Elle s'approche asymptotiquement d'une certaine valeur de décalage par rapport à l'axe.

La quantité de biais est une propriété de la paire cible-prédicteur. En optimisant les paramètres d'un modèle particulier, on peut obtenir quelques miettes, mais il est impossible de sauter la propriété "prédicteurs-cibles" par une quelconque optimisation.

Si le biais représente 45 % de l'erreur, il est impossible d'obtenir 10 % de moins en modifiant les paramètres du modèle. Et aucune optimisation ne sera utile.

Et si vous parvenez à trouver une paire de "prédicteurs-cibles" avec une erreur de 20 %, celle-ci sera d'environ 20 % quoi que vous fassiez.

En outre. Si, lors de la formation puis de la validation, les erreurs divergent de plus de 5 %, cela signifie que vous devez travailler sur la paire "prédicteurs-cibles" de manière significative. S'il n'est pas possible de converger, la paire "cible-prédicteurs" devra être écartée.

 
Maxim Dmitrievsky #:

Le message initial portait sur la complexité des modèles, et non sur les extrêmes. Vous ne faites que tirer votre épingle du jeu, en oubliant ce que j'ai écrit.

En d'autres termes, vous faites à nouveau du pi-hacking, c'est-à-dire que vous étirez les données pour les faire correspondre à vos mots.

Que voulez-vous dire par "à l'origine" ? Nous avons discuté séparément de la complexité des modèles, et nous avons dit à l'époque que l'augmentation de la complexité des modèles n'était efficace que jusqu'à un certain point, après quoi l'efficacité diminuait, et c'est vrai, oui, je n'ai pas contesté cette affirmation et je la confirme. Ensuite, j'ai simplement suggéré que l'efficacité pouvait peut-être augmenter de façon spectaculaire si l'on augmentait considérablement le modèle, parce que personne ici ne l'avait fait auparavant (et je comprends pourquoi).

J'ai toujours dit, depuis très longtemps, que tout apprentissage est une optimisation avec recherche d'un extremum global, mais vous l'avez nié (ainsi que d'autres), en disant que vous n'êtes pas un "optimiseur". Maintenant, je vous ai clairement montré que l'apprentissage ne peut être arrêté que lorsqu'un extremum global est trouvé, sinon il n'y a tout simplement pas moyen de faire autrement (vous ne savez pas quand arrêter l'apprentissage, vous avez besoin d'un critère pour cela). C'est pourquoi le métacritère d'arrêt est l'essence même de l'optimisation lors de l'apprentissage jusqu'à l'extremum global.

Cette prise de conscience permet d'envisager l'apprentissage sous de nouveaux angles.

 
Il y a une erreur dans mon dessin, la ligne de valeur rouge devrait être au-dessus du plateau.