L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3360

 
Maxim Dmitrievsky #:
Je ne fais pas du tout campagne. Il y a beaucoup d'approches, la question portait sur la connaissance du MO.

Personnellement, je n'associe pas la réponse du modèle à la probabilité d'abandon d'une classe, je la considère comme la confiance du modèle dans la définition de la classe. La confiance se compte en feuilles, et les feuilles sont comptées par l'échantillon de formation. Ici, une seule feuille indique la probabilité d'abandon d'une classe. Étant donné que chaque feuille n'a pas de réponse à tous les points de l'échantillon, il s'avère que la somme des probabilités est faussée dans la réponse finale du modèle. Il existe peut-être un moyen de corriger à ce niveau - et cela m'intéresse - j'ai essayé d'orienter la discussion dans cette direction.

À mon avis, la solution consiste à regrouper les feuilles en fonction de points de réponse similaires et à poursuivre la transformation des résultats sommaires moyens des groupes (....).

 
Aleksey Vyazmikin #:

Personnellement, je n'ai pas associé la réponse du modèle à la probabilité d'abandon de la classe, mais je l'ai considérée comme la confiance du modèle dans la détection de la classe. La confiance est basée sur les feuilles, et les feuilles sont basées sur l'échantillon d'entraînement. Ici, une seule feuille indiquera la probabilité d'abandon de classe. Étant donné que chaque feuille n'a pas de réponse à tous les points de l'échantillon, il s'avère que la somme des probabilités est faussée dans la réponse finale du modèle. Il existe peut-être un moyen de corriger à ce niveau - et cela m'intéresse - c'est dans ce sens que j'essayais d'orienter la discussion.

À mon avis, la solution consiste à regrouper les feuilles en fonction de points de réponse similaires et à poursuivre la transformation des résultats sommaires moyens des groupes....

Désolé, mais en l'absence de références à des bibliothèques, des cahiers ou des articles, j'en déduis toujours à peu près ce qui suit


 
Maxim Dmitrievsky #:

Désolé, mais en l'absence de liens vers des bibliothèques, des carnets de notes ou des articles, j'interprète toujours la situation de la manière suivante


Eh, tout ce dont vous avez besoin, ce sont des paquets...

 
Aleksey Vyazmikin #:

J'aimerais que vous ayez des sacs.

Après avoir calibré n'importe quel classificateur par la méthode CV, vous pouvez immédiatement voir le potentiel de ce modèle. S'il n'est capable de rien, les probabilités se concentrent autour de 0,5 après cette procédure. Auparavant, il était pourtant trop sûr de lui. Il n'est pas du tout intéressant de continuer à manipuler un tel modèle. Il est impossible de l'améliorer. En d'autres termes, il ne peut même pas être calibré normalement, car il n'y a pas de poisson. C'est très pratique.

Il n'y a pas de "quantum cut", pour reprendre vos termes, pas de plage ou de bac où il donnerait un bénéfice probable.

 

Ok, enfin, pour clore le sujet. J'ai réussi à exporter la calibration sigmoïde vers metac.

Donné : gradient bousting réentraîné, puis calibré à cet état :


Au seuil 0.5 tout est évident, on peut voir où se trouve l'OOS :

J'exécute le seuil et j'arrête l'optimisation :

J'obtiens toutes sortes de variations, les meilleures aux seuils 0,75-0,85. Même un petit peu sur de nouvelles données est un peu en dehors, bien qu'avec un seuil de 0,5 il n'y ait pas de variantes normales.

C'est un jouet assez amusant.

 
Maxim Dmitrievsky #:

Après avoir calibré un classificateur à l'aide de la méthode CV, on peut immédiatement voir le potentiel de ce modèle. S'il n'est capable de rien, les probabilités s'agglomèrent autour de 0,5 après cette procédure. Même si, auparavant, il était trop sûr de lui. Il n'est pas du tout intéressant de continuer à manipuler un tel modèle. Il est impossible de l'améliorer. En d'autres termes, il ne peut même pas être calibré normalement, car il n'y a pas de poisson. C'est très pratique.

Il n'y a pas un seul "quantum cut", pour reprendre vos termes, pas une seule fourchette ou un seul bac où il donnerait un bénéfice probable.

Si cela vous permet d'automatiser la sélection des modèles, c'est déjà une bonne chose.

J'ai une visualisation du modèle par son indice de probabilité-confiance avec un pas de 0,05 et je peux tout voir en même temps. L'essentiel, c'est la transformation du résultat sur l'échantillon d'entraînement et autres - là, les probabilités sont rampantes, c'est pour cela que je parle de non-représentativité. C'est pourquoi je considère l'étalonnage comme une mesure inefficace dans notre cas. S'il n'y a pas de biais important d'un échantillon à l'autre dans vos modèles, c'est plutôt surprenant.

Par ailleurs, je note qu'un modèle sous-entraîné produira des probabilités dans une fourchette étroite.

C'est pourquoi il est judicieux de définir non pas un seuil de classification, mais une fenêtre - par exemple, de 0,55 à 0,65, considérer la classe retournée comme une unité et ignorer le reste. Aux extrémités, le modèle est fiable, mais il y a souvent très peu d'observations, de sorte que la signification statistique est faible.

 
Tant qu'il est encore en parfait état, profitez-en. Personne ne comprend ce que vous dites.
Ils vont arriver en trombe et ne laisseront pas une lettre sur une lettre.
 

Messieurs du ministère de la Défense !

Le jeu en vaut-il la chandelle ?

Reprendremon algorithme - Discussion générale - MQL5

Механика рынка и Машинное Обучение (ИИ). - Заняться моим алгоритмом.
Механика рынка и Машинное Обучение (ИИ). - Заняться моим алгоритмом.
  • 2023.12.26
  • www.mql5.com
вероятно компилятор с оптимизацией на си быстрее проги на асемблере. Не уверен вообще что это заработок оптимальным образом. Это оптимальный метод дешифровки биржевого позволяет четко описать механику изменения цены
 
Maxim Dmitrievsky #:
Pendant qu'il est encore en parfait état, profitez-en. Personne ne comprend ce que vous dites.
Les M.O.S. purs et durs vont débarquer, ils ne laisseront pas une lettre sur une lettre.

Allez)))))) Bonne année))))

La vérité est inchangée))))

 
Valeriy Yastremskiy #:

Oui, c'est bien)))))) Bonne année ))))

La vérité est inchangée)))))

Une telle année, généralement peu réjouissante dans le monde qui nous entoure, et quelqu'un s'en réjouit. Un toast : que la nouvelle année voie la monade se retourner. Et aux personnes qui le rendront possible.