L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3337

 
mytarmailS #:

Vous êtes-vous déjà demandé pourquoi cela se produit ?

Il s'agit en fait d'un motif erroné dans la feuille. Ilpeut y avoir plusieurs raisons à cela.

Ou avez-vous une réponse précise et sans ambiguïté ?

 
Maxim Dmitrievsky #:

Vitesse de test du modèle exporté vers le code naïf (catbust)

Et exporté vers ONNX

Les internes des deux versions du bot sont presque similaires, les résultats sont les mêmes.

L'universalité est payante.

Il est dommage que CatBoost ait des limitations importantes sur la conversion des modèles.

 
Aleksey Vyazmikin #:

C'est le prix à payer pour la polyvalence.

Il est dommage que CatBoost ait des limitations importantes sur la conversion des modèles.

J'ai commencé à m'intéresser de plus près à l'importance de l'objet, il y a un article entier qui est proposé. Je vais voir ce qu'il peut donner.
 
Maxim Dmitrievsky #:
J'ai commencé à faire des recherches sur l'importance des objets, un article entier est proposé. Je vais voir ce qu'il a à offrir.

Je suis heureux de voir que vous êtes toujours intéressé. Écrivez sur vos progrès dans la recherche de l'utilité de cette approche.

 
Forester #:

Je pense que je vais essayer de recréer l'estimation des feuilles en tenant compte de la correction d'erreur progressive en effectuant un repartitionnement après chaque feuille (arbre).

Mais cela ne semble toujours pas fonctionner de la même manière pour la catégorisation..... Je ne comprends pas très bien les formules.

Si j'ai bien compris, à la première itération, une fonction d'approximation des loglosses est construite sur les étiquettes de la cible, qui doit être approchée à l'aide des arbres, et le delta entre la fonction idéale et celle obtenue à l'aide des arbres est inscrit dans la feuille après avoir été multiplié par le coefficient du taux d'apprentissage.

C'est juste que si vous marquez une erreur en prenant l'approche au pied de la lettre, alors qu'est-ce qui est nécessaire pour marquer une erreur dans deux classes différentes par un, disons "1" ?

Ou quoi ?

 
Aleksey Vyazmikin #:

Je suis heureux d'avoir réussi à vous intéresser après tout. Parlez des progrès de la recherche sur l'utilité de cette approche.

Je travaille sur ce sujet depuis longtemps. Il existe d'autres méthodes/paquets. Cette fonctionnalité a été oubliée, peut-être a-t-elle été ajoutée récemment.
 
Maxim Dmitrievsky #:
Je suis dans ce fil depuis longtemps. Il y a d'autres moyens/paquets. Cette fonctionnalité a été oubliée, peut-être l'ont-ils ajoutée récemment.

Vous pouvez regarder une vidéo sur ce sujet


 
Aleksey Vyazmikin #:

Les valeurs des feuilles qui sont additionnées pour former la coordonnée Y de la fonction.

Pour moi, il s'agit de la réponse ou de la prédiction d'une feuille. Je pensais que vous vouliez la corriger par un coefficient.

Aleksey Vyazmikin #:
C'est juste que si vous marquez une erreur en prenant l'approche au pied de la lettre, alors une erreur dans deux classes différentes devrait-elle être marquée par un, disons "1" ?

Ou comment ?

Dans l'exemple de formation tiré de l'article, seule la régression est prise en compte. Je ne peux pas dire pour la classification.

 
Aleksey Vyazmikin #:

Vous pouvez regarder une vidéo sur ce sujet

Il est intéressant de constater que si l'on pratique la MO depuis plus ou moins longtemps, on arrive à des conclusions similaires. Il s'agit d'un processus naturel d'évolution de l'approche. C'est ainsi que vous avez découvert le kozul, l'apprentissage statistique et l'IA fiable. Si vous tapez ces mots sur Google, vous trouverez des choses utiles.
 
Forester #:

Dans l'exemple d'entraînement tiré de l'article, il n'y a que la régression. Je ne suis pas sûr de la classification.

A propos de la classification, j'ai écrit ici. Mais CatBoost a une formule légèrement différente, mais c'est peut-être le coût des transformations mathématiques....

Et un lien vers une vidéo du même endroit, je pense.