L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3350

 
Les MO ne savent même pas faire la différence entre auto ml et full cyclic :)
Si tu fais un modèle, tes clients vont commencer à te harceler, et tu paies pour les demandes 😀😀 mieux vaut ton propre serveur.
 
fxsaber #:

Sur la même liste.

Je me souviens que quelque part vous avez comparé le profit maximum entre les dts. Et sur un graphique particulier, quel algorithme a été utilisé pour obtenir le profit maximum ? Par l'optimisation ou existe-t-il un algorithme strict.
 

La méthodologie des prédictions conformes fait également écho à Kozul, du moins en ce qui concerne la pondération des probabilités inverses. Je n'ai pas encore lu la suite. Beaucoup de définitions :)

Et la définition des résultats potentiels est utilisée de la même manière. Mais elle est déjà plus claire dans le cas d'une classification binaire. C'est-à-dire qu'aucun tritment ou variable instrumentale n'est introduit.

GitHub - valeman/awesome-conformal-prediction: A professionally curated list of awesome Conformal Prediction videos, tutorials, books, papers, PhD and MSc theses, articles and open-source libraries.
GitHub - valeman/awesome-conformal-prediction: A professionally curated list of awesome Conformal Prediction videos, tutorials, books, papers, PhD and MSc theses, articles and open-source libraries.
  • valeman
  • github.com
A professionally curated list of awesome Conformal Prediction videos, tutorials, books, papers, PhD and MSc theses, articles and open-source libraries. - GitHub - valeman/awesome-conformal-predicti...
 
Mes deux derniers articles, à un niveau simple et sans nuance, décrivent à peu près toutes ces approches. Disons qu'ils ne les décrivent pas, mais qu'ils s'en approchent. Je vérifie maintenant les détails de leurs recherches. Par exemple, la conformité inductive et transductive ne diffère que par un ou deux classificateurs, séparément pour chaque étiquette de classe. Ce dernier est meilleur (plus précis) pour estimer la valeur postérieure. Et j'ai utilisé la méthode inductive. Il est également possible de réentraîner les modèles en ajoutant et en rejetant chaque échantillon, afin d'obtenir une estimation plus précise. C'est très coûteux, mais assez efficace. Mais vous pouvez utiliser des classificateurs simples et rapides. Ce que j'ai également écrit à propos de l'entraînement sur les souches.

Je ne vois pas d'applaudissements pour ma brillance.



 

Bonjour !

J'essaie différentes méthodes.

Et l'algorithme NN+GA porte ses fruits. Beaucoup plus stable.

 
Alexander Ivanov #:

Bonjour !

J'essaie différentes méthodes.

Et l'algorithme NN+GA porte ses fruits. Beaucoup plus stable.

Es-tu en train de dire que tu es plus cool que moi ?
 

une soirée delecture avec de la vodka, du chevreuil et du concombre.

développer le thème et essayer de relier dans ma tête les approches des différentes disciplines de MOSH.

A Gentle Introduction to Conformal Prediction and Distribution-Free Uncertainty Quantification
A Gentle Introduction to Conformal Prediction and Distribution-Free Uncertainty Quantification
  • arxiv.org
Black-box machine learning models are now routinely used in high-risk settings, like medical diagnostics, which demand uncertainty quantification to avoid consequential model failures. Conformal prediction is a user-friendly paradigm for creating statistically rigorous uncertainty sets/intervals for the predictions of such models. Critically, the sets are valid in a distribution-free sense: they possess explicit, non-asymptotic guarantees even without distributional assumptions or model assumptions. One can use conformal prediction with any pre-trained model, such as a neural network, to produce sets that are guaranteed to contain the ground truth with a user-specified probability, such as 90%. It is easy-to-understand, easy-to-use, and general, applying naturally to problems arising in the fields of computer vision, natural language processing, deep reinforcement learning, and so on. This hands-on introduction is aimed to provide the reader a working understanding of conformal...
 
Maxim Dmitrievsky #:

unelecture pour une soirée vodka, gibier et concombre.

Je suis en train de développer le thème et d'essayer de relier dans ma tête les approches des différentes disciplines de MOSH.

Bon appétit et une légère gueule de bois)

Il semble que ce soit très similaire à la prévision probabiliste, bien qu'ils écrivent qu'il s'agit de choses différentes. D'après ce que j'ai compris jusqu'à présent, la méthode conforme est plus axée sur la classification, et la méthode probabiliste est axée sur la régression.

 
Maxim Dmitrievsky #:
Je me souviens que vous avez comparé les bénéfices maximaux des dts. Et sur un graphique particulier, quel algorithme avez-vous utilisé pour obtenir le profit maximum ? Par l'optimisation ou existe-t-il un algorithme strict?

Et une seule passe. Quelque part sur le forum.

 
Aleksey Nikolayev #:

Profitez de votre repas et ayez une légère gueule de bois)

Il semble qu'elle soit très similaire à la prévision probabiliste, bien qu'ils écrivent qu'il s'agit de choses différentes. D'après ce que j'ai compris jusqu'à présent, la méthode conforme est plus spécialisée pour la classification, et la méthode probabiliste pour la régression.

Merci :) oui, c'est similaire. Ils écrivent que cela n'a pas d'importance pour la classification ou la régression. La façon d'obtenir des estimations pour les prédictions via la comparaison sur le réseau de validation est claire (dans le cas de l'"inductif", c'est-à-dire la façon la plus rapide et la plus simple). La méthode "transductive" est également plus ou moins claire, mais elle est très lente car elle nécessite l'apprentissage d'autant de modèles qu'il y a d'exemples dans l'échantillon. Il existe également des variantes intermédiaires telles que CV, que j'ai moi-même appliquée.

Je n'ai pas bien compris dans l'article comment les modèles finaux sont formés, ce qui est remplacé par quoi. Encore une fois, par la correction des poids du modèle, sa calibration (pondération de l'échantillon) ou quelque chose comme dans kozula. Ou bien les marqueurs les plus probables sont introduits dans le modèle après évaluation. J'ai simplement utilisé le deuxième modèle à cette fin, ce qui permet d'éviter les transactions sur de mauvais exemples.