L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3074

 
fxsaber #:

Formulez à nouveau votre question.

Si vous avez négocié sur le vrai Forex, n'élargissent-ils pas l'écart la nuit vers 1 heure du matin ? Tout comme dans les cuisines ordinaires.
 
mytarmailS #:
Si vous avez négocié sur le vrai Forex, n'élargissent-ils pas l'écart la nuit vers 1 heure du matin ? Tout comme dans les cuisines ordinaires.

.

 
Les commentaires n'ayant pas trait à ce sujet ont été déplacés dans la rubrique "Hors sujet".
 
Valeriy Yastremskiy #:

Oui, la M5)

Heureusement que j'ai enidesk et que j'ai accès à mon ordinateur professionnel))))

270 dollars. et le meilleur sl 11500, globalement 5200 sl et 350 tp c'est à peu près le même résultat.

Peut-être que le spread est important. J'ai plus de profit, mais dans l'ensemble la courbe est la même. La courbe d'apprentissage a été un peu rude ces dernières années, oui. Mais les précédentes sont meilleures.

 
Andrey Dik #:
A quoi cela ressemblerait si le monde n'était pas lisse.....
intéressant, mais de nombreuses questions se posent d'emblée, oui, tous les "êtres" sont aveugles en ce qui concerne la prise de la prochaine décision, mais si une meilleure décision est connue (vue), alors l'intérêt de prendre une décision disparaît - le libre arbitre disparaît ? étrange énigme logique.
Il existe de nombreuses stratégies de recherche, ouvertes ou non encore, mais on sait que l'orientation vers l'optimum connu de la société ne permet pas toujours de trouver une meilleure solution (le paradoxe du piège de la pensée collective, encore une fois).

Sur le marché, cet optimum change constamment - comme le terrain de la planète après un tremblement de terre.... et notre tâche consiste donc à prédire le moment où il se produira, ou après, mais surtout le moment où il sera nécessaire de rechercher un nouvel optimum....

 
Document comparant différentes méthodes. En plus des vidéos et du livre. Il contient de nombreuses références à d'autres documents.
Il n'est pas dans les sections statistiques ou dans les livres du MOE. C'est un peu comme s'il avait dû être dans la section économétrie, mais il n'y est pas non plus. D'une certaine manière, il est isolé.
L'un des chercheurs (qui a inventé le double apprentissage automatique, en 2018 je crois) est notre émigré Chernozhukov. Ses travaux sont également en anglais. Prado a également adopté ses méta-modèles à partir de là, apparemment. Mais très superficiellement.

 
Maxim Dmitrievsky #:
Document comparant différentes méthodes. En plus des vidéos et du livre. Il contient de nombreuses références à d'autres documents.
Il n'est pas dans les sections statistiques ou dans les livres du MOE. C'est un peu comme s'il avait dû être dans la section économétrie, mais il n'y est pas non plus. Il s'agit d'un ouvrage à part.
L'un des chercheurs (qui a inventé le double apprentissage automatique, en 2018 je crois) est notre émigré Chernozhukov. Ses travaux sont également en anglais. Prado a également adopté ses méta-modèles à partir de là, apparemment. Mais très superficiellement.

https://a rxiv.or g/pdf/2201.12692.pdf


D'après cette image.

Pour le MO, l'échantillonnage séquentiel n'est pas acceptable - seulement l'échantillonnage aléatoire, et pas seulement aléatoire.

 
СанСаныч Фоменко #:

A partir de cette image.

Pour le MO, l'échantillonnage séquentiel n'est pas acceptable - seul l'échantillonnage aléatoire, et pas seulement l'échantillonnage aléatoire, est acceptable.

Maxim Dmitrievsky #:
Document comparant différentes méthodes. En plus des vidéos et du livre. Il contient de nombreuses références à d'autres documents.
Ce document ne figure pas dans les sections statistiques ni dans les livres du MOE. C'est un peu comme s'il avait dû être dans la section économétrie, mais il n'y est pas non plus. Il s'agit d'un ouvrage à part.
L'un des chercheurs (qui a proposé le double apprentissage automatique, en 2018 je crois) est notre émigré Chernozhukov. Ses travaux sont également en anglais. Prado a également adopté ses méta-modèles à partir de là, apparemment. Mais très superficiellement.

https://a rxiv.or g/pdf/2201.12692.pdf


Merveilleux article !

Si j'ai bien compris les applications, le résultat de la classification dépend non seulement de la qualité des données d'origine, mais aussi de la manière dont nous formons l'ensemble d'entraînement et d'évaluation. Et de quelque chose d'autre que je n'ai pas encore compris.

 
СанСаныч Фоменко #:

Merveilleux article !

Si j'ai bien compris les applications, le résultat de la classification dépend non seulement de la qualité des données d'origine, mais aussi de la façon dont nous formons l'ensemble d'entraînement et d'évaluation. Et de quelque chose d'autre, que je n'ai pas encore compris.

Hehe. Regardez d'autres vidéos avant celle-ci, cela pourrait vous éclairer. Il s'agit de trouver dans les données, disons X avec un vecteur de valeurs de caractéristiques W, des échantillons qui réagissent aussi bien que possible au traitement (entraînement du modèle dans notre cas) et de les affecter à la classe "à négocier", alors qu'il vaut mieux ne pas toucher aux autres, "à ne pas négocier", parce qu'ils réagissent mal à l'entraînement (sur de nouvelles données, le modèle commet une erreur en les incluant dans le groupe d'entraînement). En marketing, il s'agit d'exemples d'utilisateurs. Un échantillon d'utilisateurs sera touché par une campagne publicitaire, mais d'autres ne valent pas la peine d'utiliser le budget de la campagne publicitaire.

C'est ainsi que je l'entends dans le contexte de la CT.

 
Maxim Dmitrievsky #:

Hehehe. Regardez d'autres vidéos avant celle-ci, cela vous aidera peut-être à y voir plus clair. Il s'agit de trouver de tels échantillons dans les données, disons X avec un vecteur de valeurs de caractéristiques W, qui réagissent aussi bien que possible au traitement (entraînement du modèle dans notre cas) et de les affecter à la classe "à négocier", alors qu'il vaut mieux ne pas toucher aux autres, "à ne pas négocier", parce qu'ils ne réagissent pas bien à l'entraînement (sur de nouvelles données, le modèle commet une erreur en les incluant dans le groupe de traitement). En marketing, il s'agit d'exemples d'utilisateurs. Lorsqu'un échantillon d'utilisateurs sera affecté par une campagne publicitaire, mais qu'il n'est pas approprié d'utiliser le budget de la campagne publicitaire pour les autres.

C'est ainsi que je l'entends dans le contexte de la CT.

Votre compréhension a un relent persistant de déterminisme, alors que l'article est l'apothéose du hasard et même sur des données déséquilibrées. Il n'y a pas de sélection d'échantillons, c'est le contraire. Nous recommandons X-learner, qui

estime d'abord les deux fonctions de réponse µ(x, 1) et µ(x, 0). Il utilise ensuite ces estimations pour imputer les effets de traitement individuels non observés pour le traité, ˜ξ 1 i , et le contrôle, ˜ξ 0 i . Les effets imputés sont à leur tour utilisés comme pseudo-résultats pour estimer les effets du traitement dans l'échantillon traité, τ (x, 1), et dans l'échantillon de contrôle, τ (x, 0), respectivement. L'estimation finale du CATE τ (x) est alors une moyenne pondérée de ces estimations de l'effet de traitement pondérées par le score de propension, e(x). Ainsi, l'apprenant X utilise en outre les informations provenant des personnes traitées pour en apprendre davantage sur les témoins et vice-versa dans un style de régression croisée, d'où le terme X dans sa dénomination.

Rien de tel qu'une "bonne" sélection.