L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3157

 
Maxim Dmitrievsky #:
Non

Les paquets sont bien, mais il faut d'abord comprendre en principe ce qu'il faut faire.


réponse au chat sur les méthodes kozuli


Plusieurs méthodes sont utilisées pour l'inférence causale. Parmi les méthodes les plus courantes, citons

  1. Lesexpériences contrôlées aléatoires: Il s'agit d'une méthode utilisée pour identifier les relations causales dans des environnements complexes. Elle implique un contrôle total du mécanisme d'affectation et l'affectation estaléatoire1.
  2. Données d'observation: cette méthode est utilisée lorsque les expériences ne sont pas possibles ou pratiques. Elle consiste à analyser des données collectées à partir de sources naturelles telles que des enquêtes ou desdossiers administratifs1.
  3. Variables instrumentales: cette méthode est utilisée pour identifier les relations causales en cas de problèmes d'endogénéité ou de manque dedonnées1.
  4. Appariement des propensions: cette méthode est utilisée pour comparer des groupes présentant des caractéristiques similaires afin d'éliminer l'impactdes facteurs de confusion1.
  5. Estimateur de différence dans les différences: cette méthode est utilisée pour analyser les changements dans le temps et entre lesgroupes1.

Il ne s'agit là que de quelques-unes des nombreuses méthodes utilisées pour l'inférence causale. Chaque méthode a ses propres avantages et inconvénients, et le choix de la méthode dépend de la situation particulière et des données disponibles.


Parlez-nous du point 1

Les expériences contrôlées randomisées, également connues sous le nom d'essais contrôlés randomisés (ECR), constituent une méthode puissante pour découvrir des relations causales. Dans un ECR, les participants sont répartis de manière aléatoire en deux groupes ou plus. Un groupe reçoit une intervention (par exemple un médicament) et l'autre groupe reçoit un placebo ou un traitement standard. Les chercheurs comparent ensuite les résultats entre les groupes pour déterminer s'il y a une différence dans les résultats.

Le principal avantage de l'ECR est que l'affectation aléatoire des participants aux groupes permet d'éliminer les biais et les facteurs de confusion. Cela signifie que toute différence de résultats entre les groupes peut être attribuée à l'exposition plutôt qu'à d'autres facteurs.

Cependant, les ECR ne sont pas toujours possibles ou pratiques. Par exemple, ils peuvent être coûteux, nécessiter beaucoup de temps et de ressources, ou être inacceptables d'un point de vue éthique. Dans ces cas, les chercheurs peuvent utiliser d'autres méthodes d'inférence causale.


======================================

Vous faites ça ? C'est une phyche selecta boruta à ce qu'il semble.


 
Maxim Dmitrievsky #:

Vous pouvez vérifier par vous-même, j'ai développé un thème un peu kozul pour que vous ne vous ennuyiez pas.

Manifestement, vous avez un concept réinterprété et surchargé (au sens de la programmation) d'un tritment. À l'origine, il s'agit d'une chose beaucoup plus simple et sans ambiguïté. Une notion aussi étendue ne risque-t-elle pas de conduire à un sur-apprentissage ? Dans le sens où une plus grande flexibilité peut toujours y conduire.

 
Aleksey Nikolayev #:

Il est clair que vous avez une notion réinterprétée et surchargée (au sens de la programmation) d'un tritment. Au départ, il s'agit d'une chose beaucoup plus simple et sans ambiguïté. Une notion aussi étendue ne risque-t-elle pas de conduire à un sur-apprentissage ? Dans le sens où une plus grande flexibilité peut toujours conduire à un surapprentissage.

Je ne sais pas, je mange du McDonald's :) Probablement. Je ne faisais que survoler le matériel offert, sous tous les angles.
 
mytarmailS #:

sont bons, mais il faut d'abord savoir ce que l'on fait.


réponse au chat sur les méthodes kozuli


Plusieurs méthodes sont utilisées pour l'inférence causale. Parmi les méthodes les plus courantes, citons

  1. Lesexpériences contrôlées aléatoires: Il s'agit d'une méthode utilisée pour identifier les relations causales dans des environnements complexes. Elle implique un contrôle total du mécanisme d'affectation et l'affectation estaléatoire1.
  2. Données d'observation: cette méthode est utilisée lorsque les expériences ne sont pas possibles ou pratiques. Elle consiste à analyser des données collectées à partir de sources naturelles telles que des enquêtes ou desdossiers administratifs1.
  3. Variables instrumentales: cette méthode est utilisée pour identifier les relations causales en cas de problèmes d'endogénéité ou de manque dedonnées1.
  4. Appariement des propensions: cette méthode est utilisée pour comparer des groupes présentant des caractéristiques similaires afin d'éliminer l'impactdes facteurs de confusion1.
  5. Estimateur de différence dans les différences: cette méthode est utilisée pour analyser les changements dans le temps et entre lesgroupes1.

Il ne s'agit là que de quelques-unes des nombreuses méthodes utilisées pour l'inférence causale. Chaque méthode a ses propres avantages et inconvénients, et le choix de la méthode dépend de la situation particulière et des données disponibles.


Parlez-moi du point 1

Les expériences contrôlées randomisées, également connues sous le nom d'essais contrôlés randomisés (ECR), constituent une méthode puissante pour identifier les relations de cause à effet. Dans un essai contrôlé randomisé, les participants sont répartis de manière aléatoire en deux groupes ou plus. Un groupe reçoit une intervention (par exemple un médicament) et l'autre groupe reçoit un placebo ou un traitement standard. Les chercheurs comparent ensuite les résultats entre les groupes pour déterminer s'il y a une différence dans les résultats.

Le principal avantage de l'ECR est que l'affectation aléatoire des participants aux groupes permet d'éliminer les biais et les facteurs de confusion. Cela signifie que toute différence de résultats entre les groupes peut être attribuée à l'exposition plutôt qu'à d'autres facteurs.

Cependant, les ECR ne sont pas toujours possibles ou pratiques. Par exemple, ils peuvent être coûteux, nécessiter beaucoup de temps et de ressources, ou être inacceptables d'un point de vue éthique. Dans ces cas, les chercheurs peuvent utiliser d'autres méthodes d'inférence causale.


======================================

Vous faites ça ? C'est une phyche selecta boruta à ce qu'il semble.


Pour ce qui est de la question des méta-apprenants et de l'apprentissage orthogonal, tout est dans le livre. Et l'adaptation croisée.
 
Maxim Dmitrievsky #:
En ce qui concerne les méta-apprenants, posez des questions sur l'apprentissage orthogonal, c'est dans le livre après tout.

Le méta-apprentissage est une approche de l'apprentissage automatique qui permet aux algorithmes de s'adapter rapidement à de nouvelles tâches sur la base de leur expérience antérieure.Dans le contexte de l'inférence causale, leméta-apprentissage peut être utilisé pour réutiliser des modèles prédictifs pour l'inférence causale1.

Tous les modèles prédictifs tels que la régression linéaire, les arbres de décision boostés, les réseaux neuronaux ou les processus gaussiens peuvent être adaptés à l'inférence causale en utilisant les approches décrites dans ce chapitre. Ainsi, le succès du méta-apprentissage dépend de la qualité des modèles prédictifs utilisés et de la manière dont ils sont adaptés à latâche d'inférencecausale1.

Il s'agit d'un domaine de recherche relativement nouveau et en plein développement, et il existe de nombreuses approches différentes du méta-apprentissage dans le contexte de l'inférence causale.

========================

L'apprentissage orthogonal est une approche de l'apprentissage automatique utilisée pour améliorer l'inférence causale. Un exemple d'apprentissage orthogonal est le Double Machine Learning, proposé par Chernozhukov et al. 1. Cette méthode utilise un estimateur en deux étapes qui orthogonalise d'abord l'effet des facteurs de confusion à haute dimension à l'aide d'algorithmes d'apprentissage automatique sophistiqués, notammentLasso2.

L'apprentissage orthogonalest également utilisé dans d'autres méthodes d'inférence causale telles que laforêtaléatoireorthogonale1. Cet algorithme combine l'apprentissage automatique dual avec des forêts aléatoires généralisées pour estimer statistiquement des modèles de moment conditionnel à l'aide de forêts aléatoires.

En général, l'apprentissage orthogonal améliore la précision et la robustesse de l'inférence causale en supprimant l'influence des facteurs de confusion et en réduisant la sensibilité aux erreurs dans l'estimation des paramètres.

 
Aleksey Nikolayev #:

Il est clair que vous avez une notion réinterprétée et surchargée (au sens de la programmation) d'un tritment. Au départ, il s'agit d'une chose beaucoup plus simple et sans ambiguïté. Une notion aussi étendue ne risque-t-elle pas de conduire à un surapprentissage ? Dans le sens où une plus grande flexibilité peut toujours conduire à un surapprentissage.

Maxim a écrit plus haut qu'elle ne fonctionne pas sur les OOS, ce qui est un signe majeur de surentraînement du modèle.

D'après ce que je comprends, on prend un modèle dont on essaie d'affiner les résultats afin de réduire l'erreur.

Mais la source d'erreur dans l'OOS réside dans les données elles-mêmes, lorsque les mêmes valeurs prédictives prédisent des classes différentes dans des situations différentes. Ce défaut des prédicteurs ne peut être corrigé par aucun exercice mathématique, vous ne pouvez pas corriger des déchets, mais sur des déchets, vous pouvez obtenir une erreur d'apprentissage très faible parce que l'algorithme trouvera des données "commodes" et affichera un bon résultat. Mais sur de nouvelles données, le résultat est déplorable, parce qu'il a ses propres déchets.

Dans le même temps, le problème de l'utilisation du cajol est illustré de la manière suivante.

Supposons que nous ayons des prédicteurs dont 50 % des valeurs prédisent l'une des classes et que les 50 % restants prédisent au hasard n'importe quelle classe.

Nous ajustons le modèle et obtenons l'erreur de classification.

La question qui se pose maintenant est la suivante : cette erreur de classification est-elle cohérente avec le partitionnement des valeurs des prédicteurs ou non ? Si elle peut être améliorée, alors elle est correcte, et si elle ne peut pas l'être, alors elle n'est en aucun cas PAS correcte, car nous obtenons un surajustement du modèle.

 
Maxim Dmitrievsky #:
Vous pouvez supprimer la variable tritment de la liste et créer un enhancer sans elle. Je ne peux pas le faire avec. Et pour obtenir une estimation sans biais, vous faites des ajustements croisés.
.

J'étais exactement dans la même situation pour ces définitions, alors ne vous inquiétez pas :)

Ce n'est pas une question de terminologie, c'est une question de savoir ce que c'est et comment l'appliquer...

Le double apprentissage automatique est une technique utilisée pour évaluer les relations causales dans les données.

1) Que faut-il estimer ?

2) Bon, je l'ai estimé et puis quoi ?

 
mytarmailS #:

Ce n'est pas une question de terminologie, c'est une question de nature et d'application.

L'apprentissage automatique double est une technique utilisée pour évaluer les relations de cause à effet dans les données

1) Évaluer quoi ?

2) Bien, vous l'avez estimé et ensuite quoi ?

Ensuite, vous pouvez transformer les cibles et obtenir les poids, que j'ai déjà écrits. Ils seront sans biais. La plupart des kozuli parlent d'estimations sans biais.


 
C'est un peu comme l'histoire de l'éléphant et des rois mages. Le livre contient tout ce qu'il faut, ils ont besoin de leurs doigts pour faire une relecture sur le forum et se rendre compte qu'il s'agit d'un éléphant.
 
Aleksey Nikolayev #:

Dans l'article, à la page 10, il y a une implémentation sous forme de pseudocode. A l'avant-dernière page, dans l'annexe, il y a des références à l'implémentation en R et aux données utilisées dans l'article.

Le pseudocode fait référence à des formules :)

Pour ce qui est du code R, merci, il m'avait échappé. Je suppose qu'il y a un code de fonction, mais que le code lui-même, comme la lecture d'un fichier, est commenté ?

# --- Read in data --- 

# > arson = read.csv("arson.csv")
# > i = with(arson, day <= 731)
# > arson1 = arson[i,]
# > arson2 = arson[!i,]
# > arson2[,"day"] = arson2[,"day"] - 731

Je n'ai pas encore trouvé comment le faire fonctionner. Avez-vous réussi à le faire fonctionner ?

Aleksey Nikolayev #:

Comment, en termes généraux, implémentez-vous les arbres de décision dans mql5 ? Par le biais de tableaux ou de modèles ?

Je n'ai pas encore mis en œuvre la construction d'arbres dans MQL5 - Forester a plus d'expérience dans ce domaine.

Cependant, je pense que j'utiliserais des vecteurs et des matrices en plus des tableaux - le code est plus rapide avec eux. De plus, si j'ai bien compris, étant donné qu'il faut une énumération complète, il sera possible d'utiliser OpenCL.

Mais je ne sais pas ce que sont les "templates" dans ce contexte :(

Puisqu'il y a du code dans R, il est raisonnable de comprendre dès le début si tout cela a un sens ou non.

L'échantillon de l'article utilise un petit nombre de prédicteurs, j'en ai un ordre de grandeur plus grand et bien sûr ils sont moins informatifs individuellement.

En général, je suis intéressé par l'utilisation de cette méthode non seulement pour comparer deux échantillons, mais aussi pour détecter des anomalies dans les données - je pense que c'est la meilleure façon de procéder.

L'idée est que nous avons des groupes de feuilles, même s'ils sont similaires, et si nous voyons un comportement anormal d'un prédicteur, nous désactivons simplement toutes les feuilles qui l'utilisent, tout en vérifiant la corrélation avec les feuilles du groupe. Idéalement, si cela est détecté à temps, cela permettra au modèle de continuer à fonctionner, bien qu'avec moins de confiance.