L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3081

 

Cet article est une parfaite illustration de la promotion publicitaire de résultats triviaux.

Le titre même"Causal Effects" nous met le nez dans notre retard, car en étudiant divers sinus, nous n'avons pas réalisé qu'il s'agit du résultat de Causal Effects à partir de l'introduction de données d'entrée dans l'entrée du sin et de l'obtention du résultat.

L'auteur prend RF, donne des données d'entrée à l'entrée et obtient une erreur comme résultat.

Pour que tout le monde comprenne bien qu'il s'agit d'une toute nouvelle orientation de la MO, les données d'entrée (prédicteurs) sont appelées covariables, l' algorithme RF est appelé méta-apprentissage et l'ensemble du processus est appeléeffets de causalité .

Les défenseurs deseffets causaux ne savent pas qu'en russe, les covariables sont parfois des prédicteurs qui ont un effet non seulement sur la variable cible, mais aussi sur les prédicteurs voisins, ce qui signifie que le terme devrait être utilisé de manière plus précise pour éviter toute ambiguïté.

Qualifier l'algorithme RF de "méta-apprenant" est un autre coup publicitaire dans Causal Effects, puisque cet algorithme produit des règles qui ne sont certainement PAS des apprenants. Mais d'un point de vue publicitaire, dans l'apprentissage automatique, il devrait y avoir des apprenants et pour l'importance de "méta" et basta.

L'article justifie en détail le choix de RF comme algorithme de base , en précisant que n'importe quel ( ?) algorithme MO peut être utilisé à la place deRF. Pour généraliser cette idée, le terme nuisance, c'est-à-dire désagréable, odieux, ennuyeux , est utilisé. S'il s'agit d'un texte, il devrait probablement être traduit par "une fonction du bruit", c'est-à-dire que l'algorithme RF est une "fonction du bruit". Mais comme cela semble complexe et beau, et surtout le lecteur, qui pensait auparavant que la RF produisait des règles avec une certaine erreur, l'apprécie tout simplement.

Nous pouvons continuer, mais ce qui précède est suffisant pour renvoyer tous ceseffets de causalité à de la pure publicité, d'ailleurs très réussie, lorsque les véritables absurdités se sont vendues et ont obtenu une place de professeur à l'université de Stanford, avec des adeptes qui veulent se tenir au courant des nouvelles tendances avancées.

Qui est donc l'auteur de la soi-disant dernière tendance de pointe en matière d'EM ? À en juger par le nombre de références, il s'agit de Victor Chernozhukov, un homme sans formation particulière, diplômé d'un institut agricole au début des années 90. Je me souviens très bien de cette époque, où des millions de Tchernozhukov, sous les cris d'une conscience non obscurcie par l'éducation et les faits, ont couru et déplacé toutes sortes d'absurdités. et beaucoup d'entre eux sont devenus des milliardaires et des politiciens de premier plan.


Aujourd'hui, le monde entier vit selon les lois de la publicité, dans tous les domaines, en pensant que le MO passera cette coupe. Eh bien, non.

 
СанСаныч Фоменко #:

Cet article est une parfaite illustration de la promotion publicitaire de résultats insignifiants.

Le nom même de"Causal Effects" nous renvoie à notre retard, car en étudiant divers sinus, nous n'avons pas réalisé qu'il s'agit du résultat de Causal Effects à partir du moment où l'on donne des données d'entrée à l'entrée du péché et que l'on obtient le résultat.

L'auteur prend RF, donne des données d'entrée et obtient une erreur comme résultat.

Pour que tout le monde comprenne qu'il s'agit d'une toute nouvelle orientation de la MO, les données d'entrée (prédicteurs) sont appelées covariables, l' algorithme RF est appelé méta-apprentissage et l'ensemble du processus est appeléeffets de causalité .

Les défenseurs deseffets causaux ne savent pas qu'en russe, les covariables sont parfois des prédicteurs qui ont un effet non seulement sur la variable cible, mais aussi sur les prédicteurs voisins, c'est-à-dire que le terme devrait être utilisé de manière plus précise pour éviter toute ambiguïté.

Qualifier l'algorithme RF de "méta-apprenant" est un autre coup publicitaire dans Causal Effects, puisque cet algorithme produit des règles qui ne sont certainement PAS des apprenants. Mais du point de vue de la publicité dans l'apprentissage automatique, il devrait y avoir des étudiants et pour l'importance de "méta" et basta.

L'article justifie en détail le choix de RF comme algorithme de base , en précisant que n'importe quel ( ?) algorithme MO peut être utilisé à la place deRF. Pour généraliser cette idée, le terme nuisance, c'est-à-dire désagréable, odieux, ennuyeux , est utilisé. S'il s'agit d'un texte, il devrait probablement être traduit par "une fonction du bruit", c'est-à-dire que l'algorithme RF est une "fonction du bruit". Mais comme cela semble complexe et beau, et surtout le lecteur, qui pensait auparavant que la RF produisait des règles avec une certaine erreur, l'apprécie tout simplement.

Il est possible de continuer, mais ce qui précède suffit à renvoyer tous ceseffets de causalité à de la pure publicité, d'ailleurs très réussie, alors que les véritables absurdités se sont vendues et ont obtenu une place de professeur à l'université de Stanford, et ont des adeptes qui veulent rester au courant des nouvelles tendances avancées.

Qui est donc l'auteur de la prétendue nouvelle tendance de pointe en matière d'EM ? À en juger par le nombre de références, il s'agit de Victor Chernozhukov, un homme sans formation particulière, diplômé d'un institut agricole au début des années 90. Je me souviens très bien de cette époque, où des millions de Tchernozhukov, sous les cris d'une conscience non obscurcie par l'éducation et les faits, couraient et avançaient toutes sortes d'absurdités. et beaucoup d'entre eux sont devenus des milliardaires et des politiciens de premier plan.


Aujourd'hui, le monde entier vit selon les lois de la publicité, dans tous les domaines, et pense que le MO passera cette coupe. Eh bien, non.

Merci pour l'analyse, car je ne l'ai pas lue. La vidéo sur le même sujet m'a suffi.
 
СанСаныч Фоменко #:

Cet article est une parfaite illustration de la promotion publicitaire de résultats insignifiants.

Le nom même de"Causal Effects" nous renvoie à notre retard, car en étudiant divers sinus, nous n'avons pas réalisé qu'il s'agit du résultat de Causal Effects à partir du moment où l'on donne des données d'entrée à l'entrée du péché et que l'on obtient le résultat.

L'auteur prend RF, donne des données d'entrée et obtient une erreur comme résultat.

Pour que tout le monde comprenne qu'il s'agit d'une toute nouvelle orientation de la MO, les données d'entrée (prédicteurs) sont appelées covariables, l' algorithme RF est appelé méta-apprentissage et l'ensemble du processus est appeléeffets de causalité .

Les défenseurs deseffets causaux ne savent pas qu'en russe, les covariables sont parfois des prédicteurs qui ont un effet non seulement sur la variable cible, mais aussi sur les prédicteurs voisins, c'est-à-dire que le terme devrait être utilisé de manière plus précise pour éviter toute ambiguïté.

Qualifier l'algorithme RF de "méta-apprenant" est un autre coup publicitaire dans Causal Effects, puisque cet algorithme produit des règles qui ne sont certainement PAS des apprenants. Mais du point de vue de la publicité dans l'apprentissage automatique, il devrait y avoir des étudiants et pour l'importance de "méta" et basta.

L'article justifie en détail le choix de RF comme algorithme de base , en précisant que n'importe quel ( ?) algorithme MO peut être utilisé à la place deRF. Pour généraliser cette idée, le terme nuisance, c'est-à-dire désagréable, odieux, ennuyeux , est utilisé. S'il s'agit d'un texte, il devrait probablement être traduit par "une fonction du bruit", c'est-à-dire que l'algorithme RF est une "fonction du bruit". Mais comme cela semble complexe et beau, et surtout le lecteur, qui pensait auparavant que la RF produisait des règles avec une certaine erreur, l'apprécie tout simplement.

Il est possible de continuer, mais ce qui précède suffit à renvoyer tous ceseffets de causalité à de la pure publicité, d'ailleurs très réussie, alors que les véritables absurdités se sont vendues et ont obtenu une place de professeur à l'université de Stanford, et ont des adeptes qui veulent rester au courant des nouvelles tendances avancées.

Qui est donc l'auteur de la prétendue nouvelle tendance de pointe en matière d'EM ? À en juger par le nombre de références, il s'agit de Victor Chernozhukov, un homme sans formation particulière, diplômé d'un institut agricole au début des années 90. Je me souviens très bien de cette époque, où des millions de Tchernozhukov, sous les cris d'une conscience non obscurcie par l'éducation et les faits, couraient et avançaient toutes sortes d'absurdités. et beaucoup d'entre eux sont devenus des milliardaires et des politiciens de premier plan.


Aujourd'hui, le monde entier vit selon les lois de la publicité, dans tous les domaines, et pense que le MO passera cette coupe. Eh bien, non.

Ce n'est que l'apothéose de votre incompétence professionnelle, lorsque de nouvelles informations ne vont pas dans la coupe. Ou des problèmes de traduction. Je ne peux que compatir :)

 
Maxim Dmitrievsky #:

C'est juste l'apogée de votre blasphème quand les nouvelles informations ne vont plus dans le bol de quelque manière que ce soit. Ou des problèmes de traduction. Je ne peux que compatir :)

tous les termes sont déformés, les informations de base sont déformées au point d'être méconnaissables.

Pouvez-vous transmettre à la plèbe des informations non déformées ?

 
СанСаныч Фоменко #:

...

Le document justifie en détail le choix de RF comme algorithme de base , en précisant que n'importe quel ( ?) algorithme MO peut être utilisé à la place de RF. Pour généraliser cette idée, le terme nuisance, c'est-à-dire désagréable, odieux, ennuyeux, est utilisé. S'il s'agit d'un texte, il devrait probablement être traduit par "une fonction du bruit", c'est-à-dire que l'algorithme RF est une "fonction du bruit". Mais comme c'est beau et complexe, et surtout, le lecteur, qui pensait auparavant que la RF produisait des règles avec une certaine erreur, s'en réjouit.

...

Je lisais et cherchais une application pratique de tout cela - vous n'en avez donc pas trouvé ?

Il me semble que l'article est censé fournir un outil d'évaluation de la mesure de l'écart entre la surface de l'échantillon agrégé et l'échantillon sur lequel la formation a eu lieu. En conséquence, en disposant de cet outil, il est possible de détecter les parties anormales de l'échantillon. Pensez-vous qu'il existe ou non ?

 
Aleksey Vyazmikin #:

Pouvez-vous transmettre une information pure et simple à la plèbe ?

Je peux compatir

 
СанСаныч Фоменко #:

Je pensais que je me faisais tailler une pipe ..... Oh, non.

Et je suis du même avis.))

Ces mots profonds décrivent l'ensemble de ce fil de discussion
 
Aleksey Vyazmikin #:

J'ai lu et cherché une application pratique de tout cela - vous n'en avez donc pas trouvé ?

Il me semble que l'article devrait fournir un outil d'évaluation de la mesure de l'écart entre la surface de l'échantillon agrégé et l'échantillon sur lequel la formation a eu lieu. Ainsi, en disposant de cet outil, il est possible de détecter les parties anormales de l'échantillon. Pensez-vous que cet outil existe ou non ?

Il ne figure pas dans l'article.

Il décrit l'ajustement habituel avec différentes divisions des prédicteurs originaux, y compris la validation croisée. Une routine qui a été camouflée avec des mots.

 
СанСаныч Фоменко #:

Ce n'est pas dans l'article.

L'ajustement habituel avec différentes divisions des prédicteurs originaux, y compris la validation croisée, est décrit. Une routine qui a été camouflée par des mots.

Merci pour votre avis d'expert.

 
Maxim Dmitrievsky #:


et les fonctions de nuisance(ou paramètres) ne sont pas des fonctions de bruit, mais des fonctions auxiliaires, qui ne sont pas des fonctions cibles pour une tâche particulière


Puis-je avoir un lien dans l'article vers une vue de ces fonctions "auxiliaires" ?

En même temps, les raisons d'utiliser RF, qui est appelée fonction de base et qui calcule beaucoup d'informations en tant que résultat du travail, sont décrites avec beaucoup de détails :

Un objet de la classe randomForest , qui est une liste avec les composants suivants :

appel

l'appel original à randomForest

type

l'un des types suivants : régression, classification ou non supervisé.

prédit

les valeurs prédites des données d'entrée basées sur les échantillons hors sac.

importance

une matrice avec nclasse + 2 (pour la classification) ou deux (pour la régression) colonnes. Pour la classification, les premières colonnes nclass sont les mesures spécifiques à la classe calculées en tant que diminution moyenne de la précision. La colonne nclasse + 1 est la diminution moyenne de la précision pour toutes les classes. La dernière colonne est la diminution moyenne de l'indice de Gini. Pour la régression, la première colonne est la diminution moyenne de la précision et la seconde la diminution moyenne de l'EQM. Si importance=FALSE , la dernière mesure est toujours renvoyée sous forme de vecteur.

importanceSD

Les "erreurs standard" de la mesure d'importance basée sur la permutation. Pour la classification, une matrice p par nclasse + 1 correspondant aux premières colonnes nclasse + 1 de la matrice d'importance. Pour la régression, un vecteur de longueur p.

localImp

une matrice p par n contenant les mesures d'importance par cas, dont l'élément [i,j] est l'importance de la i-ième variable dans le j-ième cas. NULL si localImp=FALSE .

ntree

nombre d'arbres cultivés.

mtry

nombre de prédicteurs échantillonnés pour le fractionnement à chaque nœud.

forest

(une liste contenant la forêt entière; NULL si randomForest est exécuté en mode non supervisé ou si keep.forest=FALSE .

err.rate

(classification uniquement) vecteur des taux d'erreur de la prédiction sur les données d'entrée, le i-ème élément étant le taux d'erreur (OOB) pour tous les arbres jusqu'au i-ème.

confusion

(classification uniquement) matrice de confusion de la prédiction (basée sur les données OOB).

votes

(classification uniquement) matrice comportant une ligne pour chaque point de données d'entrée et une colonne pour chaque classe, indiquant la fraction ou le nombre de "votes" (OOB) de la forêt aléatoire.

oob.times

nombre de fois où les cas sont "hors sac" (et donc utilisés dans le calcul de l'estimation de l'erreur OOB).

proximité

si proximity=TRUE lors de l' appel de randomForest, une matrice de mesures de proximité parmi les données d'entrée (basée sur la fréquence à laquelle les paires de points de données se trouvent dans les mêmes nœuds terminaux).

mse

(régression uniquement) vecteur des erreurs quadratiques moyennes : somme des carrés des résidus divisée par n .

rsq

(régression uniquement) "pseudo R-carré" : 1 - mse / Var(y).

test

si l'ensemble de test est donné (par les arguments xtest ou en plus y test), ce composant est une liste qui contient les valeurs prédites, err.rate, confusion, votes ( pour la classification) ou prédites, mse et rsq ( pour la régression) pour l'ensemble de test. Si proximity=TRUE , il y a aussi un composant, proximity , qui contient la proximité parmi l'ensemble de test ainsi que la proximité entre les données de test et d'entraînement.


On ne sait pas exactement ce que l'auteur utilise dans la liste ci-dessus, mais il n'y a tout simplement pas d'autres sources pour déterminer les erreurs de classification ou de régression lors de l'utilisation de la FR, et il n'y en a pas besoin.

Les erreurs produites par la FR seront différentes pour différentes combinaisons de données d'entrée. C'est ce que l'auteur étudie et tire des conclusions sur la variance des erreurs et un certain biais, dont on ne sait pas comment il est calculé.