L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3142

 
Maxim Dmitrievsky #:

quelques graphiques de l'O.C.D., n'est-ce pas ?

Pas pour un nouvel enseignant.

J'essaie de résoudre le problème du grossissement des valeurs prédictives. Il me semble qu'une erreur de classification peut se produire si la valeur prédictive est légèrement différente de la valeur sur laquelle le modèle a été entraîné. J'ai essayé une fois de convertir tous les prédicteurs sous forme nominale avec le même professeur, mais cela n'a donné aucun résultat. Cependant, le nombre de valeurs des variables nominales était de un. Peut-être avons-nous besoin de plusieurs centaines ? Je travaille, mais beaucoup d'autres questions intéressantes sont en cours.

 
Forester #:

C'est une longue recherche, surtout si l'on cherche pendant quelques secondes.

Oui, c'est long, on n'est vraiment pas pressé, mais c'est long quand même.

Le problème est que le pouvoir prédictif des prédicteurs n'est qu'une des puces. Et il y en a beaucoup dans mon prétraitement et chacun nécessite un ensemble de statistiques pour le justifier.

J'ai mentionné un autre problème ci-dessus, pour lequel je n'arrive pas à trouver de solution depuis longtemps.

 
СанСаныч Фоменко #:

Pour un nouvel enseignant, non.

J'essaie de résoudre le problème du grossissement des valeurs prédictives. Il me semble qu'une erreur de classification peut se produire si la valeur prédictive est légèrement différente de la valeur sur laquelle le modèle a été entraîné. J'ai essayé une fois de convertir tous les prédicteurs sous forme nominale avec le même professeur, mais cela n'a donné aucun résultat. Cependant, le nombre de valeurs des variables nominales était de un. Peut-être avons-nous besoin de plusieurs centaines ? Je travaille, mais beaucoup d'autres questions intéressantes sont en cours.

"

Un modèle idéal devrait avoir un faible biais et une faible variance. Toutefois, dans la réalité, il existe un "compromis" entre le biais et la variance. L'augmentation de la complexité du modèle (par exemple, l'ajout de nouveaux paramètres) peut réduire le biais mais augmenter la variance. Inversement, la simplification du modèle peut réduire la variance mais augmenter le biais.


"

Hypothétiquement, vous pouvez plier le vilebrequin à un niveau satisfaisant et affûter les jeux, mais cela n'ira pas loin parce que ce n'est plus "by design".
 
Maxim Dmitrievsky #:

"

Un modèle idéal devrait avoir un faible biais et une faible variance. Toutefois, dans la réalité, il existe un "compromis" entre le biais et la variance. L'augmentation de la complexité du modèle (par exemple, l'ajout de nouveaux paramètres) peut réduire le biais mais augmenter la variance. Inversement, la simplification du modèle peut réduire la variance mais augmenter le biais.


"

Hypothétiquement, vous pouvez plier le vilebrequin à un niveau satisfaisant et affûter les jeux, mais cela n'ira pas loin parce que ce n'est plus "by design".

Pour une raison que j'ignore, on oublie souvent la troisième composante : l'erreur irrécupérable. Si elle est suffisamment importante (et il me semble que nous en avons beaucoup en raison de la proximité des prix avec le SB), elle peut être plus importante que les deux premières.

Quoi qu'il en soit, il s'agit d'éléments très importants qui peuvent être regroupés en une seule question : quelle est l'information maximale qui peut être extraite de l'échantillon de prix (et d'autres données disponibles) dont nous disposons ?

 
Aleksey Nikolayev #:

Pour une raison quelconque, les gens oublient souvent la troisième composante - l'erreur irrécupérable. Si elle est suffisamment importante (et il me semble que dans notre pays, elle n'est pas négligeable en raison de la proximité des prix avec le SB), elle peut être plus importante que les deux premières.

Quoi qu'il en soit, il s'agit d'éléments très importants qui peuvent être résumés en une seule question : quelle est l'information maximale qui peut être extraite de l'échantillon de prix (et d'autres données disponibles) dont nous disposons ?

Nous ne devrions donc pas essayer de prédire tous les cas, mais d'extraire ceux qui sont prédits par la méthode Mo.

C'est ce qu'on appelle "l'effet de traitement hétérogène", que l'on peut comparer non pas au pliage d'un vilebrequin, mais à la recherche de pièces fonctionnelles et à la mise au rebut de celles qui ne le sont pas.

Les attributs de X deviennent alors contextuels et ne sont pas des "prédicteurs" de Y au sens classique du terme. C'est pourquoi, en kozul, ils sont appelés "covariables".

Le résultat répondra à votre question (en fonction de ce qu'il faut mesurer) sur l'information maximale. Habituellement, il est mesuré en ATE ou en CATE.


 
Aleksey Nikolayev #:

Une question : quelle est la quantité maximale d'informations que l'on peut extraire de l'échantillon de prix disponible (et des autres données disponibles) ?

Je pense qu'il faut bien définir la tâche.

Définir l'information

Définir "l'information maximale" (au moins pour comprendre quand s'arrêter).

Se rendre compte que chaque cible aura un ensemble différent, et qu'il faut donc déclarer la cible.


Mais c'est une question intéressante, j'aime bien.
 
Aleksey Nikolayev #:

Pour une raison quelconque, les gens oublient souvent la troisième composante - l'erreur irrécupérable. Si elle est suffisamment importante (et il me semble que dans notre pays, elle n'est pas négligeable en raison de la proximité des prix avec le SB), elle peut être plus importante que les deux premières.

Quoi qu'il en soit, il s'agit d'éléments très importants qui peuvent être résumés en une seule question : quelle est l'information maximale qui peut être extraite de l'échantillon de prix (et d'autres données disponibles) dont nous disposons?

Il s'agit là d'une question de recherche dissertable, et non de la construction d'un robot qui fauche de la pâte.

Nous n'avons pas besoin d'un maximum d'informations, mais d'un minimum suffisant. Nous pouvons donc nous limiter à ce qui suit :

1. Créer un modèle qui donne une erreur de classification inférieure à 20 % au stade de la classification. Il faut bien comprendre que le "modèle" comprend le prétraitement complet des prédicteurs, ainsi que les outils d'évaluation du modèle.

2. Insérer le modèle dans un Expert Advisor qui donne au moins le même ratio de trades perdants/profitables. Si le facteur de profit est supérieur à 4, il reste une étape à franchir.

3. S'assurer sur l'OOS que rien n'a changé, et comprendre les raisons d'une telle stabilité sur l'OOS, qui réside dans le prétraitement, et non dans le modèle.

Et quelles erreurs se sont glissées dans les 20 % - est-ce intéressant ?

 

Ne serait-il pas plus facile de classer les erreurs ?

Plus nous trouvons d'erreurs, meilleur sera le modèle. Il ne s'agit pas d'une maximisation de l'information, mais d'une amélioration qualitative (pardonnez le jeu de mots).

 
mytarmailS #:
Je pense que Snalo doit définir la tâche correctement.

Définir l'information

Définir "l'information maximale" (au moins pour comprendre quand s'arrêter).

Réaliser que chaque cible aura un ensemble différent, nous devons donc déclarer la cible.


Mais c'est une question intéressante, j'aime bien.

À mon avis, l'option de Maxim ci-dessus est très bonne. Comme San Sanych l'a noté à juste titre, ce n'est pas l'information elle-même qui est importante, mais la manière dont elle aide à multiplier le dépôt).

Si, pour simplifier, nous considérons une stratégie de trading comme un trite et Y comme un profit, la définition (TS maximisant l'espérance de profit) devient tout à fait banale.

 
СанСаныч Фоменко #:

Il s'agit d'une question de recherche dissertable, pas de la création d'un robot qui fauche la pâte.

Nous n'avons pas besoin d'un maximum d'informations, mais d'un minimum suffisant. Nous pouvons donc nous limiter à ce qui suit :

1. Créer un modèle qui donne une erreur de classification inférieure à 20 % au stade de la classification. Il faut bien comprendre que le "modèle" comprend le prétraitement complet des prédicteurs, ainsi que les outils d'évaluation du modèle.

2. Insérer le modèle dans un Expert Advisor qui donne au moins le même ratio de trades perdants/profitables. Si le facteur de profit est supérieur à 4, il reste une étape à franchir.

3. Vérifier sur l'OOS que rien n'a changé, et comprendre les raisons d'une telle stabilité sur l'OOS, qui réside dans le prétraitement, et non dans le modèle.

Et quelles erreurs se sont glissées dans les 20 % - est-ce intéressant ?

L'une n'interfère en rien avec l'autre. Il est évident que le maximum est non seulement inaccessible, mais même impossible à calculer, mais nous pouvons essayer de l'estimer d'une manière ou d'une autre et de le comparer, au moins grossièrement, à l'écart, par exemple. Je veux parler d'une variante du maximum comme celle proposée par Maxim.