L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 3049
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Le concept de RL n'est-il pas redondant pour les tâches d'échange ? Nous avons l'influence de l'environnement sur l'agent, mais existe-t-il une influence de l'agent sur l'environnement ? Il est possible d'introduire artificiellement cette seconde influence, mais cela a-t-il un sens ?
Deux (ou trois) idées tirées de l'article ne sont pas du tout superflues pour nous : la fonction de perte doit refléter exactement ce dont nous avons besoin et doit être lisse (et monotone). Dans notre cas, il doit s'agir du profit et il doit dépendre de manière lisse et monotone des paramètres du modèle.
La régularité d'un analogue du bénéfice peut probablement être obtenue d'une manière ou d'une autre (par exemple, par quelque chose comme le lissage du noyau). Mais je doute beaucoup de la monotonicité.
La base du résultat financier du trading est le mouvement des prix - un processus aléatoire non stationnaire.
Essayons-nous de transformer un processus aléatoire non stationnaire en un processus lisse et monotone au moyen de quelques astuces ? Peut-être sommes-nous en train de marcher sur la tête ? Surtout si l'on tient compte du fait qu'il est extrêmement difficile d'obtenir une erreur de classification inférieure à 20 % ( !) en dehors de l'ensemble d'apprentissage. Peut-être devrions-nous commencer par travailler à la réduction de l'erreur de classification ?
Lire l'article.
À quoi nous sert cet article ?
Il est tout à fait douteux.
Et la raison en est la suivante.
Je ne me souviens d'aucune publication sur l'IA (MO) qui aurait prédit l'avenir. Ils apprennent à un modèle à écrire des lettres manuscrites. Ensuite, ils essaient de reconnaître ces lettres manuscrites. Mais le modèle n'apprend PRINCIPALEMENT pas à prédire quelle lettre sera écrite ensuite.
C'est le problème que nous rencontrons.
Nous essayons d'utiliser la MO (le même travail que nous avons fait avec les combinaisons de chandeliers) pour trouver des modèles dans les prédicteurs qui donneront la bonne prédiction. Mais il n'y a aucune garantie que les modèles trouvés donneront des prédictions correctes à l'avenir. Les "bons" modèles donneront une erreur et les "mauvais" modèles prédiront la bonne chose. La raison réside dans les algorithmes de classification eux-mêmes, qui donnent la VERABILITÉ d'une classe, et non sa valeur. Nous utilisons la régularisation la plus primitive de 0,5 pour diviser en classes. Et si, au cours de l'apprentissage, la probabilité d'un modèle "correct" = 0,5000001, pourquoi prenons-nous cette probabilité comme valeur de la classe ?
Pour sortir de cette situation, nous commençons à cultiver un potager, mais les valeurs des prédicteurs, parmi lesquels nous recherchons des modèles, ne sont PAS stationnaires ou pseudo-stationnaires et n'ont qu'un rapport lointain avec le prix !
Nous avons l'influence de l'environnement sur l'agent, mais existe-t-il une influence de l'agent sur l'environnement ? Il est probablement possible d'introduire artificiellement cette seconde influence, mais cela a-t-il un sens ?
Tout dépend de la tâche à accomplir.
Si nous prévoyons une cible toute faite, comme le fait l'écrasante majorité, nous n'avons pas d'influence sur l'environnement et il n'y a pas besoin de RL.
Mais si, par exemple, la tâche de gestion des positions, des stops, des take-outs...
La gestion des actifs est l'environnement que nous (l'agent) gérons.
L'agent décide de passer un ordre ou de ne pas le faire.
à quel prix,
et quand le retirer ou le déplacer,
et que fera-t-il lorsque la perte actuelle sur la position actuelle dépasse n pips,
et que fera-t-il s'il a cinq pertes consécutives ?
Vous voyez, il s'agit d'un niveau complètement différent de la tâche, avec un grand nombre d'états (sorties), et non pas d'une classification primitive haut/bas.
Pour simplifier encore, nous ne pouvons pas gérer le marché, mais nous pouvons gérer la position et le risque, parce que nous le pouvons !
Le lissage d'un analogue du profit peut probablement être obtenu d'une manière ou d'une autre (par exemple, par quelque chose comme le lissage du noyau). Mais je doute beaucoup de la monotonicité.
Je ne comprends pas vraiment ce que l'on entend par "lissage" et pourquoi le "lissage" est nécessaire....
Peut-être pouvons-nous utiliser l'optimisation multicritère pour trouver la meilleure solution.
tout dépend de la tâche à accomplir.
Si nous prévoyons une cible toute faite, comme le fait la grande majorité des gens, nous n'avons aucune influence sur l'environnement et il n'est pas nécessaire d'avoir recours à la RL elle-même.....
Mais si, par exemple, la tâche de gestion de la position, des arrêts, des prises ...
La gestion des actifs est l'environnement, que nous (l'agent) gérons...
L'agent décide de passer un ordre ou de ne pas le faire.
à quel prix,
et quand le retirer ou le déplacer,
et que fera-t-il lorsque la perte actuelle sur la position actuelle dépassera n points,
et que fera-t-il lorsqu'il aura cinq pertes d'affilée...
Vous voyez, il s'agit d'un niveau complètement différent de la tâche, avec beaucoup d'états (sorties), pas une classification primitive haut/bas.
Pour le dire encore plus simplement, nous ne pouvons pas gérer le marché, mais nous pouvons gérer la position et le risque, nous le pouvons !
Je ne comprends pas vraiment ce qui entre en jeu dans la "fluidité" et pourquoi vous en avez besoin....
Peut-être pouvons-nous appliquer l'optimisation multicritère à la recherche.
Il est possible pour un agent d'avoir une moyenne.
La base du résultat financier du trading est le mouvement des prix - un processus aléatoire non stationnaire.
Essayons-nous de transformer un processus aléatoire non stationnaire en un processus lisse et monotone au moyen de quelques astuces ? Peut-être sommes-nous en train de marcher sur la tête ? Surtout si l'on tient compte du fait qu'il est extrêmement difficile d'obtenir une erreur de classification inférieure à 20 % ( !) en dehors de l'ensemble d'apprentissage. Peut-être devrions-nous commencer par travailler à la réduction de l'erreur de classification ?
Je parlais des propriétés de la fonction de perte minimisée par l'entraînement du modèle. Plus précisément, de sa forme idéale.
Je ne comprends pas vraiment ce qui entre en jeu dans la douceur et pourquoi la douceur est nécessaire.
C'est la base de l'optimisation. Le lissage permet d'optimiser au moyen d'un gradient. Sinon, il ne reste que des algorithmes de force brute.
C'est la base de l'optimisation
Oui, je le sais, mais récemment, ils ont parlé de la douceur de la courbe du capital elle-même, donc je ne suis pas vraiment entré dans ces discussions, c'est pourquoi je vous demande ce que vous voulez dire.
Hors sujet.
L'une des meilleures affaires jamais réalisées.
or
risque/récompense 1 sur 24
Hors sujet...
L'une des meilleures affaires de tous les temps.
or
risque/récompense 1 sur 24