L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 656

 
Yuriy Asaulenko:


Eh bien, et la non-stationnarité. Tout processus, s'il est décomposé en morceaux, deviendra instable, et s'il ne l'est pas, il ne sera pas aléatoire.

Je ne comprends pas. Dans GARCH, le processus est décomposé en composantes, et non en morceaux. C'est dans la formule elle-même : valeur précédente + bruit.

D'ailleurs, à en juger par les distributions à différents intervalles longs (plusieurs sur 3 mois), je n'ai pas remarqué de différence significative entre eux.

Dans les publications sur le GARCH, il est prouvé qu'il est nécessaire d'avoir plus de 5000 observations afin de calculer les paramètres des distributions. Moins de 1000 rend le modèle instable.

En ce qui concerne le sens économique - eh bien, je ne sais pas. Je suppose que le marché est aléatoire pour l'observateur. Que ce soit réellement aléatoire ou non n'a pas vraiment d'importance. Le mot clé ici estpour l'observateur.

Sur le forex, je suis tout à fait d'accord, car je pense que les taux de change sont des politiques.

Quant aux autres types d'actifs. Bien qu'aujourd'hui, les prix des actifs soient faux : le prix du pétrole est plusieurs fois plus élevé, alors que la consommation est à peu près la même.

 
Maxim Dmitrievsky:


mais vous ne vous êtes pas débarrassé des émissions.


Bien sûr que non et vous ne pouvez pas faire ça. En outre, l'une des implications des modèles GARCH est la façon dont il s'adapte VRAIMENT au processus après une émission.

 
SanSanych Fomenko:

Bien sûr que non et cela ne devrait pas être fait. En outre, l'une des significations des modèles GARCH est la façon dont il correspond VRAIMENT au processus après la valeur aberrante.

Je veux dire que si vous prenez juste les incréments et les logarithmes des incréments, les graphiques sont équivalents, mais seulement sur une échelle de prix différente.

 
Dr. Trader:

J'ai beaucoup pensé à ça aussi.

Si le modèle de régression prédit les gains de prix par barre et que le score R2 est supérieur à zéro sur les fronttests et backtests, c'est déjà un bon début. Le problème est que le résultat, bien que stable, est faible, l'écart ne peut être battu.

D'un point de vue analytique, le problème est que R2 pénalise plus fortement le modèle pour les erreurs importantes et ignore les petites erreurs et les mauvaises directions de transaction. Si vous regardez la distribution des gains, la plupart des mouvements de prix ne sont que de quelques pips. Et le modèle, au lieu de prédire la direction correcte de ces petits mouvements, apprend à prédire les longues queues de la distribution pour lesquelles il obtiendra un R2 plus élevé. Par conséquent, le modèle peut prédire les grands mouvements, mais sur les petits, il se trompe toujours de direction et perd l'écart.

Conclusion - les estimations de régression standard sont mauvaises pour le forex. Il est nécessaire de créer une sorte de fonction d'adaptation pour prendre en compte les directions des transactions, la diffusion et la précision. Ainsi, même avec une précision d'un peu plus de 50 %, il y a une chance de faire des bénéfices.
La précision, le ratio Sharp, le facteur de récupération et les autres fonctions d'analyse des graphiques commerciaux sont trop discrets, les neurones avec un backprop standard ne sortiront pas du minimum local et ne pourront pas apprendre correctement.

Une autre conclusion consiste à ignorer complètement les signaux faibles du neurone. N'échangez que des produits solides. Le problème est que nous pouvons toujours définir le seuil qui donne de bons résultats sur le backtest, mais qui ne donnera pas de bons résultats sur le fronttest. Tu dois penser à quelque chose ici aussi.

R2 IMHO, tout comme le logloss, est une métrique peu pratique en raison de sa non-linéarité. Pour moi, une simple corrélation des retours avec les prédictions est beaucoup plus pratique, c'est comme la racine de R2, multipliée par 100 vous obtenez le pourcentage exact de changement que vous pouvez capturer du marché, j'obtiens 3-5%, mais le problème est, comme vous l'avez dit à juste titre, que ces signaux sont trop fréquents, et le filtrage ou la moyenne tue presque complètement l'alpha. Je pense que c'est sur ce point que je dois concentrer mes efforts, car je ne peux pas obtenir plus de 5 % à partir de données normales de toute façon.

 
SanSanych Fomenko:

En ce qui concerne le sens économique - eh bien, je ne sais pas. Je suppose que le marché est aléatoire pour l'observateur. Que ce soit réellement aléatoire ou non n'a pas vraiment d'importance. Le mot clé ici estpour l'observateur.

Sur le forex, je suis tout à fait d'accord, car je pense que les taux de change sont des politiques.

Quant aux autres types d'actifs. Bien qu'aujourd'hui les prix des actifs soient hors normes : le prix du pétrole par fois et la consommation est à peu près la même.

Oui, partout. Je joue surtout sur le marché des actions et des contrats à terme. Pour un observateur, tout est aléatoire. Ce qu'il y a vraiment là - qui sait ? Il faut être un initié).

Ce qui n'est "pas aléatoire", ce sont les retours en arrière dans le mouvement et les fluctuations autour de la moyenne (à ne pas confondre avec Alexander_K2-m). Avec cette approche, un mouvement plutôt percutant peut être qualifié d'aléatoire, mais pas de rare et même de phénomène régulier, étant donné que nous ne savons jamais quand et dans quelle direction il se produira.

 
Yuriy Asaulenko:

Oui, partout. Je joue surtout sur le marché des actions et des contrats à terme. Pour un observateur, tout est aléatoire. Ce que c'est vraiment, je ne le sais pas. Il faut être un initié).

Ce qui est "non accidentel" - ce sont les retours en arrière dans le mouvement et les fluctuations autour de la valeur moyenne (à ne pas confondre avec Alexander_K2-m). Avec cette approche, on peut dire qu'un coup est plutôt aléatoire, mais pas rare et même régulier, étant donné que nous ne savons jamais quand ni dans quelle direction il se produira.

Cette hypothèse d'un marché efficient est un non-sens.

 
Maxim Dmitrievsky:

Je veux dire que si l'on prend seulement les incréments et les logarithmes des incréments, les graphiques sont équivalents, mais seulement sur une échelle de prix différente.

Stranye vous avez des graphiques, le logarithme devrait aussi les compresser. À l'aide de quelle formule avez-vous calculé ? Une décimale, par exemple, une variation de 10 fois des données d'entrée entraîne une variation de 2 fois. Naturel aussi, mais plus faible. Vos graphiques ne montrent pas de compression verticale.
 
SanSanych Fomenko:

Après tout, ce n'est pas pour rien que les modèles GARCH sont utilisés pour les incréments. et ce sont les plus courants à l'heure actuelle. L'idée de base de vaincre la non-stationnarité en décomposant une série non-stationnaire en composantes qui ont un sens économique et statistique tout à fait significatif est très séduisante.

Pour l'instant, Garch est trop compliqué pour moi. Les livres sur le sujet sont écrits principalement pour des spécialistes des statistiques et de l'économétrie, et fonctionnent constamment avec des choses que je ne comprends pas ; pour comprendre et assimiler certaines bases, je dois d'abord comprendre un tas d'autres choses qui ne sont pas expliquées dans les livres.

J'ai joué avec des paquets dans R, mais je n'ai obtenu aucun bénéfice avec les paramètres par défaut, même pour un test ; j'ai besoin à nouveau de savoir comment et quoi modifier dans les paramètres, et je ne peux pas le faire par hasard.

Je pense que Garch peut faire beaucoup de choses, mais le temps que je dois investir pour les comprendre est trop important, et je n'en ai pas beaucoup.

 
elibrarius:
Stranye vous avez des graphiques, le logarithme aurait dû les compresser aussi. Par quelle formule avez-vous calculé ? Décimal, par exemple, une variation de 10 fois des données d'entrée entraîne une variation de 2 fois. Naturel aussi, mais plus faible. Vos graphiques ne montrent pas de compression verticale.

log(close[i]/close[i-15])

où fermer quoi, pourquoi ?

 
Maxim Dmitrievsky:

Je veux dire que si l'on prend seulement les incréments et les logarithmes des incréments, les graphiques sont équivalents, mais seulement sur une échelle de prix différente.

Je suppose que ce n'est pas log(open[0] - open[1]),
mais log(open[0]/open[1])