L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 587

 
Maxim Dmitrievsky:

Non, tout se résume à construire des séries pseudo-stationnaires de manière cohérente, à se recycler aussi souvent que possible... c'est en gros ce que je fais.

ou construire des filtres linéaires/non-linéaires... Je comprends qu'avant cela il faut considérer la dynamique du changement d'influence des prédicteurs sur la cible, et essayer d'adapter la sortie via les coefficients du filtre, en fonction des changements dans l'environnement

Eh bien, rien de spécial en général. Au moins dans ce chapitre.

J'ai discuté une fois du problème de la non-stationnarité dans les modèles d'apprentissage automatique avecVladimir Perervenko.

Il m'a convaincu que le problème de la non-stationnarité n'a rien à voir avec le MO. Comme je n'ai jamais eu affaire à NS, je n'avais aucun argument pour réfuter son opinion. De plus, j'ai compris intuitivement que divers arbres et autres, à l'exception de NS, fonctionnent bien avec des prédicteurs non stationnaires.

Votre post et la référence à votre expérience personnelle disent le contraire, au moins en ce qui concerne la NS, on devrait prendre en compte les prédicteurs non-stationnaires.

Si cela est vrai, alors il y a presque le seul outil disponible aujourd'hui qui essaie de travailler sur des séries non stationnaires - les modèles garch. Filtres, recyclage sur chaque barre... ne sont pas en mesure de résoudre le problème de la non-stationnarité - un drain est garanti, il glissera par l'arrêt...

Mais la question reste posée pour les autres modèles, et il y en a beaucoup. Je n'ai aucune preuve que la non-stationnarité doive être prise en compte. Le recyclage dans les modèles que j'ai essayés est toujours dû à des prédicteurs de bruit.

Notez que pour moi, la résolution des prédicteurs de non-stationnarité et/ou de bruit sont des problèmes fondamentaux de l'apprentissage automatique. Le niveau de résolution de ces problèmes détermine le niveau d'erreur de modélisation. La complexité de l'application des modèles eux-mêmes est ridicule et n'est pas prise en compte par moi.

 
SanSanych Fomenko:


Si c'est le cas, alors il y a presque le seul outil actuellement disponible qui essaie de travailler sur des séries non stationnaires - ce sont les modèles garch. ...

Garch.... garch... De quel garch parlez-vous ? - Il y a 24 de ces garchs dans R par mots-clés, probablement environ 12 par paquets. Bon et différent).
 
SanSanych Fomenko:

Je dirais qu'à l'heure actuelle, il n'existe pas un seul outil permettant de prédire efficacement

il y a des cas particuliers - des coups occasionnels et temporaires dans le mille, qui permettent de faire de bons profits pendant un certain temps.

ou l'exploitation de modèles d'arbitrage, le calcul de la moyenne

ce que vous et moi faisons - un système qui peut faire des prédictions intelligentes... c'est de la science-fiction en termes de compréhension de toutes sortes de processus et de modèles de marché :)

Je veux dire, c'est la chose la plus folle, les gens viennent ici, lisent, et puis courent en panique pour noyer leur chagrin avec le sentiment d'impuissance :)

 
Maxim Dmitrievsky:

Je dirais qu'à l'heure actuelle, il n'y a pas un seul outil qui soit efficace pour prédire

il existe des cas isolés - des coups de boutoir temporaires occasionnels, où, périodiquement, vous pouvez réaliser un bon profit

ou l'exploitation de modèles d'arbitrage, le calcul de la moyenne

ce que vous et moi faisons - un système qui peut faire des prédictions intelligentes... Je crois qu'il s'agit d'une science-fiction qui permet de comprendre toutes sortes de processus et de modèles :)

À propos, à une époque, j'ai appris à mon Mashka (pas simple, mais or, je veux dire non standard) à faire des prédictions. Pour environ 70 % de la série de temps, c'était génial, mais pour les 30 % restants, je n'étais pas à la hauteur. Mais il n'y a aucun moyen de l'utiliser de manière réaliste.
 
Bibliothèque pour la construction de modèles probabilistes dans PyTorch :
https://github.com/uber/pyro
 
Yuriy Asaulenko:
Garch.... garch... De quel garch parlez-vous ? - Dans R, il y a 24 de ces garch par mots-clés, par paquets, probablement environ 12. Bon et différent).

Rejoignez

Le paquet rugarch : ARMA(1,1) ; RealGARCH ; Distribution t biseautée. Beaucoup d'ajustements.

 
Maxim Dmitrievsky:

Je dirais qu'à l'heure actuelle, il n'y a pas un seul outil qui soit efficace pour prédire

il y a des cas particuliers - des coups occasionnels et temporaires dans le mille où, périodiquement, vous pouvez faire un bon profit.

ou l'exploitation de modèles d'arbitrage, le calcul de la moyenne

ce que vous et moi faisons - un système qui peut faire des prédictions intelligentes... c'est de la science-fiction en termes de compréhension de toutes sortes de processus et de modèles de marché :)

Je veux dire que c'est le plus sauvage, les gens viennent ici, lisent, et ensuite paniquent pour se sentir impuissants :)

Je me sens sans espoir. Je dois faire une pause et aller de l'avant, en commençant par l'analyse des données.
 
SanSanych Fomenko:
Je me sens sans espoir. Je devrais faire une pause et aller de l'avant en commençant par le Datamining.

Je me souviens que vous aviez environ 70% de prédictions adéquates. J'ai écrit le post ci-dessus.

Yuriy Asaulenko:
J'ai essayé d'apprendre à mon MA (pas habituel, mais or, c'est-à-dire non standard) à faire des pronostics. J'ai appris à prédire avec une MA (pas une MA ordinaire, c'est-à-dire or ou non-standard). Pour environ 70% de certaines séries temporelles, c'était génial, mais pour les 30% restants, je n'ai rien compris. Mais il n'y a aucun moyen de l'utiliser de manière réaliste.

Eh bien, 70% d'exactitude n'est rien du tout. Parmi les 70 % de personnes correctes pour entrer dans le métier, au moins un tiers environ. Il nous reste donc 23%. Il n'y a rien contre 30% de prédictions erronées (nous ne savons pas à l'avance si elles sont bonnes ou mauvaises). Et les prédictions erronées se trouvent pour ainsi dire dans les zones d'inflexion (changement de direction), et ces zones sont précisément les plus propices aux transactions.

Sur cette base, je crois qu'il est futile de s'engager dans la prédiction, mais plutôt dans la classification. C'est-à-dire déterminer si un certain moment est propice à la conclusion d'un accord. Si je regarde les modèles, j'obtiens l'erreur d'entrée 20-40% plus exacte que les chiffres que j'ai donnés plus tôt dans ce sujet.

 
Yuriy Asaulenko:



Or, 70% de ceux qui ont raison, ce n'est rien du tout. Sur ces 70%, environ un tiers sont suffisamment bons pour entrer dans le commerce.

Pourquoi un tiers ?

Tous les 70%. Les prévisions sont valables pour une heure. Et encore.


Les prévisions sont futiles et vous devriez classer

Je ne comprends rien.

Par exemple, à 13 heures arrive le cloutage de la combinaison de prédicteurs, qui dit qu'elle sera longue dans l'heure suivante, c'est-à-dire jusqu'au cloutage suivant, jusqu'à 14 heures.

Comment se fait-il que vous ayez un classement sans prévision ? Pourquoi avoir besoin d'une classification sur les marchés financiers, si ce n'est pas pour faire des prévisions ?

 
SanSanych Fomenko:


Comment se fait-il que la classification existe sans prédiction ? Pourquoi avez-vous besoin d'une classification dans les marchés financiers si elle ne permet pas de prédire ?

La classification définit un point dans le temps où une transaction n'est que statistiquement prometteuse. Il ne s'agit pas d'une prédiction, loin s'en faut. Il s'agit plutôt d'une reconnaissance des formes.