L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 127

 
Alexey Burnakov:


Comment l'avez-vous déterminé ? Avez-vous suivi les performances de vos prédicteurs sur l'avenir alors inconnu ?

Pourquoi pas un futur inconnu ? Tout est connu sur l'histoire. Je l'apprends sur des tuiles de 1 à 10, puis je le teste sur elles en utilisant la validation croisée. Ensuite, j'obtiens des statistiques sur 11, 12, etc. et je les compare avec ce que j'ai obtenu sur les segments 1-10. C'est-à-dire une analogie complète avec le commerce réel. Je l'ai souvent décrit sur ce fil.
 
SanSanych Fomenko:
Pourquoi pas un avenir connu ? Tout est connu sur l'histoire. Je l'apprends sur un morceau de 1-10, et je le vérifie sur une validation croisée. Et puis j'obtiens des statistiques sur 11, 12, etc. et je compare avec ce que j'ai obtenu sur les tranches de 1 à 10. C'est-à-dire une analogie complète avec le commerce réel. Je l'ai souvent décrit sur ce fil.

Oui, c'est ce que je pensais.

Et combien de variations différentes du modèle passez-vous en revue de cette manière ? Est-ce qu'il arrive qu'aux 11e, 12e, etc. morceaux, le modèle soit moins performant que le morceau de formation et que vous recommenciez ?

 
Alexey Burnakov:

Oui, c'est ce que je pensais.

Et combien de variations différentes du modèle passez-vous en revue de cette manière ? Est-il possible que sur les 11, 12, etc. morceaux, le modèle soit moins performant que sur le morceau de formation et que vous recommenciez ?

La variation est d'environ 2-3% avec une moyenne de 27-28%. Il s'agit de la variation en tant qu'écart par rapport à la moyenne.

Ce que vous écrivez, c'est qu'il devrait réduire l'erreur d'apprentissage. Je ne l'ai pas fait. Pour mes prédicteurs, GBM est le meilleur, puis ada. J'utilise la rf. Viennent ensuite les SVM et le pire de tous les nnet. Comme vous pouvez le voir, je n'utilise pas le meilleur modèle.

 
SanSanych Fomenko:

La variation est d'environ 2-3% avec une moyenne de 27-28%. Il s'agit de la variation en tant qu'écart par rapport à la moyenne.

Ce que vous écrivez, c'est qu'il devrait réduire l'erreur d'apprentissage. Je ne l'ai pas fait. Pour mes prédicteurs, GBM est le meilleur, puis ada. J'utilise la rf. Viennent ensuite les SVM et le pire de tous les nnet. Comme vous pouvez le voir, je n'utilise pas le meilleur modèle.

Bien, ok. SanSanych.

Si tous vos modèles sont validés de manière plus ou moins égale, vous n'avez pas besoin de tourner autour du pot.

J'ai mis l'information à disposition pour que vous puissiez y réfléchir. Je l'utilise, je me teste et je me sauve des erreurs.

Je ne sais pas si cela vous aidera ou non.

Je pense que l'information n'est pas la plus inutile.

 
Alexey Burnakov:

Bon, d'accord. SanSanych.

Si tous vos modèles valident à peu près aussi bien les uns que les autres, il n'est pas nécessaire de faire la danse du tambourin.

J'ai présenté les informations pour qu'elles aient un sens. Je l'utilise, je me teste et je me sauve des erreurs.

Je ne sais pas si cela vous aidera ou non.

Je pense que l'information n'est pas la plus inutile.

J'ai suivi tous vos articles avec beaucoup d'intérêt.

Et bonne chance.

 
SanSanych Fomenko:

J'ai suivi tous vos articles avec beaucoup d'intérêt.

Bonne chance.

Merci.

J'ai toutefois l'impression que vous prédisez quelque chose de peu pertinent pour le commerce. Il n'est pas possible que vos modèles obtiennent 60-70% si facilement et donnent encore des signaux précis. Nous luttons contre le surentraînement ici et vous avez juste regardé les données et dit, non, pas de signal. Votre travail ressemble à la prédiction de l'Iris de Fisher. J'ai éliminé un peu de bruit et tout est stationnaire. N'avez-vous pas essayé de prédire des processus complexes, collègue. Là où il y a beaucoup de bruit, vous refusez immédiatement. Et quel est le bénéfice pour vous, à part l'argent des clients, ce n'est pas clair du tout.

De plus, vous ne savez pas comment vos prédictions ont fonctionné dans le futur, bien que vous en parliez avec confiance.
 
Alexey Burnakov:
Merci.

J'ai toutefois l'impression que vous prédisez quelque chose de peu pertinent pour le commerce. Il n'est pas possible que vos modèles obtiennent 60-70% si facilement et donnent encore des signaux précis. Nous luttons contre le surentraînement ici et vous avez juste regardé les données et dit, non, pas de signal. Votre travail ressemble à la prédiction de l'Iris de Fisher. J'ai éliminé un peu de bruit et tout est stationnaire. N'avez-vous pas essayé de prédire des processus complexes, collègue. Là où il y a beaucoup de bruit, vous refusez immédiatement. Et quel est le bénéfice pour vous, à part l'argent des clients, ce n'est pas clair du tout.

De plus, vous ne savez pas comment vos prédictions ont fonctionné dans le futur, bien que vous l'affirmiez avec assurance.

Je ne comprends pas ce qu'est un "processus complexe". J'ai un vrai EA connecté dans le terminal à un devis... Ce qu'ils me donnent est ce que nous mâchons.

J'ai déjà écrit que j'utilise la prédiction dans le TS sur l'ancien TF, qui a trois fenêtres. La TF senior fixe la direction. Mais à part cela, l'EA dispose d'un ensemble d'outils assez important, dont l'objectif est la gestion des risques. C'est pourquoi je ne peux pas dire avec certitude quel pourcentage d'erreur de prédiction de la prochaine bougie appartenant à la direction de ZZ influence le résultat total mais cela ne m'intéresse pas.

Je répète mon message précédent. Les outils R, en particulier l'apprentissage automatique, j'essaie de les utiliser pour résoudre des problèmes spécifiques d'une certaine EA. Pas en général, mais de manière spécifique. Il est tout à fait possible que dans d'autres TS mes approches ne fonctionnent pas.

A propos de l'avenir...

Il fonctionne depuis décembre et a un vol normal. Contrairement à l'indicateur qui était à cette place dans l'Expert Advisor, il existe un outil qui est ré-entraîné. Le décalage a été éliminé. Pas assez ? Un pas en avant colossal. Est-ce la vérité en dernier recours ? Non, bien sûr que non.

 
Alexey Burnakov:

Oui.

Un cycle d'apprentissage avec validation croisée M1 sur 10 fautes, vous avez bien compris. Pour chaque combinaison de paramètres d'apprentissage : sur 9 fautes apprendre, sur un retard vérifier. Donc 10 fois. Nous obtenons la valeur moyenne de la métrique de qualité sur 10 plis. Appelons-le m1.

Je procède de manière similaire, mais je ne déplace pas la fenêtre de test, mais une fenêtre de formation. Au milieu, j'aurai toujours une fenêtre d'apprentissage mobile, tandis que les données de test l'entourent des deux côtés. Je pense que si les dépendances ne sont pas constantes, et que certaines "périodes dominantes" flottent constamment entre les deux (selon mytarmailS, je ne suis moi-même pas bon en fréquences et Fourier) - alors il n'y a aucun intérêt à s'entraîner sur des situations extrêmes (dans le temps), et à tester sur quelque chose au milieu, qui pourrait être approché par un modèle à partir de variantes extrêmes. Pour la formation, je prends même beaucoup moins de 50% des données, c'est bon aussi (au moins pas pire).

J'utilise quelque chose comme la boucle extérieure de cette image, mais en m'entraînant sur le bleu et en testant sur le gris. J'essaie de faire en sorte que, quels que soient les 30 % de données séquentielles que je prends pour l'entraînement, le modèle soit capable d'effectuer des transactions rentables sur le reste des données. Il existe une théorie selon laquelle si je peux former un modèle qui se négocie bien sur l'ensemble de la période en utilisant 10 % des données successives pour la formation, il se négociera également bien sur les nouvelles données.

 
Andrey Dik:

La méthode est la suivante (tous les éléments suivants s'appliquent également à la fois à ML et au TS classique) ..............

Je l'ai lu trois fois, mais je ne comprends pas. ((

1) Il semble que ce n'est pas purement le ML, c'est comme une amélioration d'un TS existant, qui a des signaux pour entrer, et seulement sur ces entrées nous entrons et ces entrées nous analysons le ML, non ?

2) Lorsqu'il y a un profit, nous fermons la transaction. Lorsque la transaction est à perte, nous conservons la position, pourquoi devrions-nous faire cela ?

3) Quand acheter, quand vendre ?

Je peux faire l'idiot, j'en suis fou), mais je ne comprends pas ce que vous avez écrit, peut-être pouvez-vous me montrer une image ou un schéma...

 

Je suis tombé sur un blog et j'ai presque pleuré, l'homme réalisait presque la même idée que celle à laquelle j'avais pensé et que j'avais décidé de mettre en œuvre, et c'est cette idée que j'ai commencé à apprendre la programmation il y a environ un an

https://www.r-bloggers.com/time-series-matching-with-dynamic-time-warping/

Et moi qui pensais que mon idée était unique)))) la jeunesse, la naïveté... bien sûr je n'ai pas utilisé DTW, parce que je ne l'ai pas compris du tout

Time Series Matching with Dynamic Time Warping
  • systematicinvestor
  • www.r-bloggers.com
THIS IS NOT INVESTMENT ADVICE. The information is provided for informational purposes only. In the Time Series Matching post, I used one to one mapping to the compute distance between the query(cur…