L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 139

 

Tout cela semble académique.

Si je me souviens bien, avec plus de 100 000 observations, même le quotient d'origine est presque stationnaire.

Et alors ?

Après tout, nous travaillons très probablement sur un terminal dans une fenêtre de 100-150 observations. En général, quelle doit être la taille de la fenêtre ? Et pour quoi ?

Si pour supprimer les prédicteurs de bruit, un grand nombre, peut-être jusqu'à 10.000. Avez-vous besoin de 100 000 pour supprimer les prédicteurs de bruit ?

En fait, la taille de l'échantillon doit être liée d'une manière ou d'une autre à certaines caractéristiques stationnaires du marché. Dans le cas qui nous intéresse, les prédicteurs de bruit doivent l'être pour des intervalles de temps suffisamment grands.

Il s'agit de l'étape de suppression du bruit.

L'étape suivante consiste à entraîner le modèle pour s'assurer qu'il n'est pas surentraîné.

Si nous parvenons à trouver un ensemble de prédicteurs sur lesquels le modèle n'est pas surentraîné, alors tout le reste est logique. Sinon, tout discours est totalement vide. N'oublions pas qu'il est beaucoup plus facile de construire un TS réentraîné en connaissance de cause à l'aide d'indicateurs que d'utiliser tous ces gadgets d'intelligence artificielle, dont le résultat sera toujours un TS surentraîné.

Nous avons donc un certain ensemble de prédicteurs qui ne conduit pas à un réentraînement. La valeur de la rentabilité n'a pas d'importance, l'essentiel est d'avoir une telle rentabilité et de ne pas fluctuer beaucoup selon les échantillons.

Et maintenant, la prochaine étape.

Nous prenons une petite fenêtre = 100-500 observations et l'utilisons pour apprendre le modèle en sélectionnant les prédicteurs, par exemple, par rfe. Cela réduira encore l'ensemble des prédicteurs. Par expérience en deux temps.

En utilisant cet ensemble réduit de prédicteurs, nous faisons une prédiction exactement un pas en avant. Cette prédiction doit normalement avoir un intervalle de confiance - c'est le risque.

Nous faisons du commerce à l'intérieur de la prédiction. C'est-à-dire que nous prévoyons le jour suivant, et nous échangeons sur M5. Sur la moitié du mouvement prédit, nous avons mis TP.

En sortant de toutes les positions, nous déplaçons la fenêtre, sélectionnons les prédicteurs par rfe et prédisons à nouveau.

L'erreur de prédiction est une erreur à chaque étape, et non en une seule fois.

Mais la valeur pratique n'est pas cette valeur, mais la valeur du facteur de profit/perte ou autre, du moins dans le testeur.

 
SanSanych Fomenko:

Tout cela semble académique.

///

Je vais remplacer toutes vos conclusions par une seule phrase : les prédicteurs sans bruit fonctionneront sur un échantillon infiniment grand. Le dépistage du bruit doit donc être effectué sur un échantillon aussi large que possible.

Si vos "prédicteurs sans bruit" fonctionnent sur un échantillon fini du quotient, alors il s'agit de bruit local.

 
Alexey Burnakov:

OK, ce sera intéressant à lire.

Le CNN n'est pas un réseau récurrent en soi.

En parlant de réseaux convolutifs. Ce type de réseau neuronal n'est pas conçu pour résoudre les problèmes de régression. C'est pourquoi les résultats de l'expérience publique ont été décevants.

Les tâches à résoudre par CNN sont la classification, la localisation, la détection et la segmentation.

Il s'agit donc de "notes dans la marge".

Bonne chance

 
Vladimir Perervenko:

En parlant de réseaux convolutifs. Ce type de réseau neuronal n'est pas conçu pour résoudre les problèmes de régression. C'est pourquoi les résultats de l'expérience publique sont déplorables.

Les tâches résolues par CNN sont la classification, la localisation, la détection, la segmentation.

Ce sont juste des "notes dans la marge".

Bonne chance

Êtes-vous sûr que la classification ne peut pas être représentée comme une régression et vice versa ? Après tout, ce bloc est résolu sur des couches entièrement connectées, et quelle différence cela fait-il ? Vous avez un pruf ?

Et d'ailleurs, les résultats ne sont pas déplorables. Pourquoi cette décision ? C'est juste que la fonction est assez complexe et que le réseau cesse de la distinguer du bruit (je veux dire un réseau entièrement connecté). L'avez-vous résolu vous-même, ou sommes-nous en train de faire de la démagogie ?

 

Les gars, est-ce que quelqu'un a des cotations intraday, de préférence des indices M5, il faut trois instruments, au moins 50.000 bougies.

1) Euro Stoxx 50 ouEuro Stoxx 600

2) Dow Jones ou S&P 500 ou NASDAQ

3) Paire EUR/USD

Si vous en avez, faites-le moi savoir pour des expériences, je vous en serai reconnaissant.

 

Alexey Burnakov:

Si vos "prédicteurs sans bruit" fonctionnent sur un segment de quotient limité, alors il s'agit de bruit local.


Que voulez-vous prouver sur les échantillons les plus longs possibles ? L'hypothèse des marchés efficients ? Il y a un tas de noobiles, y compris des faillis, qui ont prêché cette hypothèse.

Pour ma part, je parle d'une application très spécifique des outils. Et pour moi, cette spécificité est résumée dans cette phrase : "demi-retour immédiat". Dans ce cadre, l'horizon de prédiction optimal est d'une semaine, et de deux mois pour les plus sereins.

Tout le reste doit être adapté précisément au retrait des bénéfices. Ici et maintenant. Ce qui se passait avant 1987 n'est pas intéressant. Ce qui s'est passé avant 1997 n'est pas intéressant, et si nous allons plus loin, la prochaine frontière est 2007. Lorsque l'on choisit une période de temps pour identifier les prédicteurs de bruit, on doit avoir une sorte de considération significative que la période précédente sera similaire à l'avenir. Est-ce que tout fonctionne de la même manière après le Brexit qu'avant ? et que se passe-t-il après les élections américaines ? Il y a des chocs politiques et des krachs boursiers sans rapport avec la politique, et ils divisent les données historiques en morceaux.

 

vidéo -https://www.youtube.com/watch?v=-INzzOXxkhU

À mon avis, voici l'un des modes de développement corrects, qui résout de manière exhaustive le problème de la sélection du bruit et du recyclage(tout cela en théorie, bien sûr).

1) Nous recherchons les situations récurrentes dans l'histoire - une sorte de sélection de caractéristiques.

2) Nous calculons les statistiques de la réaction des prix sur le modèle, disons, 10 baisses et 1 hausse et il s'avère que nous avons fait ce qui suit

1. Nous avons identifié des modèles forts avec de bonnes statistiques (sélection qualitative des caractéristiques).

2. Nous avons compris que le modèle ne se répète pas (sélection qualitative des caractéristiques).

3. Nous avons essentiellement contre-validé le trait puisque nous avons calculé toutes les statistiques sur celui-ci.

4. nous nous sommes débarrassés du recyclage, car nous avons éliminé toutes les choses inutiles, ne laissant que ce qui a bien fonctionné dans notre histoire

et tout cela dans une seule bouteille :)

p.s. en regardant la vidéo regarder l'indicateur, je n'ai pas vu une seule fois qu'il s'est trompé sur la prévision, et c'est beaucoup ....

Скальпинг на форекс. Индикатор будущего. Future Price (FP). Ведущий Лихо Сергей.
Скальпинг на форекс. Индикатор будущего. Future Price (FP). Ведущий Лихо Сергей.
  • 2014.04.21
  • www.youtube.com
http://likho.ru http://likho.ru/skalping-na-foreks-indikator-budushhego-future-price-fp/ - подробнее (pdf) индикатор прогнозирует тиковую цену по финансовому...
 
SanSanych Fomenko:

Que voulez-vous prouver avec les échantillons les plus longs possibles ? L'hypothèse des marchés efficients ? Il y a un tas de noobs là-bas, y compris les banquiers qui ont prêché cette hypothèse.

En fait, je montre que sur l'échantillon maximal disponible, les dépendances des fics sélectionnées sont reproductibles, ce qui est le contraire de votre affirmation. Le marché est inefficace à travers l'histoire.

Je ne commenterai pas le reste de vos arguments : c'est votre choix.

 
mytarmailS:

vidéo -https://www.youtube.com/watch?v=-INzzOXxkhU

À mon avis, voici l'un des modes de développement corrects, qui résout de manière exhaustive le problème de la sélection du bruit et du recyclage(tout cela en théorie, bien sûr).

1) Nous recherchons les situations récurrentes dans l'histoire - une sorte de sélection de caractéristiques.

2) Nous calculons les statistiques de la réaction des prix sur le modèle, disons, 10 baisses et 1 hausse et il s'avère que nous avons fait ce qui suit

1. Nous avons identifié des modèles forts avec de bonnes statistiques (sélection qualitative des caractéristiques).

2. Nous avons compris que le modèle ne se répète pas (sélection qualitative des caractéristiques).

3. Nous avons essentiellement contre-validé le trait puisque nous avons calculé toutes les statistiques sur celui-ci.

4. nous nous sommes débarrassés du recyclage, car nous avons éliminé toutes les choses inutiles, ne laissant que ce qui a bien fonctionné dans notre histoire

et tout cela dans une seule bouteille :)

p.s. en regardant la vidéo d'observation de l'indicateur, je n'ai pas vu une seule fois qu'il s'est trompé dans la prévision, et ceci est fortement ...

tout est vrai.

Je n'ai pas regardé la vidéo, car je suis convaincu que l'on peut adapter n'importe quoi pour que ce soit joli avec l'histoire que l'on veut. La vérité n'est pas jolie. Il est très difficile de prouver que le modèle n'est pas surentraîné.

 
Dr. Trader:

Pour moi, c'est une question de risque - j'essaie de prendre au moins un petit risque. Vous pouvez créer un conseiller expert qui réussit à négocier une douzaine de paires pendant de nombreuses années, mais pour quoi faire ? Le bénéfice sera probablement de quelques pour cent par an......

Eh bien, vous n'avez même pas essayé... :)

Juste un petit rapport sur mes expériences d'arbitrage statistique.

Je n'ai pas encore décidé des paramètres, j'ai pris les meilleurs selon le test rapide, je ne me suis pas non plus préoccupé de la gestion de l'argent.

Donc pour dire, les nouvelles données "tiennent l'arbitrage" bien mieux que ces systèmes que j'utilisais, en utilisant l'apprentissage automatique, il tient 10 fois mieux....

Ce qui est étrange... J'ai obtenu plus en une demi-journée d'expérimentation avec l'arbitrage que je n'ai obtenu en une demi-année avec l'apprentissage automatique. Ce n'est pas seulement étrange, c'est bouleversant...

La première est qu'il y a un gros problème avec l'arbitrage :

la première est qu'il y a une baisse significative de +/- 30%.

Et la seconde, je n'ai toujours pas trouvé le moyen d'y associer l'apprentissage automatique :)

м

м2