L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 2637

 
Aleksey Vyazmikin #:

Supposons que nous ayons trouvé des modèles qui se produisent périodiquement et accompagnent un mouvement de prix particulier lorsqu'ils se produisent.

Quelqu'un a-t-il effectué des recherches sur la relation entre la fréquence d'apparition d'un modèle et l'événement qui s'ensuit ?

Nous parlons de grappes de probabilité, si tant est qu'un tel terme existe.

Supposons que l'on puisse s'attendre à ce que, si un modèle n'est pas apparu depuis longtemps, il y ait un mouvement de prix prévisible (concomitant) après son apparition, puis qu'il s'estompe car le modèle est devenu visible pour tous et a ainsi éliminé les inefficacités du marché.

Je pense que le développement de mesures permettant d'évaluer ces états transitoires dans le temps (de prédictions plus probables à des prédictions tout aussi probables, voire négatives) peut aider à trouver et à sélectionner de tels modèles, et un modèle capable d'en tenir compte pourrait s'avérer très efficace.

Je travaille dans cette direction, mais je manque d'appareils mathématiques et de connaissances théoriques.

Je ne peux travailler qu'avec des modèles très simples, comme le mouvement après une rupture de sommet. En ce sens qu'il doit y en avoir suffisamment pour que la fréquence serve de bonne estimation de la probabilité.

D'après mes observations, lorsque le marquage des modèles est entièrement formalisé, les inefficiences du marché (dans le sens où elles sont différentes du SB) deviennent peu significatives. Par convention, dans le cadre de la répartition. Il existe un désir naturel de rendre le modèle plus complexe, mais cela conduit généralement à une taille d'échantillon réduite et à des résultats instables.

 
Maxim Dmitrievsky #:
Pensez aux caractéristiques comme des incréments, mais plus informatifs. Par exemple, trouvez le prix moyen pour l'ensemble de l'historique et déduisez-en le reste. Vous avez besoin d'une variation maximale, mais elle doit se situer dans une fourchette connue avec les nouvelles données.

Ça me rappelle la théorie du spread trading. Et il s'agit là d'un calcul assez compliqué, à en juger par la pléthore d'articles inventés sur le sujet.

Maxim Dmitrievsky #:
La différenciation fractionnaire fonctionne de cette façon (tout en maintenant la stationnarité l'écart maximal), mais je veux quelque chose de nouveau.

Peut-être quelques "lignes de pente" du temps et en déduire les prix, les décibels, le f du temps, toute sorte de turbidité, tant que les conditions de stationnarité et de dispersion maximale sont respectées.

Mais ce sera quelque chose comme un z-score, quand il n'y a que la stationnarité sur l'histoire ? Bien que, bien sûr, les tentatives de ramener à la stationnarité ne peuvent pas être évitées en principe - sans cela, vous ne pouvez pas faire beaucoup de commerce.

 
Aleksey Nikolayev #:

Ça me rappelle la théorie du spread trading. Et il s'agit là d'un calcul assez compliqué, à en juger par la pléthore d'articles inventés sur le sujet.

Mais ce serait quelque chose comme le z-score quand il n'y a que de la stationnarité dans l'histoire, n'est-ce pas ? Bien que, bien sûr, essayer d'atteindre la stationnarité est impossible en principe - vous ne pouvez pas vraiment faire du commerce sans elle.

Quelque chose comme cela se produit et nous devrions essayer de le stabiliser pendant un certain temps - par conséquent, nous devrions prendre l'ensemble de l'historique sur un graphique mensuel et l'utiliser pour empêcher les dernières données d'atteindre des extrêmes pendant de telles transformations - sinon l'IM cessera de fonctionner de manière adéquate.

Quelque chose comme une ligne de tendance à long terme qui change lentement, mais qui, là encore, est plus proche des incréments. Il existe peut-être d'autres solutions inattendues :)

Il est possible qu'il soit lié à des données macroéconomiques fondamentales comme le PIB, mais je ne voudrais pas...
 
Aleksey Nikolayev #:

Vous ne pouvez travailler qu'avec des modèles très simples, comme le mouvement après la rupture d'un sommet. En ce sens qu'il doit y en avoir suffisamment pour que la fréquence serve de bonne estimation de la probabilité.

Combien de personnes sont suffisantes ? Supposons que j'aie entre 5 % et 15 % de l'échantillon qui sélectionne des "modèles" simples, et que l'échantillon pour la formation soit de 15 000 exemples, est-ce trop peu ?

Aleksey Nikolayev #:

Mon observation est que lorsque la majoration du modèle est entièrement formalisée, les inefficacités du marché (dans le sens des différences par rapport au SB) deviennent peu significatives. Par convention, dans le cadre de la répartition. Il existe un désir naturel de rendre le modèle plus complexe, mais cela conduit généralement à une taille d'échantillon réduite et à des résultats instables.

La question est de savoir comment mieux formaliser ces observations pour obtenir des résultats rapidement et écarter/classer les modèles avec ou sans régularité.

 
Aleksey Vyazmikin #:

Quelle quantité est suffisante ? Supposons que j'aie de 5 % à environ 15 % dans un échantillon de "modèles" simples, et que l'échantillon pour la formation soit de 15 000 exemples, est-ce trop peu ?

Il est préférable de compter en morceaux de motifs. Les mêmes ruptures de modèle (significatives pour le travail) peuvent ne pas se produire plus de quelques centaines par an. Je dirais que c'est un nombre limite. Si vous essayez d'en faire des schémas plus compliqués - par exemple, une paire de nœuds en rupture, qui remplissent également certaines conditions, alors il peut s'agir de dizaines par an. Et ce n'est pas suffisant.

 
Aleksey Vyazmikin #:

La question est de savoir comment mieux formaliser ces observations pour obtenir rapidement des résultats et écarter/classer les modèles avec et sans modèle.

Quelque chose comme une boucle sur toutes les constructions possibles d'un motif d'un type donné ? J'ai fait quelque chose de similaire une fois avec les mêmes pannes de vertex. En principe, il est possible de penser à quelque chose, mais la recherche sera (dans le cas général) non pas itérative, mais récursive. Là encore, la plupart des motifs seraient dénués de sens en raison de leur complexité et de leur rareté. Il est probablement plus facile de collecter manuellement une liste de motifs significatifs et de la contourner dans une boucle régulière, en choisissant le motif optimal.

 
Sans la vie ou la FA, la liaison TA des systèmes complexes ne peut fonctionner que dans des conditions stables.
 
mytarmailS #:
Pourquoi ?

Peu de données réelles significatives.

Zy. La génération de données avec un environnement aléatoire donne l'impression d'allonger les données. C'est une erreur. Autant de données qu'il y en a. 211 bars signifie 211 et pas plus.

 

Salut !

La vérité est là... (Fox Mulder "The X-Files")

Vous êtes manifestement proche de la cible. Vous devez pousser plus fort.

 
Je préfère étudier sur un compte de démonstration - cette option me semble plus fiable. C'est ainsi que j'ai appris à travailler avec un courtier d'AMarkets.