L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 2637
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Supposons que nous ayons trouvé des modèles qui se produisent périodiquement et accompagnent un mouvement de prix particulier lorsqu'ils se produisent.
Quelqu'un a-t-il effectué des recherches sur la relation entre la fréquence d'apparition d'un modèle et l'événement qui s'ensuit ?
Nous parlons de grappes de probabilité, si tant est qu'un tel terme existe.
Supposons que l'on puisse s'attendre à ce que, si un modèle n'est pas apparu depuis longtemps, il y ait un mouvement de prix prévisible (concomitant) après son apparition, puis qu'il s'estompe car le modèle est devenu visible pour tous et a ainsi éliminé les inefficacités du marché.
Je pense que le développement de mesures permettant d'évaluer ces états transitoires dans le temps (de prédictions plus probables à des prédictions tout aussi probables, voire négatives) peut aider à trouver et à sélectionner de tels modèles, et un modèle capable d'en tenir compte pourrait s'avérer très efficace.
Je travaille dans cette direction, mais je manque d'appareils mathématiques et de connaissances théoriques.
Je ne peux travailler qu'avec des modèles très simples, comme le mouvement après une rupture de sommet. En ce sens qu'il doit y en avoir suffisamment pour que la fréquence serve de bonne estimation de la probabilité.
D'après mes observations, lorsque le marquage des modèles est entièrement formalisé, les inefficiences du marché (dans le sens où elles sont différentes du SB) deviennent peu significatives. Par convention, dans le cadre de la répartition. Il existe un désir naturel de rendre le modèle plus complexe, mais cela conduit généralement à une taille d'échantillon réduite et à des résultats instables.
Pensez aux caractéristiques comme des incréments, mais plus informatifs. Par exemple, trouvez le prix moyen pour l'ensemble de l'historique et déduisez-en le reste. Vous avez besoin d'une variation maximale, mais elle doit se situer dans une fourchette connue avec les nouvelles données.
Ça me rappelle la théorie du spread trading. Et il s'agit là d'un calcul assez compliqué, à en juger par la pléthore d'articles inventés sur le sujet.
Mais ce sera quelque chose comme un z-score, quand il n'y a que la stationnarité sur l'histoire ? Bien que, bien sûr, les tentatives de ramener à la stationnarité ne peuvent pas être évitées en principe - sans cela, vous ne pouvez pas faire beaucoup de commerce.
Ça me rappelle la théorie du spread trading. Et il s'agit là d'un calcul assez compliqué, à en juger par la pléthore d'articles inventés sur le sujet.
Mais ce serait quelque chose comme le z-score quand il n'y a que de la stationnarité dans l'histoire, n'est-ce pas ? Bien que, bien sûr, essayer d'atteindre la stationnarité est impossible en principe - vous ne pouvez pas vraiment faire du commerce sans elle.
Vous ne pouvez travailler qu'avec des modèles très simples, comme le mouvement après la rupture d'un sommet. En ce sens qu'il doit y en avoir suffisamment pour que la fréquence serve de bonne estimation de la probabilité.
Combien de personnes sont suffisantes ? Supposons que j'aie entre 5 % et 15 % de l'échantillon qui sélectionne des "modèles" simples, et que l'échantillon pour la formation soit de 15 000 exemples, est-ce trop peu ?
Mon observation est que lorsque la majoration du modèle est entièrement formalisée, les inefficacités du marché (dans le sens des différences par rapport au SB) deviennent peu significatives. Par convention, dans le cadre de la répartition. Il existe un désir naturel de rendre le modèle plus complexe, mais cela conduit généralement à une taille d'échantillon réduite et à des résultats instables.
La question est de savoir comment mieux formaliser ces observations pour obtenir des résultats rapidement et écarter/classer les modèles avec ou sans régularité.
Quelle quantité est suffisante ? Supposons que j'aie de 5 % à environ 15 % dans un échantillon de "modèles" simples, et que l'échantillon pour la formation soit de 15 000 exemples, est-ce trop peu ?
Il est préférable de compter en morceaux de motifs. Les mêmes ruptures de modèle (significatives pour le travail) peuvent ne pas se produire plus de quelques centaines par an. Je dirais que c'est un nombre limite. Si vous essayez d'en faire des schémas plus compliqués - par exemple, une paire de nœuds en rupture, qui remplissent également certaines conditions, alors il peut s'agir de dizaines par an. Et ce n'est pas suffisant.
La question est de savoir comment mieux formaliser ces observations pour obtenir rapidement des résultats et écarter/classer les modèles avec et sans modèle.
Quelque chose comme une boucle sur toutes les constructions possibles d'un motif d'un type donné ? J'ai fait quelque chose de similaire une fois avec les mêmes pannes de vertex. En principe, il est possible de penser à quelque chose, mais la recherche sera (dans le cas général) non pas itérative, mais récursive. Là encore, la plupart des motifs seraient dénués de sens en raison de leur complexité et de leur rareté. Il est probablement plus facile de collecter manuellement une liste de motifs significatifs et de la contourner dans une boucle régulière, en choisissant le motif optimal.
Pourquoi ?
Peu de données réelles significatives.
Zy. La génération de données avec un environnement aléatoire donne l'impression d'allonger les données. C'est une erreur. Autant de données qu'il y en a. 211 bars signifie 211 et pas plus.
Salut !
La vérité est là... (Fox Mulder "The X-Files")
Vous êtes manifestement proche de la cible. Vous devez pousser plus fort.