une stratégie commerciale basée sur la théorie des vagues d'Elliott - page 185
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
En science, il existe des approches et des méthodes standard pour résoudre un problème donné. La beauté de cette approche est sa certitude, la disponibilité d'outils éprouvés et son succès invariable (si, bien sûr, il existe une solution au problème en principe). Une telle approche permet de gagner du temps et de garantir les résultats. Il est attrayant. D'ailleurs, sur le lien cité par vous, il est possible de démontrer clairement, comment ne pas résoudre un problème. En effet, il suffit d'utiliser un appareil développé d'analyse spectrale des séries temporelles ou d'analyser la densité spectrale d'une série temporelle stationnaire déterminée par sa fonction d'autocorrélation pour ne pas se casser la tête avec des observations empiriques sur la quantité et la qualité des vagues d'Elliott. Le marché est volatile, et cela revient à la mort d'utiliser un modèle stationnaire composé de cinq vagues, par exemple. Cela a fonctionné une fois, mais six mois plus tard, il serait plus correct d'utiliser le modèle à onze vagues. Alors... ... devons-nous ajuster empiriquement le modèle à un marché volatile à chaque fois ? Ce n'est pas un exemple de comportement rationnel.
Yurixx, dans ses posts ci-dessus, semble partager mon point de vue, et il serait intéressant de voir son travail dans ce domaine.
En ce qui concerne votre commentaire sur le caractère aléatoire du choix des ratios du modèle autorégressif (si j'ai bien compris), je ne suis pas d'accord, car les ratios donnés sont déterminés de manière unique par les coefficients d'autocorrélation des séries temporelles étudiées en résolvant les équations de Yule-Walker [Yule (1927)], [Walker (1931)].
Grasn, pouvez-vous nous en dire plus sur vos recherches dans ce domaine ?
Regards.
Veuillez expliquer de quelle approche vous parlez. Quelle est l'approche qui assure un succès sans faille et garantit des résultats ?
Je suis tout à fait d'accord avec votre évaluation. Tout modèle déterministe est voué à une vie courte. Et plus il est déterministe, plus sa durée de vie sera courte. On ne voit pas très bien comment vous parvenez à combiner un tel point de vue avec ce que vous avez écrit dans le premier message :
.
Au fait, en tant que personne plus qu'éloignée de la DSP, j'aimerais que vous m'expliquiez les détails concernant l'analyse de la densité spectrale d'une série temporelle stationnaire définie via sa fonction d'autocorrélation. Notamment sur la façon dont une série temporelle est définie via sa fonction d'autocorrélation.
OK, je vais essayer de le décrire brièvement.
Rosh
grasn, quelle est la différence entre Extrême 1 et Extrême 2 à votre avis(votre raisonnement) et comment les reconnaître(les distinguer) en ligne(du bon côté de l'histoire) ?
En quelque sorte, une approche alternative au choix d'un canal fiable.
Je vais commencer par les paroles. Un jour, je suis allé voir un vieil ami à moi. À mon regard, il a immédiatement compris la raison de ma présence et, sans rien demander, il m'a dit : "Si tu as une idée, tout d'abord, assieds-toi, calme-toi, sers-toi un verre de bon cognac et pose-toi la question : pourquoi cela n'a pas marché pour tes prédécesseurs". Je ne suis probablement pas le seul à avoir eu cette idée, mais en tout cas je n'ai pas trouvé d'analogues dans les sources dont je dispose. Mais peu importe, peut-être que je ne lis pas beaucoup et que je ne prétends pas du tout à la paternité (bien que j'y aie pensé honnêtement, étant engagé dans les réseaux neuronaux). Sa mise en œuvre complète me semble très difficile, voire impossible par endroits. Mais ce n'est pas la raison pour laquelle je veux "en parler :o)". Il y a encore beaucoup d'imprécisions. Si nous en discutons, nous pouvons trouver le bon chemin, le mener jusqu'au bout. Cependant, si nous imaginons qu'ensemble nous formons un grand super cerveau, nous serons probablement en mesure de résoudre complètement un tel problème. :о)
Je parle d'une idée qui pourrait devenir la base d'une prévision alternative de l'évolution des prix et éventuellement prendre la place qui lui revient dans les systèmes développés (ce n'est pas par importance, mais par estimation personnelle). Je considère la mise en œuvre dans mon système comme un module auxiliaire et je vois directement l'application comme un critère supplémentaire de sélection d'un canal fiable, mais bien sûr ce n'est pas le seul, et après avoir lu jusqu'au bout, on peut comprendre pourquoi je veux attribuer "et Dieu merci ce n'est pas le seul". Mais plus près du corps, comme disait le vieux Maupassant.
L'idée principale
Je me suis donc fixé l'objectif suivant : modéliser (prédire) le mouvement des prix en me basant sur la représentation des nouvelles sous forme de signaux (désolé, c'est toute l'influence du traitement numérique du signal). C'est l'idée simple. Il n'y a pas de tendances, de cyclicité, ni rien d'autre, rien de tout cela. Il y a des nouvelles entrantes et un signal qui leur est corrélé.
Hypothèses (en bref et pas toutes)
À tout moment, le marché se trouve dans un état unique, qui se divise en deux sous-états parallèles et liés : l'attente de nouvelles et la réaction aux nouvelles reçues. Le marché est dans cet état maintenant, il le sera dans une minute, une heure, un mois, toujours.
Les actualités se contentent d'emballer des informations (données ou autres connaissances) dans une coquille et de les diffuser via différents canaux de communication. Et ce ne sont pas les nouvelles qui "tiennent" le marché, bien sûr, mais les informations. Peu importe que l'"Oncle Sam" ou un trader ayant effectué un dépôt de 200 dollars reçoive et traite ces informations directement ou indirectement. Ne vous méprenez pas sur le fait que les nouvelles indirectes n'affectent pas un trader qui ne fait pas d'analyse formelle des nouvelles. Tout indicateur construit sur une série de prix contient déjà des informations transformées (premier postulat de l'AT). Et donc les nouvelles. Pour certaines personnes, une citation reçue peut être une "nouvelle", ahem, je plaisante.
Par information, j'entends toute donnée significative ayant une incidence sur une cotation (rumeurs, rapports, prévisions de données fondamentales, arrivée de données fondamentales, élections, etc.
Limites (brièvement et loin d'être toutes)
Recevons-nous toutes les nouvelles ? On ne peut répondre à cette question par l'affirmative. Par exemple, nous ne savons rien de l'accord extrême. Il se peut que nous ne recevions pas toutes les informations pour la simple raison que nous avons choisi un mauvais fournisseur, et il n'est certainement pas possible pour chacun d'entre nous de tout gérer.
La nouvelle a-t-elle un impact ? J'ai écrit deux paragraphes ici, principalement pour Alex(rappelez-vous qu'Alex a écrit que les nouvelles n'ont aucune influence au moment où les professionnels gagnent sur elles), mais je les ai effacés. Toute philosophie mise à part, je vais immédiatement exprimer ma propre opinion - oui, ils le font.
L'idée n'est pas de construire un modèle économique et de ne pas glisser dans ce domaine. L'idée est essentiellement de classer les informations entrantes, de les comparer à un certain signal et de donner un "retour" sous la forme de paramètres de signal sur la base d'une analyse qualitative des informations entrantes.
Modèle (brièvement et loin de tout)
Si nous ne recevons pas toutes les nouvelles, que se passera-t-il alors ? La réponse réside probablement dans le fait que nous n'avons pas besoin de toutes les informations. Il est peu probable qu'un joueur réagisse à toutes les nouvelles d'affilée, il attend plus probablement, en fonction des cibles (il n'y en a pas beaucoup), certaines nouvelles spécifiques. Par conséquent, sur la base des principes statistiques, nous devons identifier les informations réellement importantes, qui sont attendues par la grande majorité, puis travailler uniquement avec elles. En général, ce genre de travail semble avoir été fait pour nous, et pour commencer la recherche on peut l'utiliser et lui faire confiance, ce qui est exactement ce que j'ai fait.
La structuration de l'information, et bien plus encore ...... sont des sujets distincts et intéressants.
Mathématiquement, chaque nouvelle (prise en considération) est modélisée par une certaine classe de signal (le signal est utilisé dans le contexte du traitement numérique du signal) avec ses propres caractéristiques. Une convolution conditionnelle de tels signaux (une impulsion est aussi un signal) donnera un signal prédictif complet. Par conséquent, il est nécessaire de faire correspondre chaque nouvelle significative prise en considération avec les paramètres et le type de signal utilisé. Les paramètres de toutes les impulsions doivent être normalisés, et calculés à partir du niveau de prix actuel. La prévision doit être hebdomadaire, et une prévision stratégique à long terme doit être basée sur la valeur de la prévision du vendredi.
Application
L'application est variée. Vous pouvez le clouer au mur, l'imprimer et l'emporter dans la salle de bains, ou vous pouvez, par exemple, affiner un canal fiable en "ajustant" simplement le signal de prévision dans les canaux.
PS : Ce n'est pas une idée qui vous donnera des prédictions de prix très précises, pas du tout. Et j'ai bien peur que résoudre l'équation Yule-Walker ne serve à rien, mais si Neutron partage, j'apprécierais.
À propos de l'arbitraire et de la recherche
C'est là que se trouve le véritable arbitraire, là où vous pouvez vous retourner et en profiter au maximum. J'ai apprécié : des résultats étonnants (je courais sur le plafond, trébuchant sur le lustre avec l'émotion qui me submergeait) à la réflexion philosophique " ouais... est-ce qu'ils lisent au moins les nouvelles ? ". :о))
Développement de l'idée
Il est tout à fait possible que les résultats d'une mise en œuvre correcte soient en corrélation avec l'EWT. Pour le dire crûment, mais gentiment, pourquoi ne pas partir du contraire, dans cette théorie, c'est-à-dire de la "foule" et de son humeur ?
Alors, allons-nous créer une "formule d'humeur", chers membres du forum ? :о)
L'utilisation d'une fonction d'autocorrélation est une façon de calculer le spectre
.
Notamment sur la façon dont une série temporelle est définie par sa fonction d'autocorrélation
.
et cela je ne l'ai pas compris moi-même, peut-être pas la formulation exacte
Si vous ajoutez maintenant ces graphiques et une demi-douzaine de règles pas trop compliquées sur le comportement du marché, vous pourriez publier un livre sur les opérations de change. Pas pire que Williams et Elliott. :-)))
Si vous ajoutez maintenant ces graphiques et une demi-douzaine de règles pas trop compliquées sur le comportement du marché, vous pouvez déjà publier des livres sur le trading du forex. Pas pire que Williams et Elliott. :-)))
Bonjour Yuri !
Vous et moi avons décidé quand nous commencerons à publier des livres. Je n'ai pas encore dit adieu à cette idée.
:о)))
Vous avez juste besoin de faire quelques pas de plus en avant...
Mais il faut bien vivre de quelque chose ! Le Forex, c'est bien, mais c'est purement scientifique. :-)
J'utilise dans ma stratégie une approche qui permet d'exploiter le système de trading mécanique (MTS). Même une analyse superficielle des algorithmes de trading possibles montre que seule l'approche basée sur l'analyse des données historiques déjà disponibles satisfait à cette exigence. En d'autres termes, j'ai émis l'hypothèse que l'histoire se répète et qu'il est possible de construire une stratégie qui exploite la propriété de prévisibilité pour quelques pas en avant d'une série chronologique d'un instrument.
Naturellement, cette hypothèse a nécessité une confirmation et la création d'un modèle adéquat du processus de formation des prix. En tant que modèle, il semblait logique de supposer que le prix comprend de manière additive une composante aléatoire et une composante déterministe. Cette hypothèse repose sur une conjecture concernant le rôle stabilisateur de la banque centrale (la banque centrale a intérêt à maintenir le prix dans une fourchette limitée, c'est-à-dire qu'il doit y avoir un effet stabilisateur dû à l'introduction d'une boucle de rétroaction négative entre les mouvements de prix et les actions de la banque centrale) et, en combinaison, le rôle déstabilisateur des acteurs du marché (la foule a tendance à adopter un comportement grégaire, c'est-à-dire qu'elle profite des mouvements de prix tendanciels). Dans le même temps, nous n'excluons pas la présence d'une composante saisonnière ou cyclique et de possibles tendances déterministes (actions dirigées de grands acteurs).
Introduisons quelques concepts de base :
1. Une série est dite strictement stationnaire (ou stationnaire au sens strict) si la distribution de probabilité conjointe de m observations est la même que pour m observations.
En d'autres termes, les propriétés d'une série chronologique strictement stationnaire ne changent pas lorsque l'origine du temps est modifiée. En particulier, il découle de l'hypothèse de stationnarité stricte d'une série chronologique que la loi de distribution de probabilité d'une variable aléatoire est indépendante du temps, et donc que toutes ses principales caractéristiques numériques, y compris la moyenne et la variance, sont également indépendantes du temps.
De toute évidence, la valeur moyenne définit un niveau constant, par rapport auquel la série chronologique analysée fluctue, tandis que la dispersion (D) caractérise l'amplitude de ces fluctuations. Puisque la loi de distribution de probabilité d'une variable aléatoire est la même à tout instant t, la variable elle-même et ses principales caractéristiques numériques peuvent être estimées à partir d'observations.
2. La tendance linéaire déterministe est un mouvement directionnel des prix causé par certains événements sur le marché. Le critère est une espérance non nulle d'une série temporelle stationnaire forcée et détectée au moyen de filtres numériques basse fréquence.
3. Tendance linéaire non déterministe - un mouvement de prix directionnel causé par un processus de prix aléatoire. Le critère est l'espérance zéro d'une série temporelle fortement stationnaire et ne peut être détecté par les filtres numériques passe-bas en raison du décalage de phase inévitable des schémas de filtrage occasionnels.
4. La série en temps réel sur le marché des changes peut être considérée comme une série stationnaire intégrée. Ce faisant, on peut supposer que l'espérance de la série stationnaire génératrice est nulle.
Le dernier point découle des résultats de l'étude des séries temporelles stationnaires obtenues en différenciant les données réelles existantes des archives de cotations. De plus, par commodité, nous parlerons de séries stationnaires, en gardant à l'esprit qu'une série en temps réel est reconstruite à partir d'une série stationnaire en intégrant simplement cette dernière. En outre, il découle du paragraphe 4 qu'il n'existe pas de mouvements directionnels déterministes sur le marché Forex, tandis que tout mouvement directionnel similaire est de nature aléatoire et n'a donc aucun intérêt pratique (trend do not friend !). La différenciation de la série initiale nous permettra de nous débarrasser des tendances stochastiques, ce qui simplifiera davantage notre modèle.
Nous supposons donc que le processus de fixation des prix peut être décrit par un modèle qui comprend une composante cyclique et une série chronologique stationnaire avec un gain attendu nul. La question de savoir s'il existe ou non une composante cyclique dans la série de prix peut être résolue en appliquant une analyse de Fourier ou en influençant la série chronologique avec un filtre numérique à bande étroite. Dans ma pratique, j'ai utilisé les deux méthodes. Les résultats obtenus impliquent que des cycles existent sur le marché des devises, mais ils sont stochastiques, c'est-à-dire qu'il n'y a pas de cycles avec une période stationnaire ou presque stationnaire. Cette propriété rend malheureusement fondamentalement impossible l'exploitation de stratégies basées sur le caractère cyclique du processus de fixation des prix. Je répète que cette conclusion ne s'applique qu'au marché des changes ! Le marché boursier a une composante saisonnière stationnaire et des tendances déterministes. Ce fait permet d'espérer une éventuelle exploitation de ces propriétés du marché boursier en TS. À la lumière de ce qui précède, mon opinion est que la théorie d'Elliott n'est applicable que sur le marché des actions et des contrats à terme, mais pas sur le marché des changes.
Par conséquent, notre modèle ne contient que deux composantes : une composante déterministe et une composante aléatoire. Le processus de formation des prix peut être décrit comme la mémoire du marché d'un nombre infini de sauts de prix antérieurs, chacun d'entre eux ayant son propre poids décroissant et sa propre composante aléatoire. Dans le cas général, nous devons limiter raisonnablement le nombre de membres impliqués dans la formation des prix et trouver un moyen de calculer les coefficients donnés (pondérations) à partir des paramètres disponibles et calculables qui caractérisent le processus stationnaire d'intérêt. Et aussi pour déterminer les paramètres de la composante aléatoire, ce qui n'est pas une tâche difficile. Dans ce cas, le prochain (troisième+1) saut de prix sera déterminé par la somme des n sauts précédents S(i), chacun étant multiplié par son poids a(i) qui décroît de façon monotone avec la distance par rapport au bord supérieur de l'histoire, et par une variable aléatoire sigma dont la loi de distribution est connue, la valeur attendue nulle et l'écart type connu :
S(i+1)=SUM(a(i-k)*S(i-k))+sigma où la somme est effectuée sur tous les k de zéro à n.
Ainsi, nous avons affaire à un modèle autorégressif de n-ième ordre.
En principe, nous n'avons besoin de la forme exacte de la variable aléatoire que si nous voulons obtenir une série temporelle S(i) totalement identique à la série génératrice (en termes de caractéristiques), mais cette tâche me semble superflue. En effet, nous ne nous intéressons qu'à la capacité de prédiction du modèle qui souffrira inévitablement d'un élément d'incertitude introduit par le terme responsable de la composante aléatoire, mais compte tenu du signe aléatoire de l'erreur introduite, nous pouvons affirmer sans risque qu'après un grand nombre d'exécutions, l'erreur de prédiction associée au terme aléatoire sera réduite à zéro ! Et finalement notre modèle semble assez simple :
S(i+1)=SUM(a(i-k)*S(i-k)), où la sommation est effectuée sur tous les k de zéro à n.
La densité spectrale du processus autorégressif d'ordre n est définie par la formule :
p(omega)=2D/|1-SUM(a(k)*exp{-i*2k*omega})|^2, où la sommation est effectuée sur tous les k de 1 à n,
i=SQRT(-1) et 0<=omega<=1/2 .
Préliminairement, je note que
.
Cela se reflète également dans mes recherches :
. L'histoire se répète et l'indice de Hurst le démontre, mais il évalue la possibilité de répétition/continuation de la structure établie (comme je l'ai écrit précédemment), ce qui change quelque peu l'approche de la CT.
Une normalisation "en retour" correctement effectuée, c'est-à-dire l'adaptation des paramètres du signal à la qualité de l'information, permet d'obtenir en général une composante localement déterministe. Il n'y a pas vraiment de cycles (ils ne vendent pas de galoches :o), mais ce sont les informations de base (M0, M1, taux etc.) qui ont des cyclicités. La prévision de base ("quasi-déterministe") est basée sur des informations cycliques.
Le seul problème est que le degré d'influence d'une information spécifique change au fil du temps et qu'une fois le rationnement de l'histoire effectué, on peut recommencer à zéro :o(. Mais jusqu'à présent, cette approche n'est rien de plus qu'un hobby scientifique.