une stratégie commerciale basée sur la théorie des vagues d'Elliott - page 227

 
Peut-être qu'entre nous, les femmes au foyer, vous pouvez me dire ce que c'est ? <br / translate="no">Il n'est pas nécessaire de parler du processus de Markov, vous pouvez simplement parler de chaînes de Markov.
Vous pouvez même parler de chaînes.


C'est assez long, et je ne suis pas douée pour le raconter gentiment. Au sujet des chaînes de Markov, des chaînes et des processus que ces chaînes décrivent, j'ai lu dans le livre "Probabilistic Parts of Mathematics" édité par Maximov, "Course of Probability Theory" par Gnedenko. Je ne peux pas dire de moi-même que je suis devenu un gourou dans ce domaine. Je me souviens plutôt d'un chien qui comprend tout mais ne peut rien dire. :о)

Je n'aime pas non plus beaucoup l'explication de "ce que c'est" par une ménagère. Par exemple, prenons une définition de Wikipédia (tout à fait pour les femmes au foyer :o) :


Une chaîne de Markov (CM) est une séquence d'événements aléatoires avec un nombre fini ou infini de résultats, caractérisée par la propriété qu'à un présent fixe, le futur est indépendant du passé. Il porte le nom de A. A. Markov (père).


Cela semble correct, mais la formulation plus précise est quelque peu différente :


Une séquence d'essais forme un CM si la probabilité conditionnelle dans s+1 essais (s=1,2,3,,,,) d'un événement A(i)[s+1] i=1,2,...k dépend uniquement de l'événement survenu dans le s-ième essai et ne change pas à partir de l'information additive sur les événements survenus dans les essais précédents.


Apparemment, pour cette raison, les processus qui peuvent être décrits par de telles chaînes sont appelés processus à mémoire courte. Une autre définition, basée sur la notion d'état du système, est également introduite.

Yuri, ayez pitié de moi. Je ne veux pas du tout réécrire les définitions et les conclusions. Le CM n'est pas mon invention et je n'ai pas encore atteint le niveau d'incompétence approprié pour tout raconter dans mes propres mots. Vous ne reconnaissez peut-être pas les chaînes de Markov alors :o).

Lorsque vous lirez dans des sources compétentes (par opposition à mon récit), alors peut-être mes "pratiques" seront-elles utiles :

(1) J'ai choisi un canal comme étant l'état du système plutôt que des valeurs de prix spécifiques ou la différence entre les prix.
(2) J'ai pris les probabilités de certaines caractéristiques du canal pour faire une matrice de probabilité de transition.
(3) J'ai pris un changement de chaîne comme une étape dans la matrice.
(4) J'ai "intuitivement choisi" le processus de la naissance et de la mort comme processus ; nous ne pouvons pas utiliser le processus de la file d'attente à nos fins, n'est-ce pas ?

Et j'ai déjà démontré les résultats de son utilisation. :о)
 
Nous allons considérer la classe des séries temporelles stationnaires. Notre problème se réduit au choix d'un modèle approprié pour décrire le comportement des résidus "aléatoires" X[j] de la série temporelle étudiée Y[j], obtenus après l'élimination de sa composante non aléatoire (s'il y en a une) de la série temporelle originale. Puisque nous décrivons ici le comportement de résidus aléatoires, nous désignons la série temporelle simulée par X[j], et supposons que pour tous les j, son espérance mathématique est nulle. Sinon, il faut centrer la série originale. Le centrage et la résidualisation peuvent être effectués pour les séries temporelles caractéristiques du marché Forex (contenant uniquement les tendances stochastiques) en construisant la série de première différence
X[j]=Y[j]-Y[j-k], où k peut être compris entre 1 et n selon le but de l'expérience.


Modèle d'autorégression du 1er ordre AR(1) (processus de Markov).

Ce modèle est une variante simple du processus autorégressif de
X[j]=SUM{a[k]*X[j-k]}+sigma[j], où la sommation est effectuée pour tous les k=1...infini,
lorsque tous les coefficients sauf le premier sont égaux à zéro. En conséquence, il peut être défini par l'expression
X[j]=a*X[j-1]+sigma[j], (1)
a&#61485;est un certain coefficient numérique ne dépassant pas un en valeur absolue (|a| < 1), et sigma[j], une séquence de variables aléatoires formant un bruit blanc. Ainsi, X[j] dépend de sigma[j] et de tous les sigmas précédents, mais est indépendant des valeurs futures de sigma. Par conséquent, dans l'équation, sigma[j], est indépendant de X[j-1] et des valeurs antérieures de X. Pour cette raison, sigma[j] est appelé une innovation (mise à jour).
Les séquences X satisfaisant la relation (1) sont souvent aussi appelées processus markoviens. Cela signifie que
1. L'espérance du processus M est identiquement nulle M=0.
2. Le coefficient d'autocorrélation r entre les membres de la série, espacés de k pas, est égal à r=a^k.

Les principales caractéristiques du processus autorégressif d'ordre 1 sont les suivantes.

La condition de stationnarité de la série est déterminée par la condition du coefficient a:
|a|<1
La fonction d'autocorrélation du processus de Markov est définie par la relation suivante :
r(t)=a^t ,
c'est-à-dire que la valeur de a détermine la valeur de la corrélation entre deux membres voisins de la série X[j]. Nous pouvons constater que le degré d'étanchéité de la corrélation entre les termes de la séquence (1) diminue exponentiellement au fur et à mesure qu'ils s'éloignent les uns des autres dans le temps.
La densité spectrale du processus de Markov (1) peut être calculée en utilisant le type bien connu de fonction d'autocorrélation :
p(w)=2sigma0^2/(2+a^2-2a*cos(2Pi*w))
Si la valeur du paramètre a est proche de 1, les valeurs adjacentes de la série X[j] sont proches les unes des autres en magnitude, la fonction d'autocorrélation diminue exponentiellement tout en restant positive et le spectre est dominé par les basses fréquences, ce qui signifie que la distance moyenne entre les pics de la série X[j] est assez grande. A la valeur du paramètre a proche de -1, la série oscille rapidement (les hautes fréquences prédominent dans le spectre) et le graphique de la fonction d'autocorrélation décroît exponentiellement jusqu'à zéro avec un changement alternatif de signe.

Après avoir identifié le modèle, c'est-à-dire déterminé ses paramètres (dans ce cas, il s'agit de a)
, nous pouvons établir une prévision à un pas en avant :
Y[j+1]=Y[j]+a*X[j].

C'est tout.

Yura, maintenant j'ai une demande à vous faire. Implémentez dans Mathcad l'algorithme montré sur la fig. ci-dessous et montrez les FAC obtenues de TF pour les minuties EURUSD pour une année.

 
<br / translate="no">Lorsqu'elles seront lues dans des sources compétentes (par opposition à mon récit), mes "pratiques" seront peut-être utiles :

(1) J'ai choisi le canal comme étant l'état du système plutôt que des valeurs de prix spécifiques ou la différence entre les prix.
(2) J'ai pris les probabilités de certaines caractéristiques du canal pour faire une matrice de probabilité de transition.
(3) J'ai pris un changement de chaîne comme une étape dans la matrice.
(4) J'ai "intuitivement choisi" le processus de la naissance et de la mort comme processus ; nous ne pouvons pas utiliser le processus de la file d'attente à nos fins, n'est-ce pas ?

Et j'ai déjà démontré les résultats de son utilisation. :о)


Tout est clair ici, sauf le point 2). Probablement considéré comme une simple chose banale, ou peut-être même un savoir-faire.
En ce qui concerne le point 4) (j'ai déjà harcelé Solandr avec cette question), le "processus de naissance et de mort" a été défini à partir du traitement statistique du point 3) ou de considérations théoriques générales ?
 
Yurixx 22.01.07 16:24
Peut-être qu'entre nous, les femmes au foyer, vous pouvez me dire ce que c'est ?
Il n'est pas nécessaire que ce soit un processus de Markov, vous pouvez simplement parler de chaînes de Markov.
Vous pouvez même parler de chaînes.

Le moyen le plus simple est d'utiliser un exemple.
Le processus markovien le plus simple est une pièce de monnaie ordinaire.
Le côté sur lequel tombe une pièce est indépendant de l'état précédent.
On dit qu'un processus comme une pièce de monnaie a la propriété d'être markovien,
c'est-à-dire qu'il n'a pas de mémoire du passé. Une série de tirages à pile ou face serait appelée
une chaîne de Markov. Plus précisément, pas les tirages au sort eux-mêmes, mais les probabilités.
Il existe des processus de Markov plus compliqués, il y en a beaucoup de différents.
Processus de Markov. Il y en a qui "se souviennent" de l'état précédent, mais
mais ne se souvient pas de la préexistante, etc...
Eh bien, en général, c'est une histoire simple.
Les mathématiques y sont, à certains endroits, assez confuses et non évidentes, et les formules sont énormes.
 
Yurixx 22.01.07 16:24
Ну может между нами, домохозяйками, раскажете мне что это такое ?
Необязательно про МАРКОВСКИЙ ПРОЦЕСС, можно просто про марковские цепи.
Можно даже про цепочки.

La chose la plus simple à faire est d'utiliser un exemple.
Le processus de Markov le plus simple est une pièce de monnaie ordinaire.
La façon dont une pièce tombe est indépendante de l'état précédent.
On dit qu'un processus comme une pièce de monnaie a la propriété d'être markovien,
c'est-à-dire qu'il ne se souvient pas du passé.


Autant que je me souvienne de la définition d'un processus de Markov du post précédent (A(i)[s+1] ne dépend que de A[s]) Le fait de tirer à pile ou face ne peut pas être un processus de Markov, puisque la probabilité que l'aigle tombe à chaque tirage ne dépend pas de l'essai précédent.
 
Au Neutron

<br / translate="no">Notre tâche consiste à choisir un modèle adapté pour décrire le comportement des résidus "aléatoires" X[j] de la série temporelle étudiée Y[j], obtenus après avoir éliminé de la série temporelle originale sa composante non aléatoire (s'il y en a une).


Sergey, j'espère sur votre patience. Expliquez-moi (il est fort possible que j'aie manqué quelque chose), et pourquoi nous avons besoin d'un modèle pour décrire les résidus aléatoires, et ce qu'est "l'élimination". Et il me semble que l'"élimination" de résidus aléatoires est intrinsèquement aléatoire. Quelle conclusion. :о)

A Rosh


tout est clair ici, sauf le point 2). Il peut s'agir d'une simple chose banale ou d'un savoir-faire.


C'est assez simple ici. J'ai dû définir en quelque sorte l'état du système afin de faire des prédictions. Je me suis longtemps amusé avec des paramètres assez compréhensibles : skoe, longueur du canal, angle de pente de la ligne LR. Mais au cours de l'expérience, je suis arrivé à la conclusion que certains paramètres du canal donnaient de meilleurs résultats.

Et je suis arrivé à ces caractéristiques à partir de ce qui suit :


Concernant le point 4) (j'ai déjà harcelé Solandr avec cette question) - le "processus de naissance et de mort" a été défini à partir du traitement statistique du point 3) ou de considérations théoriques générales ?


OK, je vais être honnête avec vous. Ma première pensée a été celle-ci. Faites l'historique, trouvez les chaînes, calculez les statistiques. J'ai fini par abandonner cette approche. Comme je l'ai déjà écrit, j'ai nommé ma méthode "analyse évolutive des ondes fractales" (enfin, je l'ai nommée et je l'aime bien). Il est basé sur "l'évolution" - retravaillé "sous les canaux" de MSP. J'ai donc étudié la dynamique de certaines caractéristiques des canaux. Le canal, quant à lui, n'est pas défini de la façon dont je le fais habituellement. Ici dans ce post "grasn 18.01.07 16:11" il y a une photo qui montre la force de la connexion entre les échantillons. Le canal va du point de référence actuel à la valeur la plus faible de cette connexion. Dès que vous trouvez un compte faible, cela signifie que vous avez trouvé l'origine du canal. Je déplace le "curseur" jusqu'à ce point et commence à contrôler, comme le dit North Wind, la qualité du processus.

La dynamique de certaines caractéristiques à l'intérieur du canal est le processus de naissance et de mort du canal (au moins dans mon cas, c'est ainsi).
 
Il était une fois, il y a de nombreuses pages, je me suis disputé avec le fondateur du fil de discussion au sujet de la théorie d'Elliott et il a refusé d'en exprimer l'essence en quelques mots, citant l'épaisseur des livres.

Maintenant, grâce à Neutron, grasn et Northwind, la façon de procéder est clairement démontrée.

Bien que mon âge ne me permette plus d'aller à l'école, je vous suis très reconnaissant de votre désir de m'enseigner un peu de sagesse, et la leçon que vous m'avez donnée, Sergei, je vais certainement la faire.

Je promets et fais vœu solennel. :-)
 
Rosh 22.01.07 19:33
Autant que je me souvienne de la définition d'un processus de Markov du post précédent (A(i)[s+1] ne dépend que de A[s]) Le fait de tirer à pile ou face ne peut pas être un processus de Markov, puisque la probabilité que l'aigle tombe à chaque tirage ne dépend pas de l'essai précédent.

J'aimerais discuter de ce point plus en détail, mais malheureusement, il n'y a absolument aucun moyen de le faire.
temps. Je dirai seulement que Mme Wentzel E.S., dans son manuel, dit que
la même, la pièce est un processus markovien, il y a même une preuve.
Au fait, elle a un processus markovien (un processus sans conséquences) - si pour chaque instant
la probabilité d'un état quelconque du système dans le futur ne dépend que de l'état
du système au moment présent, et ne dépend pas de la façon dont le système est arrivé à
cet état.
 
Rosh 22.01.07 19:33
Насколько я помню определение марковского процесса из предыдущего поста (A(i)[s+1] зависит только от A[s]) , подкидывание монетки не может являться марковским процессом, так как вероятность выпадения орла при каждом подбрасывании не зависит ни от одного предыдущего испытания.

J'aimerais discuter de ce point plus en détail, mais malheureusement, il n'y a absolument aucun moyen de le faire.
temps. Je dirai seulement que Mme Wentzel E.S., dans son manuel, dit que
la même, la pièce est un processus markovien, il y a même une preuve.
Au fait, elle a un processus markovien (un processus sans conséquences) - si pour chaque instant
la probabilité d'un état quelconque du système dans le futur ne dépend que de l'état
du système au moment présent, et ne dépend pas de la façon dont le système est arrivé à
cet état.


Oui, là où il y a des femmes, il y a toujours de la confusion. Je plaisante. :о) Prenons un exemple simple tiré d'un manuel édité par Maximov : un joueur joue un jeu composé de jeux. La probabilité de gagner le prochain match est égale à p, si le match précédent est gagné, et à p1, si le match précédent est perdu. État E1 - le prochain jeu est gagné, E2 - le jeu est perdu.

Le passage par les états E1 et E2 est décrit par une matrice de probabilité de transition :
|(p) (1-p)|
|(p1) (1-p1)|
 
Et voilà, une autre chose :) Vous pouvez même expliquer pourquoi gagner après avoir perdu a une probabilité différente de celle de gagner après avoir gagné.
"Les hommes ne pleurent pas, les hommes s'énervent" :)