una estrategia de negociación basada en la teoría de las ondas de Elliott - página 227

 
Bueno, tal vez entre nosotras, las amas de casa, puedan decirme qué es. <br / translate="no"> No tiene que ser sobre el proceso de Markov, puede hablar simplemente de las cadenas de Markov.
Incluso se puede hablar de cadenas.


Es bastante largo, y no se me da bien contarlo bien. Sobre las cadenas de Markov, las cadenas y los procesos, que estas cadenas describen, leí en el libro "Partes probabilísticas de las matemáticas" editado por Maximov, "Curso de teoría de la probabilidad" de Gnedenko. No puedo decir de mí mismo que me haya convertido en un gurú en este campo. Más bien, me recuerdo a un perro que lo entiende todo pero no puede decir nada. :о)

Tampoco me gusta mucho que un ama de casa explique "lo que es". Por ejemplo, tomemos una definición de Wikipedia (bastante para las amas de casa :o):


Una cadena de Markov (CM) es una secuencia de eventos aleatorios con un número finito o infinito contable de resultados, caracterizada por la propiedad de que en un presente fijo el futuro es independiente del pasado. Lleva el nombre de A. A. Markov (padre).


Parece que es correcto, sin embargo, la redacción más precisa es algo diferente:


Una secuencia de ensayos forma un CM si la probabilidad condicional en s+1 ensayos (s=1,2,3,,,,) de un evento A(i)[s+1] i=1,2,...k depende sólo de qué evento ocurrió en el s-ésimo ensayo y no cambia a partir de la información aditiva sobre qué eventos ocurrieron en ensayos anteriores.


Aparentemente, por esta razón, los procesos que pueden ser descritos por tales cadenas se llaman procesos con memoria corta. También se introduce otra definición, basada en la noción de estado del sistema.

Yuri, ten piedad de mí. No quiero reescribir en absoluto las definiciones y conclusiones. El CM no es una invención mía y todavía no he alcanzado el nivel de incompetencia adecuado para contarlo todo con mis propias palabras. Puede que no reconozca las cadenas de Markov entonces :o).

Cuando leas en fuentes competentes (en contraposición a mi narrativa), entonces tal vez mis "prácticas" sean útiles:

(1) He elegido un canal como estado del sistema en lugar de valores de precios específicos o la diferencia entre los precios
(2) Tomé las probabilidades de algunas características del canal para hacer una matriz de probabilidad de transición.
(3) Tomé un cambio de canal como un paso en la matriz
(4) He "elegido intuitivamente" el proceso de nacimiento y muerte como proceso; no podemos utilizar el proceso de cola para nuestros fines, ¿verdad?

Y ya he demostrado los resultados de su uso. :о)
 
Consideraremos la clase de series temporales estacionarias. Nuestro problema se reduce a la elección de un modelo adecuado para describir el comportamiento de los residuos "aleatorios" X[j] de la serie temporal estudiada Y[j], obtenidos tras la eliminación de su componente no aleatorio (si lo hay) de la serie temporal original. Como aquí describimos el comportamiento de los residuos aleatorios, denotamos la serie temporal simulada por X[j], y suponemos que para todo j su expectativa matemática es cero. Si no, hay que centrarse en la serie original. El centrado y la residualización pueden realizarse para las series temporales características del mercado de divisas (que contienen sólo las tendencias estocásticas) construyendo la primera serie de diferencias
X[j]=Y[j]-Y[j-k], donde k puede ser de 1 a n dependiendo del propósito del experimento.


Modelo de autorregresión de primer orden AR(1) (proceso de Markov).

Este modelo es una variante simple del proceso autorregresivo de
X[j]=SUMA{a[k]*X[j-k]}+sigma[j], donde la suma se realiza para todo k=1...infinito,
cuando todos los coeficientes excepto el primero son iguales a cero. En consecuencia, puede definirse mediante la expresión
X[j]=a*X[j-1]+sigma[j], (1)
donde a&#61485;es algún coeficiente numérico no superior a uno en valor absoluto (|a| < 1), y sigma[j], una secuencia de variables aleatorias que forman ruido blanco. Así, X[j] depende de sigma[j] y de todos los sigmas anteriores, pero es independiente de los valores futuros de sigma. En consecuencia, en la ecuación, sigma[j], es independiente de X[j-1] y de los valores anteriores de X. Por ello, sigma[j] se denomina innovación (actualización).
Las secuencias X que satisfacen la relación (1) suelen llamarse también procesos markovianos. Esto significa que
1. La expectativa del proceso M es idénticamente cero M=0.
2. El coeficiente de autocorrelación r entre los miembros de la serie, espaciados por k pasos, es igual a r=a^k.

Las principales características del proceso de autoregresión de primer orden son las siguientes.

La condición de estacionariedad de la serie viene determinada por el requisito del coeficiente a:
|a|<1
La función de autocorrelación del proceso de Markov se define mediante la siguiente relación:
r(t)=a^t ,
es decir, el valor de a determina la cantidad de correlación entre dos miembros vecinos de la serie X[j]. Podemos ver que el grado de estrechez de la correlación entre los términos de la secuencia (1) disminuye exponencialmente a medida que se alejan mutuamente en el tiempo.
La densidad espectral del proceso de Markov (1) puede calcularse utilizando la forma conocida de la función de autocorrelación:
p(w)=2sigma0^2/(2+a^2-2a*cos(2Pi*w))
Si el valor del parámetro a es cercano a 1, los valores adyacentes de la serie X[j] son cercanos en magnitud, la función de autocorrelación disminuye exponencialmente sin dejar de ser positiva y el espectro está dominado por las frecuencias bajas, lo que significa una distancia media suficientemente grande entre los picos de X[j]. En el valor del parámetro a cercano a -1, la serie oscila rápidamente (las frecuencias altas predominan en el espectro) y la gráfica de la función de autocorrelación disminuye exponencialmente hasta llegar a cero con un cambio de signo alterno.

Tras identificar el modelo, es decir, determinar sus parámetros (en este caso es a)
podemos construir una previsión de un paso adelante:
Y[j+1]=Y[j]+a*X[j].

Eso es todo.

Yura, ahora tengo una petición para ti. Implementa en Mathcad el algoritmo mostrado en la fig. siguiente y muestra el FAC resultante de TF para los puntos característicos del EURUSD para algún año.

 
<br / translate="no"> Cuando se lea en fuentes competentes (a diferencia de mi narrativa), tal vez mis "prácticas" sean útiles:

(1) He elegido el canal como el estado del sistema en lugar de valores de precios específicos o la diferencia entre los precios
(2) Tomé las probabilidades de algunas características del canal para hacer una matriz de probabilidad de transición.
(3) Tomé un cambio de canal como un paso en la matriz
(4) He "elegido intuitivamente" el proceso de nacimiento y muerte como proceso; no podemos utilizar el proceso de cola para nuestros fines, ¿verdad?

Y ya he demostrado los resultados de su uso. :о)


Todo está claro aquí, excepto el punto 2). Probablemente se considere una simple cosa banal, o tal vez incluso el saber hacer.
Sobre el punto 4) (ya he molestado a solandr con esta pregunta) - ¿el "proceso de nacimiento y muerte" se definió sobre el tratamiento estadístico del punto 3) o a partir de algunas consideraciones teóricas generales?
 
Yurixx 22.01.07 16:24
Bueno, tal vez entre nosotras, las amas de casa, puedan decirme qué es.
No tiene por qué ser un proceso de Markov, se puede hablar simplemente de cadenas de Markov.
Incluso se puede hablar de cadenas.

Lo más fácil es utilizar un ejemplo.
El proceso markoviano más sencillo es una moneda ordinaria.
La cara en la que cae una moneda es independiente del estado anterior.
Se dice que un proceso como una moneda tiene la propiedad de ser markoviano,
es decir, no tiene memoria del pasado. Una serie de lanzamientos de monedas se llamaría
una cadena de Markov. Más concretamente, no los lanzamientos en sí, sino las probabilidades.
Hay procesos de Markov más complicados, hay muchos diferentes.
Procesos de Markov. Hay algunos que "recuerdan" el estado anterior, pero
pero no recuerdan el preexistente, etc...
Bueno, en general, esta es una historia sencilla.
Las matemáticas allí, en algunos lugares, son bastante confusas y no obvias, y las fórmulas son enormes.
 
Yurixx 22.01.07 16:24
Ну может между нами, домохозяйками, раскажете мне что это такое ?
Необязательно про МАРКОВСКИЙ ПРОЦЕСС, можно просто про марковские цепи.
Можно даже про цепочки.

Lo más fácil es utilizar un ejemplo.
El proceso de Markov más sencillo es una moneda.
La forma en que cae una moneda es independiente del estado anterior.
Se dice que un proceso como una moneda tiene la propiedad de ser markoviano,
es decir, no recuerda el pasado.


Por lo que recuerdo la definición de un proceso de Markov del post anterior (A(i)[s+1] sólo depende de A[s]) Al lanzar una moneda no puede ser un proceso de Markov, ya que la probabilidad de que el águila caiga en cada lanzamiento no depende de ningún ensayo anterior.
 
A Neutrón

<br / translate="no"> Nuestra tarea consiste en elegir un modelo adecuado para describir el comportamiento de los residuos "aleatorios" X[j] de la serie temporal investigada Y[j], obtenidos tras eliminar de la serie temporal original su componente no aleatorio (si lo hay).


Sergey, espero que tengas paciencia. Explícame (es muy posible que me haya perdido algo), y por qué necesitamos un modelo para describir los residuos aleatorios, y qué es la "eliminación". Y me parece que la "eliminación" de los residuos aleatorios es inherentemente aleatoria. Menuda recapitulación. :о)

A Rosh


todo está claro aquí, excepto el punto 2). Puede considerarse una simple cosa trivial, o puede ser un saber hacer.


Esto es muy sencillo. Tenía que definir de alguna manera el estado del sistema para poder hacer predicciones. Estuve trasteando durante mucho tiempo con parámetros bastante comprensibles: skoe, longitud del canal, ángulo de inclinación de la línea LR. Pero en el transcurso del experimento llegué a la conclusión de que algunos parámetros del canal daban mejores resultados.

Y llegué a estas características por lo siguiente:


Sobre el punto 4) (ya he molestado a solandr con esta pregunta) - ¿el "proceso de nacimiento y muerte" se definió sobre el procesamiento estadístico del punto 3) o a partir de algunas consideraciones teóricas generales?


Vale, voy a ser sincero contigo. Mi primer pensamiento fue este. Tomar el historial, encontrar los canales, calcular las estadísticas. Acabé abandonando este enfoque. Como escribí antes, llamé a mi método análisis evolutivo de ondas fractales (bueno, lo nombré y me gusta). Se basa en la "evolución" - reelaborada "bajo los canales" de la MSP. Por ello, he investigado la dinámica de algunas características de los canales. Por otro lado, el canal no se define de la manera habitual. Aquí en este post "grasn 18.01.07 16:11" hay una imagen que muestra la fuerza de la conexión entre las muestras. El canal va desde el dato actual hasta el valor más débil de esta conexión. Una vez que haya encontrado un recuento débil, significa que ha encontrado el origen del canal. Muevo el "cursor" a este punto y empiezo a controlar, como dice North Wind, la calidad del proceso.

La dinámica de algunas características dentro del canal es el proceso de nacimiento y muerte del canal (al menos en mi caso es así).
 
Una vez, hace muchas páginas, discutí con el fundador del hilo sobre la teoría de Elliott y se negó a articular su esencia en pocas palabras, citando el grosor de los libros.

Ahora, gracias a Neutron, grasn y Northwind, se demuestra claramente cómo se hace.

Aunque mi edad ya no me permite asistir a la escuela, te agradezco mucho tu deseo de enseñarme algo de sabiduría, y la lección que me has dado, Sergey, la haré sin duda.

Prometo y juro solemnemente. :-)
 
Rosh 22.01.07 19:33
Por lo que recuerdo la definición de un proceso de Markov del post anterior (A(i)[s+1] sólo depende de A[s]) Al lanzar una moneda no puede ser un proceso de Markov, ya que la probabilidad de que el águila caiga en cada lanzamiento no depende de ningún ensayo anterior.

Me gustaría discutir este punto con más detalle, pero desgraciadamente no hay absolutamente
tiempo. Sólo diré que la Sra. Wentzel E.S. en su libro de texto afirma
lo mismo, la moneda es un proceso markoviano, incluso hay una prueba.
Por cierto, tiene un proceso markoviano (un proceso sin consecuencias) - si para cada momento
la probabilidad de cualquier estado del sistema en el futuro depende sólo del estado
del sistema en el momento actual, y no depende de cómo el sistema llegó a
este estado.
 
Rosh 22.01.07 19:33
Насколько я помню определение марковского процесса из предыдущего поста (A(i)[s+1] зависит только от A[s]) , подкидывание монетки не может являться марковским процессом, так как вероятность выпадения орла при каждом подбрасывании не зависит ни от одного предыдущего испытания.

Me gustaría discutir este punto con más detalle, pero desgraciadamente no hay absolutamente
tiempo. Sólo diré que la Sra. Wentzel E.S. en su libro de texto afirma
lo mismo, la moneda es un proceso markoviano, incluso hay una prueba.
Por cierto, tiene un proceso markoviano (un proceso sin consecuencias) - si para cada momento
la probabilidad de cualquier estado del sistema en el futuro depende sólo del estado
del sistema en el momento presente, y no depende de cómo el sistema llegó a
este estado.


Sí, donde hay mujeres, siempre hay confusión. Es una broma. :о) Tomemos un ejemplo sencillo de un libro de texto editado por Maximov: un jugador juega una partida compuesta por juegos. La probabilidad de ganar la siguiente partida es igual a p, si se gana la partida anterior, y a p1, si se pierde la partida anterior. Estado E1 - se gana la siguiente partida, E2 - se pierde la partida.

El paso por los estados E1 y E2 se describe mediante una matriz de probabilidad de transición:
|(p) (1-p)|
|(p1) (1-p1)|
 
Ahí tienes, otra cosa :) Incluso se puede argumentar por qué ganar después de perder tiene una probabilidad diferente en comparación con ganar después de ganar .
"Los hombres no lloran, los hombres se enfadan" :)