una estrategia de negociación basada en la teoría de las ondas de Elliott - página 62
![MQL5 - Lenguaje de estrategias comerciales para el terminal de cliente MetaTrader 5](https://c.mql5.com/i/registerlandings/logo-2.png)
Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
Tal vez el problema sea que está construyendo una regresión sobre todo el conjunto de muestras.
Esto, según tengo entendido, es un error. Con valores pequeños de N los puntos pueden situarse en una línea recta completamente diferente o comportarse de forma inadecuada. Para aproximar una línea recta, hay que tomar sólo la parte derecha de la curva construida, y precisamente la parte que se encuentra en la línea de regresión con suficiente precisión. Peters, por su parte, demostró que hay un pliegue en esta línea construida.
¿Qué le deparará una simple columna de sólo cifras de afluencia con mensaje de cifras de Hearst, sin conocer la propia muestra, para la que se ha hecho este cálculo? Decidí mantener la sencillez. He publicado una imagen en la que se ve la cifra de Hearst para los canales en la esquina superior izquierda. El canal 1 es el más largo y el 4 el más corto del gráfico. Creo que esto será más que suficiente para que compruebes tu algoritmo de cálculo.
https://c.mql5.com/mql4/forum/2006/06/channels_EURUSD.zip
Tal vez el problema sea que está construyendo una regresión sobre todo el conjunto de muestras.
Esto, a mi entender, es un error. Para valores pequeños de N, los puntos pueden situarse en una línea recta completamente diferente o comportarse de forma inadecuada. Para aproximar una línea recta, hay que tomar sólo la parte derecha de la curva construida, y precisamente la parte que se encuentra en la línea de regresión con suficiente precisión. Peters, por su parte, demostró que hay un pliegue en esta línea construida.
Es muy posible. He aquí una cita de un libro que una vez proporcionó Vladislav: "El comportamiento ondulatorio de los datos indica la existencia de parches de diferentes grados (o, como se dice, fuerza) de persistencia en diferentes escalas de tiempo. Eso es lo que parece a ojo. La cuestión que se plantea es cuánto hay que desplazar a la derecha. Y seguro que afectará al resultado, pero para bien o para mal.
¿Cree que la afluencia media debe tomarse igual para todos los n, calculada para N o debe calcularse para cada n, avanzando hacia N
PD: Perdóname, me gusta la precisión, o más bien estaba acostumbrado a ella en MAI.
¿Qué haría una simple columna de cifras de afluencia que le diera la cifra de Hearst sin conocer la propia muestra para la que se hizo este cálculo? Decidí mantener la sencillez. He publicado una imagen con la cifra de Hearst para los canales en la esquina superior izquierda. El canal 1 es el más largo y el 4 el más corto del gráfico. Creo que esto será más que suficiente para que compruebes tu algoritmo de cálculo.
https://c.mql5.com/mql4/forum/2006/06/channels_EURUSD.zip
No conseguí entender inmediatamente la muestra en sí y su longitud a partir de la imagen. Probablemente, debo tener una mente expandida, pero ¿cómo ampliarla? :о)))
Me parece que la regresión utilizada para determinar Hurst debería extraerse del final de la curva. Y el criterio para el valor del intervalo puede tomarse probablemente como la pendiente del canal obtenido. En cuanto supere, por ejemplo, el 3-5% del valor Log(R/S) (es decir, que empiece a divergir), deténgase ahí.
Diferentes fuentes divergen en esta cuestión. Y ni siquiera se trata tanto de la media como de la R/S. Mucha gente cree que el sko debe tomarse para la muestra más grande N y sólo la dispersión debe tomarse para la muestra n. Yo, sin embargo, creo que este enfoque no tiene sentido matemático (ni físico). Todos los valores del cálculo deben referirse a la misma muestra.
He ampliado mi mente exclusivamente con la información dada en este hilo :o))). Pruébalo también. ¿Tal vez sirva de algo? Sólo puedo recomendarte que leas despacio al menos los posts de Vladislav y algunos de los míos. En algunos posts (no en todos, porque muchos posts eran sólo científicos señalando con el dedo al cielo ;o)!) expuse la esencia de la estrategia - o más bien cómo la entiendo yo.
He estado expandiendo mi conciencia únicamente con las inoformaciones mencionadas en este hilo :o))). Pruébalo también. ¿Puede ser que ayude? Sólo puedo recomendarte que leas despacio al menos los posts de Vladislav y algunos de los míos. En algunos posts (no en todos, porque muchos posts eran sólo científicos señalando con el dedo al cielo ;o)!) expuse la esencia de la estrategia - o más bien cómo la entiendo yo.
Seguí tu consejo y volví a leer tu código lenta y cuidadosamente en la página 12 del 13.05.06 13:07. (aviso, no sólo él) Creo que he entendido por qué no se puede dar la "afluencia" en el archivo de texto. Tú, simplemente no lo tienes.
Supongo que los principios de cálculo expuestos en su post siguen siendo los mismos a día de hoy. El cálculo de H se realiza mediante la fórmula resultante:
H=log(R/S)/log(0,5*N)
Para calcular R, se utiliza:
pMin=Low[...]
pMax=High[...]
R=pMin-pMax
Open[]
Resulta que formalmente se está calculando algo más que el índice de Hearst. Por supuesto, Open[], Low[], High[] son valores del mismo precio. Pero desde el punto de vista de la fórmula - no conforman la "afluencia" o más bien la secuencia (tiempo - valor). No podemos decir para una barra qué y cuándo fue el primer High[] o Low[]. El cálculo en sí también está un poco "roto" (entre comillas).
Recuerdo que el método se modifica específicamente, pero en este caso una modificación bastante profunda. No estoy cuestionando la corrección de los cálculos, sólo quiero entender lo que causó tal, muy diferente del enfoque clásico (definición del índice de Hurst en todas las fuentes es el mismo y no coincide con la "definición" en el algoritmo) . No he encontrado en ninguna fuente una restricción sobre el método de cálculo que uso, no hay recomendaciones como "usar sólo para el movimiento browniano". Es un método bueno y preciso (a menos que mientan, por supuesto)
Todavía quiero escribir el cálculo clásico de Hearst, y estoy seguro (nadie me ha convencido todavía) de que no funcionará peor que los algoritmos indicados.
Al menos sabré con seguridad que estoy calculando a Hearst.
PD: Creo que todo es cuestión de afluencia, sólo me gustaría poder resolver mis propios problemas.
Por supuesto, formalmente, no hay ningún archivo - ¿por qué lo necesito? No creo ningún archivo para los cálculos. Todos los datos se almacenan simplemente en matrices, y los datos necesarios se muestran en el gráfico.
En el algoritmo de Vladislav, la entrada es la diferencia entre el precio de la barra actual y la proyección del canal de regresión lineal calculado para la muestra que no incluye la barra actual.
La fórmula de cálculo sigue siendo la misma H=log(R/S)/log(0,5*N).
De hecho lo es y se ha dicho un millón de veces en este hilo.
Sí, modificación profunda - específicamente para resolver nuestro problema.
Me parece que la regresión utilizada para determinar Hurst debería extraerse del final de la curva. Probablemente se puede tomar la pendiente del canal obtenido como criterio del tamaño del intervalo. En cuanto supere, digamos, el 3-5% de Log(R/S) (es decir, empiece a divergir), ponle un punto.
Diferentes fuentes divergen en esta cuestión. Y ni siquiera se trata tanto de la media como de la R/S. Mucha gente cree que el sko debe tomarse para la muestra más grande N y sólo la dispersión debe tomarse para la muestra n. Yo, sin embargo, creo que este enfoque no tiene sentido matemático (ni físico). Todos los valores del cálculo deben referirse a la misma muestra.
Definitivamente probaré sus recomendaciones. Estamos de acuerdo en la elección de la media y la RMS. He implementado este enfoque en mi algoritmo (si no me he equivocado).
En las fuentes también me confunde el hecho de que todos los cálculos se basan en un año. Un año en la naturaleza es un ciclo. Ningún ingeniero hidráulico opinará sobre si la presa reventará o no reventará basándose únicamente en los datos de un verano seco de tres meses. Y esta filosofía aún no se puede trasladar a las cotizaciones: cuánto hay que tomar N, cuáles son los criterios. Sólo hay razonamientos vagos sobre el tema. Por supuesto, todo depende del objetivo.
Tengo otra petición para ti. No es muy conveniente pedirlo (pero tengo que ser descarado, lo siento), pero ¿podría echar un nuevo vistazo a mi código en busca de desviaciones de la lógica de cálculo y errores? No te pido que lo escribas, lo haré yo mismo. Bastará con decir que aquí hay tal o cual error, mira tal o cual fórmula.
En el algoritmo de Vladislav, la entrada es la diferencia entre el precio de la barra actual y la proyección del canal de regresión lineal calculado para la muestra que no incluye la barra actual.
La fórmula de cálculo sigue siendo la misma H=log(R/S)/log(0,5*N).
Debo haberme expresado mal. Me refería a la afluencia en sí, por supuesto, no a la presencia de un archivo. En su algoritmo está formalmente ausente.
Y realmente no tiene sentido "fastidiar" los datos, mi Hurst no va a coincidir con tu Hurst. :o))))
De hecho lo es y se ha dicho un millón de veces en este hilo.
Se ha dicho millones de veces sobre el indicador Hear st y los enfoques y el tratamiento del mismo como indicador Hearst.
Ya he intentado explicarte con detalle por qué este cálculo del libro es adecuado, pero por lo visto sigues teniendo tu propia opinión. Bueno, tienes derecho a ello.
Agradezco las explicaciones. Pero no he encontrado ninguna confirmación de ellos. Nada impide calcular el Hearst con estas metodologías (varias fuentes lo hacen, incluidos los mercados).
Esperamos su algoritmo. ¿Y si realmente resulta ser más preciso? Pero primero debes definir claramente el problema para el que vas a buscar tu algoritmo "clásico".
Gracias por su apoyo. Intentaré hacerlo lo mejor posible, espero sus consejos y su participación. :о))))