FR Volatilidad H - página 9

 
Yurixx:

Necesito visualizarlo de alguna manera para describir la lógica de la toma de decisiones,


A veces ayuda visualizar el diagrama de Voronov, sólo hay que entender qué poner en los ejes X e Y. Aquí hay un ejemplo con explicaciones, algo que logré desenterrar en Internet.
Archivos adjuntos:
doc.zip  631 kb
 
Yurixx:

Incluso con un número no muy grande de parámetros, el espacio de fase del sistema resulta ser demasiado multidimensional para la percepción humana. Si el planteamiento es correcto y las estimaciones elegidas permiten la agrupación del espacio de fases, la ubicación y la forma de los grupos pueden tener una topología muy compleja. O bien tenemos que visualizarlo de alguna manera para describir la lógica de la decisión, o bien introducir ciegamente clases y criterios de pertenencia. NS es mucho mejor en esto, así como en las evaluaciones probabilísticas (como podemos ver).


Si lo he entendido bien, el investigador necesita preparar los datos de entrada para el NS de antemano con el fin de lograr la "agrupación del espacio de fase". En este caso, el NS asignará de forma independiente áreas "significativas" en el espacio de fase multidimensional (PS) de los parámetros de entrada y sus combinaciones arbitrarias que reducirán significativamente el volumen del PS y, en consecuencia, el volumen de los cálculos necesarios. ¿Verdad?

Pero no entiendo cuáles son las "evaluaciones probabilísticas" que NS "maneja mucho mejor".

 
Prival:
A veces el diagrama de Voronov ayuda a la visualización, pero hay que saber qué poner en los ejes X e Y. Aquí hay un ejemplo con explicaciones, algo que logré desenterrar en la web.

Corrígeme si me equivoco. El diagrama de Voronov muestra la frontera óptima (en cierto sentido) de la partición del espacio en la que se dan las condiciones de contorno para una clase dada de ecuaciones diferenciales. ¿Cómo se relaciona esto con el tema que nos ocupa?
 

Neutrón

Lo siento realmente no tiene nada que ver con la volatilidad H FR, tiene que ver con NS, o más bien con la teoría del reconocimiento, un diagrama a veces ayuda a visualizar las clases y cómo desglosarlas.

Acabo de ver la pregunta y he intentado ayudar.

 
Neutron:


Si te he entendido bien, el investigador debe preparar primero los datos de entrada para el NS con el fin de lograr la "agrupación del espacio de fase". En este caso, el NS asignará de forma independiente áreas "significativas" en un espacio de fase (PS) multidimensional de parámetros de entrada y sus combinaciones arbitrarias que permitirán disminuir considerablemente el volumen del PS y, en consecuencia, el volumen de los cálculos necesarios. ¿Verdad?

Pero no entiendo cuáles son las "estimaciones probabilísticas" de que el NS "se maneja mucho mejor".


La agrupación de PFs es una tarea independiente y es realizada por la Kohonennet. Se trata de una red de una capa, que en el proceso de aprendizaje (¡sin profesor!, es decir, de autoaprendizaje) realiza la agrupación de los PF. A continuación, se ajusta una función kernel a estos datos, que describe la distribución de los clusters. A continuación se construye una red probabilística, que (por lo que he entendido) en la versión más simple ni siquiera requiere entrenamiento, sino que simplemente utilizando la estadística bayesiana considera la probabilidad de que la nueva muestra pertenezca a un cluster determinado. El resultado es el grupo ganador. Se trata de un esquema lo más simplificado posible.

La arquitectura de la NS, la forma de preparar los datos de entrada y el algoritmo de aprendizaje son los tres pilares en los que se basa todo. Como puede ver, cada uno de los tres componentes implica algo no formalizable. Por lo que tengo entendido, esto es lo que la NS hereda de su creador, lo que le permite funcionar con éxito. Y los números -pesos y parámetros de la función de activación- son sólo un apéndice. Todo el mundo tiene cabeza, pero algunos piensan con ella y otros comen con ella. :-)

 

Gracias, Yura. Gran respuesta.

Si no le importa, haré una pregunta sobre la aplicabilidad de la NS. Por ejemplo, me referiré a mis construcciones de carneros - Kagi. Tenemos un Zig-Zag generador (línea azul) y una línea de transacción (roja).

De la teoría (tesis de Pastukhov) se desprende que el comportamiento de la línea roja es estadísticamente predecible y es probable que (el comportamiento) sea en zigzag con la amplitud S=(H-volatilidad-2)*H. Es el rendimiento estadístico medio de la estrategia en una muestra representativa. Por desgracia, el valor estimado suele ser menor que el diferencial. Y esto es todo lo que el método estadístico de análisis de series temporales puede darnos en este caso.

Por otro lado, tenemos un Zig-Zag generador cuyo retorno (prácticamente imposible de realizar) para un intervalo de tiempo fijo, es el máximo posible para un paso de partición H dado, y el retorno, por ejemplo con la partición H=spread, es el máximo posible para cualquier PA. ¡Me gustaría tener en mis manos una herramienta capaz de predecir el Zig-Zag! O, al menos, demostrar la posibilidad, en principio, de tal predicción con un rendimiento superior al dado por el método de las estadísticas (S).

¿He entendido bien que el problema en esta formulación es adecuado para el análisis con NS?

P.D. Me parece que predecir el Zig-Zag equidistante (con un solo paso) es la mejor opción. En segundo lugar, nos deshacemos de la dimensionalidad relacionada con la escala de tiempo - no es necesario, porque negociamos sólo el cambio de precios, y el intervalo de tiempo, durante el cual este cambio se produjo, en la primera aproximación no se incluye en la rentabilidad.

 
Neutron:

¡Me gustaría tener en mis manos una herramienta capaz de predecir el Zig-Zag! O, al menos, demostrar que es posible, en principio, hacer esas previsiones con rendimientos superiores a los que da el Statmethod (S).

¿He entendido bien que el problema en esta formulación es adecuado para el análisis con NS?

P.D. Me parece que predecir el Zig-Zag equidistante (con un solo paso) es la mejor opción. En segundo lugar, nos deshacemos de la dimensionalidad relacionada con la escala de tiempo - no es necesario, porque negociamos sólo el cambio de precios, y el intervalo de tiempo, durante el cual este cambio tuvo lugar, en la primera aproximación no se incluye en la rentabilidad.


Teóricamente, por supuesto, es adecuado. Pero prácticamente...

En las pocas cosas que he leído en las redes abundan los consejos para los principiantes: predecir el comportamiento de los precios es ineficaz. De hecho, si lo piensas, ¿cómo va a saber la red de repente cómo se va a mover el precio en el futuro? ¿Sólo porque lo llenamos de un montón de neuronas y lo alimentamos con un montón de datos? En este asunto soy racionalista. Este conocimiento no aparece de la nada y no nace por sí mismo. Por algo escribí lo de las tres ballenas. Además de estas ballenas, la fuente de la que se extraen es aún más importante: la intención del autor. Y en este concepto debe haber una idea de qué datos y en qué forma pueden contener la información esencial sobre el mercado, cómo deben ser procesados en la red para obtener otros números de los que se pueda extraer una conclusión significativa para la toma de decisiones y, finalmente, cómo enseñar a la red a encontrar estos números.

Desde este punto de vista, imho, el problema en esta formulación, aunque adecuado para la red, es complicado y tiene poca perspectiva. Como los ticks y el zigzag construido sobre ellos tienen distribuciones bastante similares y no es más fácil predecir el zigzag que el precio.

Me parece que el ZigZag es realmente interesante para utilizarlo como entrada de red, pero como la forma más conveniente de representación de patrones de precios. Esos mismos patrones, el enlace a la web que me has dado, podría ser una opción muy interesante. Pero en este caso la red no predice el precio, sino que determina el estado del mercado. Este es un enfoque ligeramente diferente. Para NS, dar una salida estadística hacia arriba o hacia abajo es una tarea mucho más realista que predecir el movimiento. Pero esta variante combina bien con ZigZag. Así que hay perspectivas, sólo tenemos que hacer el planteamiento del problema de tal manera que sea solucionable.

 

Gracias, Yura, por las lúcidas explicaciones; ahora tengo la cabeza un poco más clara.

Por cierto, estaba tan seguro de que la línea de transacción FR (la roja de la imagen anterior) tiene una distribución normal, que ni siquiera quise estudiar este punto. Cuál fue mi sorpresa cuando vi ESTO:

De acuerdo, un resultado inesperado... Compáralo con la foto del primer post de este hilo. Allí se da el FR para los lados del Zig-Zag.

 

Sí, es una imagen interesante. Si he entendido bien, ¿es para la partición de cagi con el parámetro H=10? Pero sigue siendo evidente una cierta conexión con la imagen del primer post.

Por cierto, se me ocurrió una idea. Creo que, de todas formas, tenías razón sobre la perspectiva de usar NS para la predicción de ZigZag. Sólo que no debería ser un kagi, sino un edificio renko. En ese caso sí es posible una formalización más o menos clara de los patrones de ZigZag, y por tanto la agrupación del espacio de esos patrones, y la predicción de los tamaños de los segmentos junto con la evaluación estadística de la validez de esa predicción. Me interesa su valoración de este pensamiento. El punto principal es la diferencia entre kaga y renko. Para renko tengo claro cómo se pueden formalizar los patrones y, por tanto, cómo compararlos entre sí y cómo evaluar su proximidad. En el caso de kaga, la imagen es muy borrosa y, por tanto, el mismo procedimiento puede no funcionar.

Por otro lado, sé a priori que lo que es cierto para kaga también lo será para renko. Sin embargo, no estoy seguro de lo que ocurre a la inversa. Si lo contrario también es cierto, entonces mi sesgo hacia renko es una falacia y NS puede aplicarse igualmente para predecir el tamaño del segmento de cualquier ZigZag, tanto renko como kaga.

¿Qué opinas?

 

Por un lado, las construcciones de Kagi determinan la posición del extremo del PA con una precisión al punto (Renko al paso de partición H). Por otro lado, no está claro si necesitamos tal precisión. En este sentido, Renko parece más atractivo debido al paso equidistante H en la escala de precios. En resumen, hay que investigar la cuestión.

En cuanto a la formalización de la tarea de previsión del Zig-Zag, se me presenta como una estimación de una amplitud probable de movimiento U del precio (vector rojo) desde el punto de finalización de la formación del extremo actual t=0, hasta el punto del extremo esperado t=1 (ver Fig. ).

En esta configuración lo único que hay que predecir es la amplitud del movimiento del vector U, porque su dirección está predefinida - coincide con la dirección del vector H (flecha sólida verde). El rango que puede recibir el vector U va desde 0 puntos hasta el infinito (ver fig. de la derecha). El valor más probable de la amplitud que toma el vector U es de 2 puntos y su valor medio es algo inferior a N. Por cierto, si un valor probable fuera mayor que la dispersión, podríamos considerar que esta estrategia es positivamente rentable. Me refiero a la posible aplicación de FR para el análisis de arbitraje de BP.

Por supuesto, a la salida de NS hay que aplicar un Zig-Zag, pero qué aplicar a la entrada... ¿también un Zig-Zag desplazado un paso? Pero, ¡no necesitas a NS para analizar esta situación! Creo que nuestra tarea consiste en detectar el arbitraje incipiente desde el principio (véase la figura). Para ello, ya tenemos que analizar la familiaridad de la línea de transacciones. Excepto, el problema es que por lo general consiste en 1-2 más raramente 3 torceduras y por el momento de la identificación el mercado se vuelve eficiente. Tal vez haya algunos indicios indirectos del origen del arbitraje, entonces la tarea de su detección temprana, clasificación y modernización constante sólo depende de NS.

¿Qué te parece?

He leído en Internet:

Что лучше, статистические методы или нейронные сети? Лучшим ответом на этот сугубо практический для прикладника вопрос является “It depends”. По-русски это означает “Все зависит от ситуации”.

La principal conclusión práctica que se puede extraer se reduce a la frase, que ya se ha convertido en un aforismo: "Si nada ayuda, prueba con las redes neuronales".