Estadística de la dependencia entre comillas (teoría de la información, correlación y otros métodos de selección de características) - página 20

 

Gracias. Lo he descargado y he echado un vistazo.

Así que discretizaré utilizando un esquema de división por cuantiles, de esa manera la función de densidad de probabilidad será uniforme. Mediré la información mutua para 500 rezagos y publicaré un gráfico.

 

Y para empezar:

El tipo de función de densidad de probabilidad para sus datos brutos:

Corresponde a una distribución normal.

A continuación, un autocorrelograma sobre la serie original de sus valores hasta el lag 50:

Se puede ver que, en general, las correlaciones no son significativas, aunque se cuela alguna correlación en algunos rezagos.

Por último, tomé los valores de su serie al cuadrado y tracé un autocorrelograma para observar únicamente la densidad de la "volatilidad":

Observo que la volatilidad depende de sus valores pasados cercanos. Todo es similar a las cotizaciones diarias de los índices bursátiles y un poco similar a las cotizaciones diarias del EURUSD (publicaré el cálculo para ellos más adelante).

Esperamos los resultados del cálculo de I(X,Y).

 
alexeymosc: A la espera de los resultados del cálculo de I(X,Y).

Genial, estamos esperando, Alexey.

Después de sus resultados para I(X,Y) puedo cargar los datos en mi script de cálculo de chi-cuadrado. No creo que salga algo útil (esta es mi suposición a priori).

 

Pido disculpas por el retraso. Internet no funciona.

Empezaré por la parte metodológica. He discretizado la serie en 5 valores (cuantiles). ¿Por qué? Cuando se calculan las frecuencias cruzadas para la variable objetivo y la dependiente se obtienen 25 opciones, si se dividen 10.000 entre 25 se obtienen 400. Se trata de una muestra estadísticamente significativa. Se puede hacer de 3 a 7; en mi opinión, tomé el punto medio.

Así se calcula la información media del receptor (variable objetivo);


Observo que para cualquier retardo, el cálculo de la información media dará un valor similar (a menos que, por supuesto, hayamos discretizado las variables independientes dentro de un alfabeto de longitud diferente).

Se trata del cálculo de la entropía cruzada para las variables objetivo y dependientes:

Histograma de valores de información mutua sobre la serie temporal original :

Sólo puedo señalar los primeros rezagos que sobresalen del panorama general. Es difícil decir algo sobre el resto.

También hice lo siguiente. Como los datos eran normales, generé 10.000 números aleatorios con la misma media y desviación estándar en Echel. He contado la información mutua para 500 rezagos. Esto es lo que salió:


Puedes ver a ojo que los primeros rezagos ya no son tan informativos.

El resto de las métricas sobre las muestras resultantes de los valores de información mutua deben ser eliminadas y comparadas. Así que:

Suma de información mutua para 500 variables de la serie original: 0,62. Para la serie aleatoria: 0,62. Esto significa que la media de las muestras también será igual. Ponga la primera marca de verificación en el supuesto de que la serie original no difiere mucho de la serie aleatoria (incluso teniendo en cuenta la dependencia de la volatilidad).

Realicemos pruebas no paramétricas para confirmar la hipótesis de insignificancia de las diferencias entre las dos muestras experimentales.

Prueba de Kolmogorov-Smirnov (para muestras sin consideración del orden de las variables y con funciones de densidad de probabilidad desconocidas a priori): p > 0,1 al nivel de significación de 0,05. Rechazamos la hipótesis de que la diferencia entre las muestras sea significativa. Coloque la segunda marca de verificación.

Como resultado tenemos: la serie inicial es insignificantemente diferente de la serie aleatoria como se demostró utilizando la estadística de información mutua.

En este caso, la dependencia de la volatilidad no tuvo un fuerte impacto en la apariencia del histograma. Sin embargo, hay que recordar que hice el muestreo de manera diferente para el DJI.

 
Mathemat:

Muy bien, esperamos, Alexei.

Después de sus resultados en I(X,Y) puedo cargar los datos en mi script de cálculo de chi-cuadrado. No creo que salga algo útil (es mi suposición a priori).

Yo también estoy silenciando a priori la verosimilitud bayesiana...

Vea los escorzos.

:)

ruido - como se vio originalmente.

Y tus investigaciones de Alexei son más sabias.

Pero Poisson es mi amigo.

 
La prueba de Mann-Whitney dio un valor p de 0,46. También rechazamos la hipótesis de que las diferencias entre las muestras sean significativas.
 
Chicos, ahora analizaré los diarios del EURUSD de forma similar. ¡Veamos!
 

¡gracias Dougherty!

¡Tú eres el indicado!

Encantado de conocerte.

 
alexeymosc:
Chicos, ahora analizaré los diarios del EURUSD de forma similar. ¡Veamos!

Pruebe con los watchbooks en su lugar. Hay poca información mutua en el gráfico diario.

P.D. El resumen preliminar es el siguiente: GARCH(1,1) mostró algún tipo de agrupación de volatilidad, similar a la eh... heteroscedasticidad, pero, como era de esperar, no aporta ninguna información. ¿Tal vez habría que aumentar los órdenes de magnitud, es decir, los argumentos del modelo?

 

Datos del servidor A-ri, EURUSD D1. Tomó los incrementos de la serie en los precios de cierre vecinos. Discretizado por 5 cuantiles.

Veamos qué ha deparado el cálculo de la información mutua:

Podemos ver que los 100-200 rezagos más cercanos llevan más información que los demás.

Ahora vamos a mezclar aleatoriamente los incrementos y obtener una serie aleatoria. Calculemos el VI:

Vaya. Ya no se puede ver ninguna información sobre los rezagos más cercanos.

Comparemos visualmente los resultados:

Los rezagos más cercanos muestran claramente la preponderancia de la serie original (azul).

Tomé una media móvil con ventana 22 (mes) en los valores I para la serie original y la aleatoria:

Claramente, la serie original (azul) tiene una memoria de información diferente de la aleatoria (dejemos la discusión de la naturaleza de esta información para el postre) en los rezagos cercanos hasta unos 200 recuentos.

¿Qué dicen las pruebas no paramétricas?

Prueba de Kolmogorov-Smirnov:

p < 0,001

Prueba de Mann-Whitney:

p = 0,0000.

Rechazamos la hipótesis de insignificancia de las diferencias entre las muestras. O bien, la serie de rentabilidad del EURUSD D1 es muy diferente de los datos aleatorios con características similares en términos de media y dispersión.

Ugh. Voy a tomar un descanso para fumar.