Estadística de la dependencia entre comillas (teoría de la información, correlación y otros métodos de selección de características) - página 11

 
HideYourRichess:

El concepto de entropía de la información fue introducido por Shannon para los símbolos independientes. Si no me cree, consulte un diccionario académico. No voy a discutir más con usted sobre este tema. No se puede calcular la entropía de la información para el mercado porque no se conoce el alfabeto, no se conoce la frecuencia de los símbolos y tampoco se conoce la independencia de los símbolos.

La siguiente cuestión, la entropía condicional, es sólo el caso en el que hay dependencias entre el alfabeto original. Esto no es lo mismo que la entropía de la información de la que se habla.

No entiendo qué conclusiones sacas del ejemplo del archivero, pero te diré lo siguiente. La tarea del archivero es traducir la entropía condicional en entropía informativa. Es decir, crear un alfabeto limitado perfectamente definido, cuyos caracteres, en la secuencia resultante, sean lo más independientes posible. Si se mezcla la estructura ordenada de un texto literario a nivel de letras, por supuesto que esas secuencias de letras se romperían y la compresión se deterioraría. Hasta el punto de que ya no se puede comprimir un conjunto de letras completamente aleatorio.


Su formulación de la pregunta me parece, de entrada, paradójica. Si obtenemos un valor distinto de 0 como resultado del cálculo de la información mutua, entonces hemos tomado un alfabeto con dependencias. Si estudiamos valores independientes, la información mutua será siempre 0 (o muy cerca de ese valor).
 
La entropía mutua no es lo mismo que la entropía convencional y no es lo mismo que la entropía informativa.
 
TheXpert: ¿Qué son los números no alfabéticos?

Alfabeto - pero no un sistema numérico.

Elección del alfabeto.

De acuerdo, que así sea. He construido el alfabeto de esta manera:

Encuentro la distribución incondicional de los rendimientos a lo largo de toda la historia (EURUSD, H1, unos 10 años). El histograma es más o menos conocido. Se trata de una curva parecida a una campana de Gauss, pero con diferencias cercanas a cero y en las partes de la cola. No lo dibujaré aquí.

Luego elijo en cuántos cuantiles voy a dividir la distribución. Digamos, por 30. Este será el alfabeto. Aquí está:

0: [-10000.000; -305.000),2166
1: [-305.000; -210.000),2167
2: [-210.000; -161.000),2166
3: [-161.000; -130.000),2166
4: [-130.000; -110.000),2166
5: [-110.000; -90.000),2167
6: [-90.000; -80.000),2166
7: [-80.000; -60.000),2166
8: [-60.000; -50.000),2166
9: [-50.000; -40.000),2167
10: [-40.000; -30.000),2166
11: [-30.000; -20.000),2166
12: [-20.000; -10.000),2166
13: [-10.000; -10.000),2167
14: [-10.000; 0.000),2166
15: [0.000; 10.000),2166
16: [10.000; 20.000),2167
17: [20.000; 24.000),2166
18: [24.000; 30.000),2166
19: [30.000; 40.000),2166
20: [40.000; 50.000),2167
21: [50.000; 62.000),2166
22: [62.000; 80.000),2166
23: [80.000; 90.000),2166
24: [90.000; 110.000),2167
25: [110.000; 136.000),2166
26: [136.000; 170.000),2166
27: [170.000; 211.000),2166
28: [211.000; 300.000),2167
29: [300.000; 10000.000),2167

Explicación: primero viene el número del cuantil (de 0 a 29). Luego viene el semi-intervalo que caracteriza los límites del cuantil en pips de cinco dígitos. Por ejemplo, el cuantil 22 corresponde a una rentabilidad positiva de 62 a 80 pips. Y el último número es el número de valores que caen dentro de ese cuantil (para controlar la corrección del desglose en cuantiles).

Sí, no es muy bonito para grandes rendimientos, ya que en realidad los rendimientos pueden ser de hasta unos 3000 puntos nuevos. Bueno, esas son colas gordas, no se puede evitar...

Este alfabeto me resultaba conveniente, concretamente para calcular el criterio de chi-cuadrado. Era conveniente porque incluso para desviaciones muy graves de la independencia, la frecuencia mínima de aciertos conjuntos no era inferior a 5 (es una condición para la corrección de la chi-cuadrado). Tal vez sería mejor una elección diferente del alfabeto.

Y, en general, digamos que con un número de cuantiles de 50, los límites interiores de los cuantiles más externos se desplazan a unos 380 puntos nuevos (en lugar de los 300 anteriores). Esto es mejor, pero todavía no es genial.

 
Mathemat:

Luego elijo en cuántos cuantiles quiero dividir la distribución. Digamos que 30. Este será el alfabeto. Eso es lo que es:

Si no te importa, ¿podrías decirme cómo se analizan los datos usando alfabeto? Actualmente estoy luchando con un problema similar, hasta ahora lo estoy analizando usando NS en Matlab.

¿Existe alguna forma de analizar los datos presentados como alfabeto aparte del NS?

 
Mathemat:

Esbastante realista. No he notado ningún límite, pero es posible hacer sumas y logaritmos en MQL4. No sé lo que hizo Sergeev. Pero por lo que sé de otras fuentes, la parte más difícil de los cálculos era el cálculo de la función gamma. La IT estaba fuera de lugar.


La gente escribió el indicador de acuerdo con el artículo de Y.Sultonov "Modelo de regresión universal para la previsión de precios de mercado" - aquí en Kodobase.

¿Se utilizan construcciones similaresallí? ¿O no?

 
HideYourRichess:
La entropía mutua no es lo mismo que la entropía convencional y no es lo mismo que la entropía de la información.

Te estás alejando de la cuestión. ¿Para qué sirve aplicar la estadística de información mutua si exigimos que el sistema sea independiente de los valores aleatorios? La información mutua será cero en ese caso. Está escrito por todas partes.

También diré que la introducción del concepto de entropía en la CT fue típica de la escuela soviética. Los estadounidenses dan la siguiente fórmula clásica de cálculo de la información mutua:

Es decir, aquí no existe la entropía como concepto.

 
HideYourRichess: Shannon introdujo el concepto de entropía de la información para símbolos independientes. Si no me cree, consulte un diccionario académico.

Encontré un artículo sobre la entropía de la información (Wiki). Cita 1 de allí:

Laentropía es la cantidad de información por mensaje elemental de una fuente que produce mensajes estadísticamente independientes.

Es entropía, entropía normal. ¿Es esa la definición a la que te refieres?

Sí, estoy de acuerdo en que las letras del alfabeto deben ser estadísticamente independientes para que no haya redundancia ni dependencias. Esto es, a grandes rasgos, lo que hace el archivero, que crea un alfabeto claramente diferente del utilizado para crear el texto.

Pero eso no es lo que estamos contando. Lo que contamos es lo siguiente.

Además, ya te han dado la cita 2 del mismo sitio:
Entropía condicional

Si la secuencia de símbolos de un alfabeto no es independiente (por ejemplo, en francés la "q" va casi siempre seguida de la "u", y la palabra "vanguardia" en los periódicos soviéticos solía ir seguida de "producción" o "trabajo"), la cantidad de información que transporta una secuencia de tales símbolos (y, en consecuencia, la entropía) es obviamente menor. La entropía condicional se utiliza para dar cuenta de estos hechos.

Esto es diferente, y usted ya ha escrito sobre ello:

HideYourRichess : La siguiente pregunta, la entropía condicional, es exactamente el caso cuando hay dependencias entre los caracteres del alfabeto original. Esta cosa no es lo mismo que la entropía de la información en cuestión.

El discurso del tópico (y el mío también) no era sobre la entropía informativa, sino, maldita sea, ¡¡¡información mutua (Wiki de nuevo)!!!

Lainformación mutua es una función estadística de dos variables aleatorias que describe la cantidad de información que contiene una variable aleatoria en relación con la otra.

La información mutua se define a través de la entropía y la entropía condicional de dos variables aleatorias como [a continuación viene la fórmula de I(X,Y)

Ahora, su argumento final:

HideYourRichess : La tarea del archivero es traducir la entropía condicional en entropía informativa. Es decir, crear un alfabeto acotado perfectamente definido, cuyos caracteres, en la secuencia resultante, sean lo más independientes posible. Si se mezcla la estructura ordenada de un texto literario a nivel de letras, por supuesto que esas secuencias de letras se romperían y la compresión se deterioraría. Hasta el punto de que ya no se puede comprimir un conjunto de letras completamente aleatorio. ¿Y qué? ¿Qué tiene eso que ver con el bazar?

El argumento es que no se trata de lo que usted llama entropía de la información, sino de la información mutua. Eso es todo. Punto y aparte. Se acabó la discusión.

 
IgorM:

Si no te importa, ¿podrías decirme cómo se analizan los datos usando alfabeto? Actualmente estoy luchando con un problema similar, hasta ahora lo estoy analizando usando NS en Matlab.

¿Existen otras formas de analizar los datos representados en forma de alfabeto además de NS?

Para ser sincero, no entiendo muy bien su pregunta. Sólo hay que asignar un número ordinal a cada carácter del alfabeto, y luego analizar los números como de costumbre. Tal vez haya algo específico, pero no soy consciente de ello.

Roman: La gente escribió el indicador según el artículo de Sultonov "The Universal Regression Model for Market Price Forecasting" - aquí en kodobase.

¿Hay construcciones similares que se utilicenallí? ¿O no?

¡No hay ni siquiera una pizca de terver/estadística o teoría de la información allí! Yusuf publicó su post en este hilo, pero resultó ser una ocurrencia posterior ya que no tiene nada que ver con el tema de discusión. Aunque... Sí, los logaritmos parecían estar ahí...
 
Mathemat:

¡No hay ni siquiera una pizca de terver/estadística o teoría de la información allí! Aunque... Sí, había logaritmos, creo...

Sólo digo que las curvas y garabatos de aquí y de aquí se me parecen mucho... :-))), incluyendo la presencia de una distribución gamma, por lo que las aproximaciones a la solución deberían ser SIGNIFICATIVAMENTE similares.

¿Es posible algo así, al menos de forma constante?

 

La cuestión es que la función de distribución gamma aparece en el artículo como si saliera de la nada, supuestamente resolviendo una difuria de movimiento determinista, pero no como resultado de un análisis estadístico o terverso. Roman, hasta ahora no veo ninguna similitud en los enfoques de la solución, ni siquiera de forma convencional.

Pero si se mira con atención, todavía se puede encontrar alguna similitud, por ejemplo, en la palabra "distribución", que también se encuentra en el artículo de Yusuf:)