Modelo de mercado: rendimiento constante - página 3

 

La idea en sí es curiosa, pero el mensaje subyacente es realmente extraño. A mí personalmente no me gusta. Si la cantidad de información es siempre aproximadamente constante, entonces no hay mucho que hacer en el mercado. Pero no es así. En el mercado hay catástrofes regulares en las que la cantidad de información cambia exactamente (como la transición a otro estado de fase).

 

El hombre propone analizar los bits de información comprimida, para predecir una nueva "trama" en el flujo, ¿qué, por ejemplo, es mejor que una trama MPG4 comparada con una trama MPG1 para predecir la siguiente trama?

Tal vez sea más fácil seguir la trama de la película :)

 
hrenfx:

La información es un conjunto de bits que no se puede comprimir de ninguna manera para transmitirla.

Se supone que el mercado, como sistema relativamente cerrado, genera una cantidad constante (o lentamente cambiante) de información por unidad de tiempo.

¿Qué significa esto?

Los datos de mercado son todo lo que se puede obtener del mercado. Lo más sencillo son los precios.

Que la unidad de tiempo sea el Tiempo. Se supone que siempre en el tiempo la cantidad de información en el mercado es N. Es más sencillo:

Hemos recogido durante el tiempo los datos del mercado. Lo comprimimos al máximo (es imposible comprimirlo más), obteniendo así un conjunto de bits incompresibles - es la información cuya cantidad es constante(N) para la unidad de tiempo Tiempo.

Comprimir al máximo es una teoría. Hay muchos algoritmos de compresión. Cuanto más potente sea el algoritmo de compresión, más cerca estará de estimar la cantidad de información contenida en los datos disponibles. Es decir, no podemos determinar exactamente la cantidad de información, pero podemos estimarla.

Aquí se describe cómo utilizar este modelo para operar.

La verificación de la adecuación del modelo no es muy difícil. Basta con tener una gran cantidad de datos históricos del mercado. Tome una ventana deslizante del tamaño del tiempo. Y para cada posición de la ventana, realizar la compresión (los algoritmos pueden ser diferentes) obteniendo el número de bits. Como resultado obtendremos la estimación de la cantidad de información de BP. Sólo queda analizar esta BP y sacar las conclusiones oportunas.



Claude Shannon, que por cierto abandonó su carrera científica y ahora se rumorea que se dedica al mercado de valores, introdujo la noción de medida de la información:

un evento que tiene M resultados posibles Xi con probabilidad P[Xi], que describe la probabilidad de ocurrencia del i-ésimo resultado, contiene

información, cuyo valor está definido por la expresión:

I[Xi] = ln(1/P[Xi]) = - ln P[Xi]

El valor esperado o medio de esta información I es igual a la entropía H,

Es decir, la entropía es una medida de incertidumbre, ¿recuerdas la temperatura media de un hospital? :))) Aquí,

eso es incertidumbre, entropía :).

"La información es un conjunto de bits que de ninguna manera se puede comprimir para transmitir" ¡Suena!

Pero me parece que la única forma en que un conjunto "no puede sercomprimido de ninguna manera" es

un conjunto formado por un solo bit, es decir, cuando no hay redundancia, entonces hay

¡no hay nada que comprimir! Es decir, cuando este bit toma uno de los dos valores "0" o "1", ¡pero!

¡es una completa certeza! Así que está expresando la esperanza de que haya procedimientos que puedan

la aleatoriedad contenida en el mercado de divisas, que hay procedimientos que pueden completamente

para eliminar esa aleatoriedad hasta el punto de no poder ir más allá? Y es aún más imposible porque el mercado de divisas no es un sistema de bucle cerrado .

Esto se demuestra por la fuerte no estacionariedad, es decir, la volatilidad de los parámetros estadísticos, las cotizaciones de los pares de divisas y

La visión empírica del mercado como una combinación de análisis técnico y análisis fundamental, que como saben

se ocupan, respectivamente, del estado de ánimo interno del mercado y del análisis de la situación externa al mismo.

Por eso escribí tanto, porque tus, hipótesis me parecían completamente al revés.

 
TheVilkas:

Conozco los fundamentos de la teoría de la información. Parece haber dado una definición ambigua de información. Permítanme parafrasear:

La cantidad de información contenida en los datos es el número mínimo de bits necesarios para recuperarlos.

Es decir, el número de bits de los datos máximos comprimidos (recuperables) es la cantidad de información de esos datos. La llamada información pura contenida en los datos.

 
hrenfx:

La información es un conjunto de bits que no se puede comprimir de ninguna manera para transmitirla.

Se supone que el mercado, como sistema relativamente cerrado, genera una cantidad constante (o lentamente cambiante) de información por unidad de tiempo.

¿Qué significa esto?

Los datos de mercado son todo lo que se puede obtener del mercado. Lo más sencillo son los precios.

Que la unidad de tiempo sea el Tiempo. Se supone que siempre en el tiempo la cantidad de información en el mercado es N. Es más sencillo:

Hemos recogido durante el tiempo los datos del mercado. Lo comprimimos al máximo (es imposible comprimirlo más), obteniendo así un conjunto de bits incompresibles - es la información cuya cantidad es constante(N) para la unidad de tiempo Tiempo.

Comprimir al máximo es una teoría. Hay muchos algoritmos de compresión. Cuanto más potente sea el algoritmo de compresión, más cerca estará de estimar la cantidad de información contenida en los datos disponibles. Es decir, no podemos determinar exactamente la cantidad de información, pero podemos estimarla.

Aquí se describe cómo utilizar este modelo para operar.

La verificación de la adecuación del modelo no es muy difícil. Basta con tener una gran cantidad de datos históricos del mercado. Tome una ventana deslizante del tamaño del tiempo. Y para cada posición de la ventana, realizar la compresión (los algoritmos pueden ser diferentes) obteniendo el número de bits. Como resultado obtendremos la estimación de la cantidad de información de BP. Sólo queda analizar esta BP y sacar las conclusiones oportunas.


El archivo sin pérdidas implica la compilación de un nuevo alfabeto cuya descripción + codificación de la información a archivar será de menor tamaño que la propia información. A grandes rasgos, se trata de una asignación de algunos patrones. Pero esto es efectivo para modelos como las gramáticas regulares, donde hay reglas estrictas e inequívocas, o las desviaciones de las mismas no son frecuentes. Si hay ruido, por ejemplo, la eficacia del archivo disminuye drásticamente. Si en un texto hay una palabra 100 veces, pero cada vez con un error o un par de letras intercambiadas, los algoritmos de compresión sin pérdidas no pueden mantenerla en un patrón separado. Los algoritmos de compresión con pérdidas, como los de imagen, vídeo y sonido, son eficaces en este caso. Pero todos ellos siguen sin tener en cuenta las reglas contextuales, como el cambio de las terminaciones de las palabras según el caso, etc. Por ejemplo, destacarán las combinaciones de letras más utilizadas en el texto y ya está. Lo mismo ocurre con el mercado: aislará los patrones elementales más comunes, pero no el hecho de que su uso permita una previsión probabilística. Puede ser incluso más exacto, una previsión rentable. De lo contrario, se pronosticará con un 90% de probabilidad que se mantendrá tal o cual escenario. Pero la pérdida financiera del escenario del 10% restante será la misma que la ganancia de utilizar esos 90

En resumen, todo depende del archivador. La asignación de reglas de profundidad es un trabajo para la inteligencia artificial (o natural :)), y no rar :) Y, por supuesto, lo principal no es su globalidad, sino la posibilidad de un uso rentable.

 

No entiendo el primer post del tema convertido en fórmulas, pero imho usted está tratando de hablar de la entropía

ZS: Odio la teoría de la transferencia de información, porque por un solo error tipográfico (confundí bps con baudios), mi boletín de notas obtuvo una "O" en lugar de una "A".

 
Mathemat:

La idea en sí es curiosa, pero la premisa subyacente es realmente extraña. Personalmente no me gusta. Si la cantidad de información es siempre aproximadamente constante, no ocurre gran cosa en el mercado. Pero no es así. En el mercado hay catástrofes regulares en las que la cantidad de información cambia exactamente (como la transición a otro estado de fase).


Espero que los miembros del foro recuerden este hilo.https://www.mql5.com/ru/forum/105740

la primera página

de los cuales un papel especial en la teoría de los flujos lo desempeña una función de momento de primer orden llamada intensidad de flujo (FTI):

puede ser otra forma de decir que el IP es la cantidad de información por unidad de tiempo. Un análogo de esto puede ser considerado el número de ticks por unidad de tiempo, si no se analizan también las noticias. Por cierto, en mi opinión, no se puede comprimir, comprimir (no comprimir) la cantidad de información no cambia

Z.U., lo tendrás difícil sin un tickframe. comprobar el historial tampoco funcionará https://www.mql5.com/ru/forum/1031/page1#comment_6372 el historial en forma de minutos mata esta información...

 
hrenfx:

Comprobar la adecuación del modelo no es muy difícil. Basta con tener una gran cantidad de datos históricos del mercado. Tome una ventana deslizante de tamaño Tiempo. Y para cada posición de la ventana realizar la compresión (se pueden utilizar diferentes algoritmos), obteniendo el número de bits. Como resultado obtendremos la estimación de la cantidad de información de BP. Sólo queda analizar esta BP y sacar las conclusiones oportunas.

Probado. Tomé una ventana deslizante de tamaño por día(288 M5) y desplazándola cada vez durante 5 minutos apliqué la compresión RAR y 7Z LZMA desde principios de 2010 hasta octubre de 2010 - casi 60 000 ventanas deslizantes comprimidas por cada archivador. Este es el aspecto de los gráficos del mercado FOREX(AUDUSD, EURUSD, GBPUSD, USDCHF, USDJPY, USDCAD, NZDUSD, PLATA, ORO) con tamaño de ventana comprimido:

Sorprendentemente, el RAR mostró resultados extremadamente inestables. El tamaño de las ventanas comprimidas fluctúa enormemente. 7Z LZMA mostró resultados estables y un menor tamaño de ventana comprimida. Por lo tanto, se eligió 7Z LZMA para seguir investigando.

Luego empecé a hacer lo mismo, pero varié la muestra de mercado: primero añadí un símbolo(AUDUSD), luego uno más y otro más, hasta que tuve 9 símbolos(AUDUSD, EURUSD, GBPUSD, USDCHF, USDJPY, USDCAD, NZDUSD, PLATA, ORO). La tarea consistía en averiguar cómo el archivero encuentra correlaciones con la introducción de nuevos símbolos. Si hay correlaciones, el tamaño medio de una ventana comprimida debería crecer de forma no lineal cuando se añade un nuevo símbolo. Así es como resultó:

Podemos ver que ya con 8 herramientas al menos el 20% de los datos son superfluos (no contienen ninguna información). Es decir, hay una correlación y no pequeña. Curiosamente, la adición del noveno instrumento financiero(GOLD) no reveló interrelaciones (el IM no ha disminuido). La RMS con la adición de instrumentos financieros aumentó en más de un 50%(9 instrumentos) en relación con el inicio(1 instrumento).

Los gráficos de cambio en los tamaños de las ventanas comprimidas (MO se reducen a uno) tienen el siguiente aspecto para diferentes conjuntos de instrumentos financieros:

Las distribuciones de estos gráficos:

¿Qué conclusiones se pueden sacar?

Fue imposible refutar o confirmar el modelo. Los algoritmos de compresión muestran muy bien la presencia de relaciones elementales (algoritmos muy simples) entre los instrumentos financieros (más del 20% de los datos redundantes se eliminan con 8 instrumentos financieros). Muchos dirán que es natural, porque se utiliza la conversión de sólidos. Pero no es exactamente así. El ejemplo es el Oro, para el que el archivero no puede encontrar conexión con otros 8 símbolos.

P.D. Las cruces no se han analizado intencionadamente, porque sabemos que están completamente correlacionadas con las especialidades y, por tanto, no contienen ninguna información adicional. Por lo tanto, sólo los mayores.

P.P.S Se adjuntan todos los datos sobre el tamaño de las ventanas.

P.P.P. Ha sido interesante resolver el problema. Tuve que utilizar algunos métodos nuevos. En particular, tuve que utilizar un disco RAM para realizar más de medio millón de compresiones de varias ventanas. Al final fue relativamente rápido.

Archivos adjuntos:
4analyse.rar  497 kb
 
hrenfx:

...

Si no te importa, haz lo mismo pero con la PA generada artificialmente usando RMS. Es muy interesante ver lo que sucede.
 
hrenfx:

Luego hice lo mismo, pero cambié la muestra de mercado: primero añadí un instrumento financiero(AUDUSD), luego añadí uno más hasta tener 9 instrumentos financieros(AUDUSD, EURUSD, GBPUSD, USDCHF, USDJPY, USDCAD, NZDUSD, PLATA, ORO).

¿Y cómo se produjo exactamente la adición?