De la teoría a la práctica - página 295

 
Renat Akhtyamov:
¿Dices que las líneas paralelas se cruzan (soporte y resistencia)?

¡El precio! Bueno, o la integral de los retornados.

 
Alexander_K2:

¡El precio! Bueno, o la integral de rendimientos.

Esta es una opción para utilizar la entropía

npdeneqtest Prueba no paramétrica de igualdad de densidades

npdeptest Prueba de entropía no paramétrica para la dependencia entre pares

npsdeptest Prueba de entropía no paramétrica para la dependencia no lineal en serie

npsymtest Prueba de entropía no paramétrica para la asimetría

npunitest Prueba de entropía no paramétrica para la igualdad de densidad univariante


Aquí está la documentación. Aquí están las fórmulas: Inferencia basada en la entropía utilizando R y el paquete np: un manual

Archivos adjuntos:
np.zip  2331 kb
 
Alexander_K2:

Sólo he visto la fórmula de cálculo en la Wikipedia:

Compara la distribución de probabilidad actual con una distribución normal como medida del caos.

No entiendo la idea.

Lo que entiendo de tu frase es que un proceso ordenado no puede tener una distribución normal.

¿Puedo preguntar por qué esa afirmación?

¿Cómo se relacionan el caos y la normalidad?

ZS No lo estoy refutando, me lo estoy preguntando.

 
Nikolay Demko:

un proceso ordenado no puede tener una distribución normal.


¡Es un misterio! Shhhhhh...

Por eso leo tratados filosóficos sobre la no entropía.

Por ejemplo...

 
Nikolay Demko:

Bueno, al menos dame una pista de cómo calcular esta nagentropía.

Porque estás jurando así y quieres que te entiendan.

ZZZ He buscado en Google y he indexado todo a mi antojo, pero no he encontrado nada más que frases comunes. La no entropía es lo contrario de la entropía, que es una medida de orden. Eso es todo lo que he sacado de una tarde de búsqueda en Google.

No lo he buscado en Google, pero no me imagino el cruce de líneas de soporte con líneas de resistencia; a no ser que se trate de las plumas...

 
Алексей Тарабанов:

No lo he buscado en Google, pero no me imagino cruzando líneas de soporte con líneas de resistencia; a no ser que se trate de los mash-ups de los que hablamos...

Tienen una interpretación de Copenhague. Podría haber cualquier cosa en él.

 
Yuriy Asaulenko:

La suya es una interpretación de Copenhague. Podría haber cualquier cosa en él.

¿Esperamos la reacción de nuestros estimados colegas?

 

Wikipedia escribe - El término [no entropía] se utiliza a veces en física y matemáticas (teoría de la información, estadística matemática) para referirse a una cantidad matemáticamente opuesta al valor de la entropía.
https://ru.wikipedia.org/wiki/Негэнтропия

Así que es posible calcular la entropía, y simplemente tomarla con un signo negativo para obtener la no entropía.


Calcular la entropía en R, la forma más fácil de las decenas que hay (entropía empírica):

1) hay una serie de números 2 7 4 3 7 9 4 4 4 4 1 3 10 3 8 4 9 10 7 que nos interesa.

2) cuente el número de repeticiones de cada valor:
1: 1
2: 1
3: 3
4: 7
7: 3
8: 1
9: 2
10: 2
Obtuvo una nueva fila de números 1 1 3 7 3 1 2
cuente la suma de los números
suma = 1 + 1 + 3 + 3 + 7 + 3 + 1 + 2 + 2 = 20
(lógicamente la suma == la longitud de la fila en el primer elemento)
y ahora divide:
1/20 1/20 3/20 7/20 3/20 1/20 2/20 2/20
Obtenemos:
0.05 0,05 0,15 0,35 0,15 0,05 0,10 0,10
es la densidad de distribución de los números de la serie desde el primer elemento.

3) Entropía = - suma(freq*log(freq)) (fórmula para vectores en sintaxis R. log() natural)
H = - (0,05*log(0,05) + 0,05*log(0,05) + 0,15*log(0,15) + 0,35*log(0,35) + 0,15*log(0,15) + 0,05*log(0,05) + 0,10*log(0,10) + 0,10*log(0,10) )
H sería la entropía.

4) También hay una escala allí, si el usuario quiere hacer una operación en el resultado
H / log(2)
o
H / log(10)

5) Multiplica H por -1 y obtendrás la no entropía.

 
Dr. Trader:

5) Multiplica H por -1 y obtendrás la no entropía.

Si fuera tan sencillo, no habría pedido a los respetados matemáticos que se ocuparan de esta cuestión.

Una vez más:

Es la diferencia entre la distribución de probabilidad actual de los incrementos y la gaussiana con la misma expectativa y varianza para un tamaño de muestra determinado.

El problema es que la varianza de los incrementos no se puede calcular por la fórmula habitual (lo único que saben los niños matemáticos que han inundado este foro de búsqueda y miseria). Hay que aplicar métodos no paramétricos :))

 

Además, esta fórmula tiene un profundo significado filosófico y físico. Tenemos una medida de la estructuración del proceso, su desviación del caos.

¡Caballeros! ¡Viejos y jóvenes alegres!

¡¡¡La no entropía es el parámetro que determina el estado de tendencia/plano!!!

Se lo presento.