Está perdiendo oportunidades comerciales:
- Aplicaciones de trading gratuitas
- 8 000+ señales para copiar
- Noticias económicas para analizar los mercados financieros
Registro
Entrada
Usted acepta la política del sitio web y las condiciones de uso
Si no tiene cuenta de usuario, regístrese
¿Dices que las líneas paralelas se cruzan (soporte y resistencia)?
¡El precio! Bueno, o la integral de los retornados.
¡El precio! Bueno, o la integral de rendimientos.
Esta es una opción para utilizar la entropía
npdeneqtest Prueba no paramétrica de igualdad de densidades
npdeptest Prueba de entropía no paramétrica para la dependencia entre pares
npsdeptest Prueba de entropía no paramétrica para la dependencia no lineal en serie
npsymtest Prueba de entropía no paramétrica para la asimetría
npunitest Prueba de entropía no paramétrica para la igualdad de densidad univariante
Aquí está la documentación. Aquí están las fórmulas: Inferencia basada en la entropía utilizando R y el paquete np: un manual
Sólo he visto la fórmula de cálculo en la Wikipedia:
Compara la distribución de probabilidad actual con una distribución normal como medida del caos.
No entiendo la idea.
Lo que entiendo de tu frase es que un proceso ordenado no puede tener una distribución normal.
¿Puedo preguntar por qué esa afirmación?
¿Cómo se relacionan el caos y la normalidad?
ZS No lo estoy refutando, me lo estoy preguntando.
un proceso ordenado no puede tener una distribución normal.
¡Es un misterio! Shhhhhh...
Por eso leo tratados filosóficos sobre la no entropía.
Por ejemplo...
Bueno, al menos dame una pista de cómo calcular esta nagentropía.
Porque estás jurando así y quieres que te entiendan.
ZZZ He buscado en Google y he indexado todo a mi antojo, pero no he encontrado nada más que frases comunes. La no entropía es lo contrario de la entropía, que es una medida de orden. Eso es todo lo que he sacado de una tarde de búsqueda en Google.
No lo he buscado en Google, pero no me imagino el cruce de líneas de soporte con líneas de resistencia; a no ser que se trate de las plumas...
No lo he buscado en Google, pero no me imagino cruzando líneas de soporte con líneas de resistencia; a no ser que se trate de los mash-ups de los que hablamos...
Tienen una interpretación de Copenhague. Podría haber cualquier cosa en él.
La suya es una interpretación de Copenhague. Podría haber cualquier cosa en él.
¿Esperamos la reacción de nuestros estimados colegas?
Wikipedia escribe - El término [no entropía] se utiliza a veces en física y matemáticas (teoría de la información, estadística matemática) para referirse a una cantidad matemáticamente opuesta al valor de la entropía.
https://ru.wikipedia.org/wiki/Негэнтропия
Así que es posible calcular la entropía, y simplemente tomarla con un signo negativo para obtener la no entropía.
Calcular la entropía en R, la forma más fácil de las decenas que hay (entropía empírica):
1) hay una serie de números 2 7 4 3 7 9 4 4 4 4 1 3 10 3 8 4 9 10 7 que nos interesa.
2) cuente el número de repeticiones de cada valor:
1: 1
2: 1
3: 3
4: 7
7: 3
8: 1
9: 2
10: 2
Obtuvo una nueva fila de números 1 1 3 7 3 1 2
cuente la suma de los números
suma = 1 + 1 + 3 + 3 + 7 + 3 + 1 + 2 + 2 = 20
(lógicamente la suma == la longitud de la fila en el primer elemento)
y ahora divide:
1/20 1/20 3/20 7/20 3/20 1/20 2/20 2/20
Obtenemos:
0.05 0,05 0,15 0,35 0,15 0,05 0,10 0,10
es la densidad de distribución de los números de la serie desde el primer elemento.
3) Entropía = - suma(freq*log(freq)) (fórmula para vectores en sintaxis R. log() natural)
H = - (0,05*log(0,05) + 0,05*log(0,05) + 0,15*log(0,15) + 0,35*log(0,35) + 0,15*log(0,15) + 0,05*log(0,05) + 0,10*log(0,10) + 0,10*log(0,10) )
H sería la entropía.
4) También hay una escala allí, si el usuario quiere hacer una operación en el resultado
H / log(2)
o
H / log(10)
5) Multiplica H por -1 y obtendrás la no entropía.
5) Multiplica H por -1 y obtendrás la no entropía.
Si fuera tan sencillo, no habría pedido a los respetados matemáticos que se ocuparan de esta cuestión.
Una vez más:
Es la diferencia entre la distribución de probabilidad actual de los incrementos y la gaussiana con la misma expectativa y varianza para un tamaño de muestra determinado.
El problema es que la varianza de los incrementos no se puede calcular por la fórmula habitual (lo único que saben los niños matemáticos que han inundado este foro de búsqueda y miseria). Hay que aplicar métodos no paramétricos :))
Además, esta fórmula tiene un profundo significado filosófico y físico. Tenemos una medida de la estructuración del proceso, su desviación del caos.
¡Caballeros! ¡Viejos y jóvenes alegres!
¡¡¡La no entropía es el parámetro que determina el estado de tendencia/plano!!!
Se lo presento.