Da teoria à prática - página 295

 
Renat Akhtyamov:
Então você está dizendo que as linhas paralelas se cruzam (apoio e resistência)?

O preço! Bem, ou a parte integrante dos retornados.

 
Alexander_K2:

O preço! Bem, ou a parte integrante dos retornos.

Aqui está uma opção para o uso da entropia

npdeneqtest Teste não-paramétrico para a igualdade de densidades

npdeptest Teste de Entropia Nãoparamétrico para Dependência em Par

npsdeptest Teste de Entropia Não Paramétrica para Dependência Não Linear Serial

npsymtest Teste de Entropia Não Paramétrica para Assimetria

npunitest Teste de Entropia Nãoparamétrico para Igualdade de Densidade Univariada


Aqui está a documentação. Aqui estão as fórmulas: Inferência baseada em entropia usando R e o pacote np: Uma cartilha

Arquivos anexados:
np.zip  2331 kb
 
Alexander_K2:

Eu só vi a fórmula de cálculo na Wikipédia:

Ele compara a distribuição de probabilidade atual com uma distribuição normal como medida do caos.

Eu não entendo a idéia.

O que eu entendi de sua frase é que um processo ordenado não pode ter uma distribuição normal.

Posso perguntar por que uma declaração dessas?

Como estão relacionados ao caos e à normalidade?

ZS Não estou refutando isso, estou me perguntando.

 
Nikolay Demko:

um processo encomendado não pode ter uma distribuição normal.


É um mistério! Shhhhhh...

É por isso que eu leio tratados filosóficos sobre a não-entrropia.

Por exemplo...

 
Nikolay Demko:

Bem, pelo menos me dê uma dica de como calcular esta nagentropia.

Porque você está jurando dessa maneira e quer ser compreendido.

ZZZ pesquisei no Google e indexei tudo à minha vontade, mas não consegui encontrar nada além de frases comuns. A não-entrropia é o oposto da entropia, que é uma medida de ordem. Isso é tudo o que consegui de uma noite de procura no Google.

Não pesquisei no Google, mas não consigo imaginar cruzar linhas de suporte com linhas de resistência; a menos que seja sobre as canetas...

 
Алексей Тарабанов:

Não pesquisei no Google, mas não consigo imaginar cruzar as linhas de apoio com as linhas de resistência; a menos que sejam os mash-ups de que estamos falando...

Eles têm uma interpretação de Copenhague. Qualquer coisa pode estar nele.

 
Yuriy Asaulenko:

A deles é uma interpretação de Copenhague. Qualquer coisa pode estar nele.

Devemos esperar a reação de nossos estimados colegas?

 

Wikipedia escreve - O termo [não-entropia] é às vezes usado em física e matemática (teoria da informação, estatística matemática) para se referir a uma quantidade matematicamente oposta ao valor da entropia.
https://ru.wikipedia.org/wiki/Негэнтропия

Assim, é possível calcular a entropia, e simplesmente tomá-la com um sinal negativo para obter a não-entropia.


Calculando a entropia em R, a maneira mais fácil de sair das dezenas que estão lá fora (entropia empírica):

1) existe uma série de números 2 7 4 3 7 9 4 4 4 4 4 1 3 10 3 8 4 9 10 7 que nos interessa.

2) contar o número de repetições de cada valor:
1: 1
2: 1
3: 3
4: 7
7: 3
8: 1
9: 2
10: 2
Tenho uma nova fila de números 1 1 3 7 3 1 2 2
contar a soma dos números
soma = 1 + 1 + 3 + 3 + 7 + 3 + 1 + 2 + 2 + 2 = 20
(logicamente a soma == o comprimento da linha no primeiro item)
e agora dividir:
1/20 1/20 3/20 3/20 3/20 3/20 1/20 2/20 2/20 2/20
Recebemos:
0.05 0,05 0,15 0,15 0,35 0,15 0,05 0,10 0,10
é a densidade de distribuição dos números da série a partir do primeiro item.

3) Entropia = - soma(freq*log(freq) (fórmula para vetores na sintaxe R. log() natural)
H = - (0,05*log(0,05) + 0,05*log(0,05) + 0,15*log(0,15) + 0,35*log(0,35) + 0,15*log(0,15) + 0,05*log(0,05) + 0,10*log(0,10) + 0,10*log(0,10) )
H seria entropia.

4) Há também uma escala lá, se o usuário quiser fazer uma operação no resultado
H / log(2)
ou
H / log(10)

5) Multiplique H por -1 e você fica não-entrípico.

 
Dr. Trader:

5) Multiplique H por -1 e você fica não-entrípico.

Se fosse assim tão simples, eu não teria pedido aos respeitados matemáticos para lidar com esta questão.

Mais uma vez:

É a diferença entre a distribuição de probabilidade atual dos incrementos e a Gaussiana com a mesma expectativa e variância para um determinado tamanho de amostra.

O problema é que a variação dos incrementos não pode ser calculada pela fórmula habitual (a única coisa que as crianças matemáticas que inundaram este fórum em busca e miséria sabem). Você tem que aplicar métodos não paramétricos :))

 

Além disso, esta fórmula tem um profundo significado filosófico e físico. Temos uma medida da estrutura do processo, seu desvio do caos.

Cavalheiros! Velhos e jovens alegres!

A não-entrropia é o parâmetro que determina o estado de tendência/plano!!!

Apresento a vocês.