Dalla teoria alla pratica - pagina 295

 
Renat Akhtyamov:
Quindi stai dicendo che le linee parallele si intersecano (supporto e resistenza)?

Il prezzo! Beh, o l'integrale dei rimpatriati.

 
Alexander_K2:

Il prezzo! Beh, o l'integrale dei rendimenti.

Ecco un'opzione per usare l'entropia

npdeneqtest Test non parametrico per l'uguaglianza delle densità

npdeptest Test non parametrico dell'entropia per la dipendenza a coppie

npsdeptest Test non parametrico dell'entropia per la dipendenza seriale non lineare

npsymtest Test non parametrico dell'entropia per l'asimmetria

npunitest Test non parametrico dell'entropia per l'uguaglianza della densità univariata


Ecco la documentazione. Ecco le formule: Inferenza basata sull'entropia usando R e il pacchetto np: un'introduzione

File:
np.zip  2331 kb
 
Alexander_K2:

Ho visto solo la formula di calcolo su Wikipedia:

Confronta la distribuzione di probabilità attuale con una distribuzione normale come misura del caos.

Non capisco l'idea.

Quello che capisco dalla tua frase è che un processo ordinato non può avere una distribuzione normale.

Posso chiedere perché una tale affermazione?

Come sono legati il caos e la normalità?

ZS Non lo sto confutando, me lo sto chiedendo.

 
Nikolay Demko:

un processo ordinato non può avere una distribuzione normale.


È un mistero! Shhhhhh...

Ecco perché leggo trattati filosofici sulla non-entropia.

Per esempio -

 
Nikolay Demko:

Beh, almeno datemi un suggerimento su come calcolare questa nagentropia.

Perché stai bestemmiando così e vuoi essere capito.

ZZZ Ho cercato su Google e indicizzato tutto a mio piacimento, ma non ho trovato altro che frasi comuni. La non-entropia è l'opposto dell'entropia, che è una misura dell'ordine. Questo è tutto quello che ho ottenuto in una serata di ricerche su Google.

Non ho cercato su Google, ma non posso immaginare di incrociare linee di supporto con linee di resistenza; a meno che non si tratti delle penne...

 
Алексей Тарабанов:

Non ho cercato su Google, ma non riesco a immaginare di incrociare linee di supporto con linee di resistenza; a meno che non si tratti di mash-up...

Hanno un'interpretazione di Copenhagen. Potrebbe esserci qualsiasi cosa.

 
Yuriy Asaulenko:

La loro è un'interpretazione di Copenhagen. Potrebbe esserci qualsiasi cosa.

Vogliamo aspettare la reazione dei nostri stimati colleghi?

 

Wikipedia scrive - Il termine [Non-entropia] è talvolta usato in fisica e matematica (teoria dell'informazione, statistica matematica) per riferirsi a una quantità matematicamente opposta al valore dell'entropia.
https://ru.wikipedia.org/wiki/Негэнтропия

Quindi è possibile calcolare l'entropia, e semplicemente prenderla con un segno negativo per ottenere la non-entropia.


Calcolare l'entropia in R, il modo più semplice tra le decine che ci sono in giro (entropia empirica):

1) esiste una serie di numeri 2 7 4 3 7 9 4 4 4 4 1 3 10 3 8 4 9 10 7 che ci interessa.

2) contare il numero di ripetizioni di ogni valore:
1: 1
2: 1
3: 3
4: 7
7: 3
8: 1
9: 2
10: 2
Ottenere una nuova fila di numeri 1 1 3 7 3 1 2
contare la somma dei numeri
sum = 1 + 1 + 3 + 3 + 7 + 3 + 1 + 2 + 2 = 20
(logicamente la somma == la lunghezza della riga nel primo elemento)
e ora dividiamo:
1/20 1/20 3/20 7/20 3/20 1/20 2/20 2/20
Otteniamo:
0.05 0,05 0,15 0,35 0,15 0,05 0,10 0,10
è la densità di distribuzione dei numeri della serie dal primo elemento.

3) Entropia = - somma(freq*log(freq) (formula per i vettori nella sintassi R. log() naturale)
H = - (0,05*log(0,05) + 0,05*log(0,05) + 0,15*log(0,15) + 0,35*log(0,35) + 0,15*log(0,15) + 0,05*log(0,05) + 0,10*log(0,10) + 0,10*log(0,10) )
H sarebbe entropia.

4) C'è anche una scala, se l'utente vuole fare un'operazione sul risultato
H / log(2)
o
H / log(10)

5) Moltiplicare H per -1 e si ottiene la non-entropia.

 
Dr. Trader:

5) Moltiplicare H per -1 e si ottiene la non-entropia.

Se fosse così semplice, non avrei chiesto ai rispettati matematici di occuparsi di questa questione.

Ancora una volta:

Questa è la differenza tra l'attuale distribuzione di probabilità degli incrementi e quella gaussiana con la stessa aspettativa e varianza per una data dimensione del campione.

Il problema è che la varianza degli incrementi non può essere calcolata con la solita formula (l'unica cosa che sanno i bambini matematici che hanno inondato questo forum di ricerca e miseria). Devi applicare metodi non parametrici :))

 

Inoltre, questa formula ha un profondo significato filosofico e fisico. Abbiamo una misura della strutturalità del processo, la sua deviazione dal caos.

Signori! Vecchi e giovani allegri!

La non-entropia è il parametro che determina lo stato di tendenza/flat!!!

Ve lo presento.