Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Quindi stai dicendo che le linee parallele si intersecano (supporto e resistenza)?
Il prezzo! Beh, o l'integrale dei rimpatriati.
Il prezzo! Beh, o l'integrale dei rendimenti.
Ecco un'opzione per usare l'entropia
npdeneqtest Test non parametrico per l'uguaglianza delle densità
npdeptest Test non parametrico dell'entropia per la dipendenza a coppie
npsdeptest Test non parametrico dell'entropia per la dipendenza seriale non lineare
npsymtest Test non parametrico dell'entropia per l'asimmetria
npunitest Test non parametrico dell'entropia per l'uguaglianza della densità univariata
Ecco la documentazione. Ecco le formule: Inferenza basata sull'entropia usando R e il pacchetto np: un'introduzione
Ho visto solo la formula di calcolo su Wikipedia:
Confronta la distribuzione di probabilità attuale con una distribuzione normale come misura del caos.
Non capisco l'idea.
Quello che capisco dalla tua frase è che un processo ordinato non può avere una distribuzione normale.
Posso chiedere perché una tale affermazione?
Come sono legati il caos e la normalità?
ZS Non lo sto confutando, me lo sto chiedendo.
un processo ordinato non può avere una distribuzione normale.
È un mistero! Shhhhhh...
Ecco perché leggo trattati filosofici sulla non-entropia.
Per esempio -
Beh, almeno datemi un suggerimento su come calcolare questa nagentropia.
Perché stai bestemmiando così e vuoi essere capito.
ZZZ Ho cercato su Google e indicizzato tutto a mio piacimento, ma non ho trovato altro che frasi comuni. La non-entropia è l'opposto dell'entropia, che è una misura dell'ordine. Questo è tutto quello che ho ottenuto in una serata di ricerche su Google.
Non ho cercato su Google, ma non posso immaginare di incrociare linee di supporto con linee di resistenza; a meno che non si tratti delle penne...
Non ho cercato su Google, ma non riesco a immaginare di incrociare linee di supporto con linee di resistenza; a meno che non si tratti di mash-up...
Hanno un'interpretazione di Copenhagen. Potrebbe esserci qualsiasi cosa.
La loro è un'interpretazione di Copenhagen. Potrebbe esserci qualsiasi cosa.
Vogliamo aspettare la reazione dei nostri stimati colleghi?
Wikipedia scrive - Il termine [Non-entropia] è talvolta usato in fisica e matematica (teoria dell'informazione, statistica matematica) per riferirsi a una quantità matematicamente opposta al valore dell'entropia.
https://ru.wikipedia.org/wiki/Негэнтропия
Quindi è possibile calcolare l'entropia, e semplicemente prenderla con un segno negativo per ottenere la non-entropia.
Calcolare l'entropia in R, il modo più semplice tra le decine che ci sono in giro (entropia empirica):
1) esiste una serie di numeri 2 7 4 3 7 9 4 4 4 4 1 3 10 3 8 4 9 10 7 che ci interessa.
2) contare il numero di ripetizioni di ogni valore:
1: 1
2: 1
3: 3
4: 7
7: 3
8: 1
9: 2
10: 2
Ottenere una nuova fila di numeri 1 1 3 7 3 1 2
contare la somma dei numeri
sum = 1 + 1 + 3 + 3 + 7 + 3 + 1 + 2 + 2 = 20
(logicamente la somma == la lunghezza della riga nel primo elemento)
e ora dividiamo:
1/20 1/20 3/20 7/20 3/20 1/20 2/20 2/20
Otteniamo:
0.05 0,05 0,15 0,35 0,15 0,05 0,10 0,10
è la densità di distribuzione dei numeri della serie dal primo elemento.
3) Entropia = - somma(freq*log(freq) (formula per i vettori nella sintassi R. log() naturale)
H = - (0,05*log(0,05) + 0,05*log(0,05) + 0,15*log(0,15) + 0,35*log(0,35) + 0,15*log(0,15) + 0,05*log(0,05) + 0,10*log(0,10) + 0,10*log(0,10) )
H sarebbe entropia.
4) C'è anche una scala, se l'utente vuole fare un'operazione sul risultato
H / log(2)
o
H / log(10)
5) Moltiplicare H per -1 e si ottiene la non-entropia.
5) Moltiplicare H per -1 e si ottiene la non-entropia.
Se fosse così semplice, non avrei chiesto ai rispettati matematici di occuparsi di questa questione.
Ancora una volta:
Questa è la differenza tra l'attuale distribuzione di probabilità degli incrementi e quella gaussiana con la stessa aspettativa e varianza per una data dimensione del campione.
Il problema è che la varianza degli incrementi non può essere calcolata con la solita formula (l'unica cosa che sanno i bambini matematici che hanno inondato questo forum di ricerca e miseria). Devi applicare metodi non parametrici :))
Inoltre, questa formula ha un profondo significato filosofico e fisico. Abbiamo una misura della strutturalità del processo, la sua deviazione dal caos.
Signori! Vecchi e giovani allegri!
La non-entropia è il parametro che determina lo stato di tendenza/flat!!!
Ve lo presento.