De la théorie à la pratique - page 295

 
Renat Akhtyamov:
Vous dites donc que les lignes parallèles se croisent (support et résistance) ?

Le prix ! Eh bien, ou l'intégrale des rapatriés.

 
Alexander_K2:

Le prix ! Eh bien, ou l'intégrale des retours.

Voici une option pour utiliser l'entropie

npdeneqtest Test non paramétrique d'égalité des densités

npdeptest Test d'entropie non paramétrique pour la dépendance par paires

npsdeptest Test d'entropie non paramétrique pour la dépendance non linéaire en série

npsymtest Test d'entropie non paramétrique pour l'asymétrie

npunitest Test d'entropie non paramétrique pour l'égalité des densités univariées


Voici la documentation. Voici les formules : Inférence basée sur l'entropie à l'aide de R et du package np : une introduction

Dossiers :
np.zip  2331 kb
 
Alexander_K2:

Je n'ai vu la formule de calcul que sur Wikipedia :

Il compare la distribution de probabilité actuelle avec une distribution normale comme mesure du chaos.

Je ne comprends pas.

Ce que je comprends de votre phrase est qu'un processus ordonné ne peut pas avoir une distribution normale.

Puis-je demander pourquoi une telle déclaration ?

Comment le chaotique et la normalité sont-ils liés ?

ZS Je ne le réfute pas, je m'interroge.

 
Nikolay Demko:

un processus ordonné ne peut pas avoir une distribution normale.


C'est un mystère ! Shhhhhh...

C'est pourquoi je lis des traités philosophiques sur la non-entropie.

Par exemple -

 
Nikolay Demko:

Donnez-moi au moins un indice sur la façon de calculer cette nagentropie.

Parce que tu jures comme ça et que tu veux être compris.

ZZZ J'ai tout googlé et indexé à loisir, mais je n'ai trouvé que des phrases courantes. La non-entropie est le contraire de l'entropie, qui est une mesure de l'ordre. C'est tout ce que j'ai pu tirer d'une soirée de recherche sur Google.

Je ne l'ai pas googlé, mais je ne peux pas imaginer croiser des lignes de soutien avec des lignes de résistance ; à moins qu'il ne s'agisse des stylos...

 
Алексей Тарабанов:

Je ne l'ai pas googlé, mais je ne peux pas imaginer croiser des lignes de support avec des lignes de résistance ; à moins que ce ne soit les mash-ups dont on parle...

Ils ont une interprétation de Copenhague. Il peut contenir n'importe quoi.

 
Yuriy Asaulenko:

La leur est une interprétation de Copenhague. Il peut contenir n'importe quoi.

Devons-nous attendre la réaction de nos estimés collègues ?

 

Wikipédia écrit - Le terme [Non-entropie] est parfois utilisé en physique et en mathématiques (théorie de l'information, statistique mathématique) pour désigner une quantité mathématiquement opposée à la valeur de l'entropie.
https://ru.wikipedia.org/wiki/Негэнтропия

Il est donc possible de calculer l'entropie, et de la prendre simplement avec un signe négatif pour obtenir la non-entropie.


Calcul de l'entropie dans R, la méthode la plus simple parmi les dizaines qui existent (entropie empirique) :

1) il existe une série de nombres 2 7 4 3 7 9 4 4 4 4 4 1 3 10 3 8 4 9 10 7 qui nous intéresse.

2) compter le nombre de répétitions de chaque valeur :
1 : 1
2 : 1
3 : 3
4 : 7
7 : 3
8 : 1
9 : 2
10 : 2
Obtenir une nouvelle rangée de chiffres 1 1 3 7 3 1 2 2
compter la somme des chiffres
somme = 1 + 1 + 3 + 3 + 7 + 3 + 1 + 2 + 2 = 20
(logiquement la somme == la longueur de la ligne du premier élément)
et maintenant divisons :
1/20 1/20 3/20 7/20 3/20 1/20 2/20 2/20
Nous obtenons :
0.05 0,05 0,15 0,35 0,15 0,05 0,10 0,10
est la densité de distribution des nombres de la série à partir du premier élément.

3) Entropie = - somme(freq*log(freq) (formule pour les vecteurs dans la syntaxe R. log() naturel)
H = - (0,05*log(0,05) + 0,05*log(0,05) + 0,15*log(0,15) + 0,35*log(0,35) + 0,15*log(0,15) + 0,05*log(0,05) + 0,10*log(0,10) + 0,10*log(0,10) )
H serait l'entropie.

4) Il y a aussi une échelle, si l'utilisateur veut faire une opération sur le résultat
H / log(2)
ou
H / log(10)

5) Multipliez H par -1 et vous obtenez la non-entropie.

 
Dr. Trader:

5) Multipliez H par -1 et vous obtenez la non-entropie.

Si c'était aussi simple, je n'aurais pas demandé à des mathématiciens respectés de s'occuper de cette question.

Encore une fois :

C'est la différence entre la distribution de probabilité actuelle des incréments et la distribution gaussienne avec la même espérance et variance pour une taille d'échantillon donnée.

Le problème est que la variance des incréments ne peut être calculée par la formule habituelle (la seule chose que connaissent les enfants des mathématiques qui ont inondé ce forum de recherche et de misère). Vous devez appliquer des méthodes non-paramétriques :))

 

De plus, cette formule a une profonde signification philosophique et physique. Nous avons une mesure de la structuration du processus, de son écart par rapport au chaos.

Messieurs ! Vieillards et jeunes gens joyeux !

Lanon-entropie est le paramètre déterminant l'état de tendance/plat! !!

Je vous le présente.