Théorème de Bernoulli, Moab-Laplace ; critère de Kolmogorov ; schéma de Bernoulli ; formule de Bayes ; inégalités de Chebyshev ; loi de distribution de Poisson ; théorèmes de Fisher, Pearson, Student, Smirnov etc., modèles, langage simple, sans formules. - page 9

 
Bonjour ! Qu'est-ce qu'un système d'équations différentielles ?
 
Dimka-novitsek: Bonjour ! Qu'est-ce qu'un système d'équations différentielles ?

Jetez un coup d'œil au Wiki. Il s'agit seulement d'une introduction à terwer/matstat ici. Et ça, c'est quand vous avez le temps.

GaryKa : J'essaie de comprendre la portée des distributions suivantes :

Distribution de Pareto généralisée(GPD) et distribution des valeurs extrêmes(GEV)

Je connais moi-même les deux de manière très approximative. Les deux distributions sont bien au-dessus du niveau de ce fil de discussion.

 
C'est d'un mot obscur à un autre, mais bon, je vais probablement l'essayer moi-même pour le moment. Mais je crois que je comprends le principe !
 
Mathemat:

... bien au-dessus du niveau de ce fil de discussion.

OK, voici une question sur les bases - Dispersion et son estimation par échantillon via RMS

Voici une définition superficielle tirée du wiki : La variance d'une variable aléatoire est une mesure de la dispersion d'une variable aléatoire donnée, c'est-à-dire de son écart par rapport à l'espérance mathématique.

Il est logique de supposer qu'il s'agit de quelque chose comme l'écart moyen absolu. D'où vient le carré du module de la variance ? Pourquoi pas le cube ou, par exemple, la puissance de -1,8 ? Pourquoi est-ce une fonction puissance du module ?

Il s'agit clairement d'une des caractéristiques, et on peut saisir ou utiliser une autre définition de la mesure de l'écart d'une variable aléatoire autour de sa moyenne si on le souhaite. Mais c'est la mesure qui apparaît le plus souvent dans les manuels scolaires.

 
GaryKa:

OK, voici une question sur les bases - Dispersion et son estimation par échantillon via RMS

Voici une définition superficielle tirée du wiki : La variance d'une variable aléatoire est une mesure de la dispersion d'une variable aléatoire donnée, c'est-à-dire de son écart par rapport à l'espérance mathématique.

Il est logique de supposer qu'il s'agit de quelque chose comme l'écart moyen absolu. D'où vient le carré du module de la variance ? Pourquoi pas le cube ou, par exemple, la puissance de -1,8 ? Pourquoi est-ce une fonction puissance du module ?

Il existe une chose telle que les moments d'une variable aléatoire. La "variance" est donc un nom propre, pour ainsi dire, au deuxième moment central. C'est-à-dire qu'il est logiquement correct de ne pas dire "La dispersion est une mesure de l'écart d'une variable aléatoire par rapport à l'espérance", mais "Le deuxième moment central d'une variable aléatoire est appelé dispersion". Il s'agit d'un paramètre qui caractérise l'écart d'une variable aléatoire par rapport à son espérance. " saisissez la différence ? Dans ce sens, vous avez raison, la définition donnée dans le pedivikia est incorrecte.
 
GaryKa:

D'où vient le carré du module de la différence ?

Prendre le modulus de la différence est une opération inutile, car le carré des nombres positifs et négatifs sera une valeur positive. Il n'y a pas de module dans les formules généralement acceptées. D'après ce que j'ai compris, c'est le carré de la différence qui est utilisé, et non les autres degrés (imho), en grande partie à cause de cela, et de la simplicité de travailler avec des carrés et des racines carrées.
 
C-4: Prendre le modulus de la différence est une opération inutile, car le carré des nombres positifs et négatifs sera une valeur positive. Il n'y a pas de module dans les formules généralement acceptées. D'après ce que je comprends, c'est le carré de la différence qui est utilisé, et non les autres degrés (imho), en grande partie à cause de cela, et de la simplicité de travailler avec des carrés et des racines carrées.

Non, pas du tout.

C'est comme ça, c'est tout. La dispersion est considérée comme une mesure de l'écart d'une variable aléatoire par rapport à sa moyenne - et ces concepts sont souvent confondus. Historiquement, il a été calculé comme la somme des carrés de la variance.

Mais en fait, la variance n'est une mesure raisonnable de la dispersion que pour des quantités normalement distribuées. C'est pour eux que c'est très pratique : la "loi des trois sigmas" le confirme. Tout ce qui s'écarte de la moyenne d'une valeur gaussienne de plus de trois sigmas est très rare - quelques dixièmes de pour cent de l'échantillon entier.

Pour les quantités distribuées différemment (par exemple, pour les quantités de Laplace), il est plus raisonnable de prendre comme telle mesure non pas le second moment de la distribution, mais la somme des modules des variances.

Mais la variance est, et restera, le second moment, c'est-à-dire la somme des carrés.

 

OK, le deuxième point central a un nom qui lui est propre - "dispersion".

Mais pourquoi prendre le moment d'inertie de la physique ? Où se trouve l'analogie du mouvement rotatif pour une variable aléatoire ? Quelle est la direction de l'axe de rotation passant par le centre de masse ?

Qu'est-ce que c'est ?

  • écart moyen - non
  • le taux de changement de la densité des valeurs proches de l'espérance de la matrice - non
  • plus de variations ...

Comment expliquer la variance à un écolier sur ses doigts ?

Par exemple, l'espérance mathématique est la moyenne. En général, si nous remplaçons tous les cas particuliers par une telle moyenne, l'effet cumulatif de cet ensemble restera le même.


Mathemat:

Mais en fait, la variance n'est une mesure raisonnable de la dispersion que pour des quantités normalement distribuées.

Je suis du même avis,

La dispersion était peut-être considérée comme un cas particulier de covariance - une mesure de la dépendance linéaire d'une variable aléatoire par rapport à elle-même. Une sorte d'auto-résonance.) Vous devriez demander à Fisher .

 

La covariance n'existait pas lorsque la dispersion a été inventée.

Et qu'est-ce que le moment d'inertie a à voir avec ça ? De nombreux phénomènes physiques/mathématiques sont décrits par des équations similaires.

Si vous avez besoin de la dispersion comme deuxième élan, utilisez ce que vous avez.

Mais si vous en avez besoin comme mesure de la dispersion, vous devrez réfléchir.

Je peux vous donner un autre exemple : la covariance de deux quantités discrètes différentes est calculée comme le produit scalaire de deux vecteurs. Cherchez donc des analogies, jusqu'à l'angle entre les variables aléatoires...

 
GaryKa:

OK, le deuxième point central a un nom qui lui est propre - "dispersion".

Mais pourquoi prendre le moment d'inertie de la physique ? Où se trouve l'analogie du mouvement rotatif pour une variable aléatoire ? Quelle est la direction de l'axe de rotation passant par le centre de masse ?

Qu'est-ce que c'est ?

  • écart moyen - non
  • le taux de changement de la densité des valeurs proches de l'espérance de la matrice - non
  • plus de variations ...

Comment expliquez-vous la variance à un lycéen avec vos doigts ?

Par exemple, l'espérance mathématique est la moyenne. En général, si nous remplaçons tous les cas particuliers par une telle moyenne, l'effet cumulatif de cet ensemble restera le même.


Je suis du même avis,

La dispersion était peut-être considérée comme un cas particulier de covariance - une mesure de la dépendance linéaire d'une variable aléatoire par rapport à elle-même. Une sorte d'auto-résonance.) C'est à Fisher qu'il faut demander.

Il y a aussi une remarque à faire. Pour calculer le deuxième point, les écarts par rapport à la moyenne sont élevés au carré. Par conséquent, la contribution à la variance des forts écarts à la moyenne est prise en compte de manière plus forte, et de manière disproportionnée. En d'autres termes, la variance "accorde plus d'attention" aux valeurs qui s'écartent fortement de la moyenne, et elle en tient compte en premier lieu pour caractériser la dispersion. Si on la compare au module de l'écart moyen, par exemple, on dit que la variance a une "plus grande sensibilité aux valeurs aberrantes", ce qui signifie précisément ce qui précède.

Pour réduire l'écart entre des pommes et des oranges, on prend généralement la racine carrée de l'écart. La valeur résultante a la dimension de la variable aléatoire elle-même, et est appelée l'écart-type (RMS, indiqué par la lettre minuscule sigma). A ne pas confondre avec l'écart-type de l'échantillon.