Théorème de Bernoulli, Moab-Laplace ; critère de Kolmogorov ; schéma de Bernoulli ; formule de Bayes ; inégalités de Chebyshev ; loi de distribution de Poisson ; théorèmes de Fisher, Pearson, Student, Smirnov etc., modèles, langage simple, sans formules. - page 9
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Jetez un coup d'œil au Wiki. Il s'agit seulement d'une introduction à terwer/matstat ici. Et ça, c'est quand vous avez le temps.
GaryKa : J'essaie de comprendre la portée des distributions suivantes :
Distribution de Pareto généralisée(GPD) et distribution des valeurs extrêmes(GEV)
Je connais moi-même les deux de manière très approximative. Les deux distributions sont bien au-dessus du niveau de ce fil de discussion.
... bien au-dessus du niveau de ce fil de discussion.
OK, voici une question sur les bases - Dispersion et son estimation par échantillon via RMS
Voici une définition superficielle tirée du wiki : La variance d'une variable aléatoire est une mesure de la dispersion d'une variable aléatoire donnée, c'est-à-dire de son écart par rapport à l'espérance mathématique.
Il est logique de supposer qu'il s'agit de quelque chose comme l'écart moyen absolu. D'où vient le carré du module de la variance ? Pourquoi pas le cube ou, par exemple, la puissance de -1,8 ? Pourquoi est-ce une fonction puissance du module ?
Il s'agit clairement d'une des caractéristiques, et on peut saisir ou utiliser une autre définition de la mesure de l'écart d'une variable aléatoire autour de sa moyenne si on le souhaite. Mais c'est la mesure qui apparaît le plus souvent dans les manuels scolaires.
OK, voici une question sur les bases - Dispersion et son estimation par échantillon via RMS
Voici une définition superficielle tirée du wiki : La variance d'une variable aléatoire est une mesure de la dispersion d'une variable aléatoire donnée, c'est-à-dire de son écart par rapport à l'espérance mathématique.
Il est logique de supposer qu'il s'agit de quelque chose comme l'écart moyen absolu. D'où vient le carré du module de la variance ? Pourquoi pas le cube ou, par exemple, la puissance de -1,8 ? Pourquoi est-ce une fonction puissance du module ?
D'où vient le carré du module de la différence ?
Non, pas du tout.
C'est comme ça, c'est tout. La dispersion est considérée comme une mesure de l'écart d'une variable aléatoire par rapport à sa moyenne - et ces concepts sont souvent confondus. Historiquement, il a été calculé comme la somme des carrés de la variance.
Mais en fait, la variance n'est une mesure raisonnable de la dispersion que pour des quantités normalement distribuées. C'est pour eux que c'est très pratique : la "loi des trois sigmas" le confirme. Tout ce qui s'écarte de la moyenne d'une valeur gaussienne de plus de trois sigmas est très rare - quelques dixièmes de pour cent de l'échantillon entier.
Pour les quantités distribuées différemment (par exemple, pour les quantités de Laplace), il est plus raisonnable de prendre comme telle mesure non pas le second moment de la distribution, mais la somme des modules des variances.
Mais la variance est, et restera, le second moment, c'est-à-dire la somme des carrés.
OK, le deuxième point central a un nom qui lui est propre - "dispersion".
Mais pourquoi prendre le moment d'inertie de la physique ? Où se trouve l'analogie du mouvement rotatif pour une variable aléatoire ? Quelle est la direction de l'axe de rotation passant par le centre de masse ?
Qu'est-ce que c'est ?
Comment expliquer la variance à un écolier sur ses doigts ?
Par exemple, l'espérance mathématique est la moyenne. En général, si nous remplaçons tous les cas particuliers par une telle moyenne, l'effet cumulatif de cet ensemble restera le même.
Mathemat:
Mais en fait, la variance n'est une mesure raisonnable de la dispersion que pour des quantités normalement distribuées.
Je suis du même avis,
La dispersion était peut-être considérée comme un cas particulier de covariance - une mesure de la dépendance linéaire d'une variable aléatoire par rapport à elle-même. Une sorte d'auto-résonance.) Vous devriez demander à Fisher .
La covariance n'existait pas lorsque la dispersion a été inventée.
Et qu'est-ce que le moment d'inertie a à voir avec ça ? De nombreux phénomènes physiques/mathématiques sont décrits par des équations similaires.
Si vous avez besoin de la dispersion comme deuxième élan, utilisez ce que vous avez.
Mais si vous en avez besoin comme mesure de la dispersion, vous devrez réfléchir.
Je peux vous donner un autre exemple : la covariance de deux quantités discrètes différentes est calculée comme le produit scalaire de deux vecteurs. Cherchez donc des analogies, jusqu'à l'angle entre les variables aléatoires...
OK, le deuxième point central a un nom qui lui est propre - "dispersion".
Mais pourquoi prendre le moment d'inertie de la physique ? Où se trouve l'analogie du mouvement rotatif pour une variable aléatoire ? Quelle est la direction de l'axe de rotation passant par le centre de masse ?
Qu'est-ce que c'est ?
Comment expliquez-vous la variance à un lycéen avec vos doigts ?
Par exemple, l'espérance mathématique est la moyenne. En général, si nous remplaçons tous les cas particuliers par une telle moyenne, l'effet cumulatif de cet ensemble restera le même.
Je suis du même avis,
La dispersion était peut-être considérée comme un cas particulier de covariance - une mesure de la dépendance linéaire d'une variable aléatoire par rapport à elle-même. Une sorte d'auto-résonance.) C'est à Fisher qu'il faut demander.
Il y a aussi une remarque à faire. Pour calculer le deuxième point, les écarts par rapport à la moyenne sont élevés au carré. Par conséquent, la contribution à la variance des forts écarts à la moyenne est prise en compte de manière plus forte, et de manière disproportionnée. En d'autres termes, la variance "accorde plus d'attention" aux valeurs qui s'écartent fortement de la moyenne, et elle en tient compte en premier lieu pour caractériser la dispersion. Si on la compare au module de l'écart moyen, par exemple, on dit que la variance a une "plus grande sensibilité aux valeurs aberrantes", ce qui signifie précisément ce qui précède.
Pour réduire l'écart entre des pommes et des oranges, on prend généralement la racine carrée de l'écart. La valeur résultante a la dimension de la variable aléatoire elle-même, et est appelée l'écart-type (RMS, indiqué par la lettre minuscule sigma). A ne pas confondre avec l'écart-type de l'échantillon.