Théorème de Bernoulli, Moab-Laplace ; critère de Kolmogorov ; schéma de Bernoulli ; formule de Bayes ; inégalités de Chebyshev ; loi de distribution de Poisson ; théorèmes de Fisher, Pearson, Student, Smirnov etc., modèles, langage simple, sans formules.

 

Pouvez-vous expliquer sa signification en termes simples ?

Par exemple, dans le type d'explication et d'exemple d'une chaîne de Markov, c'est l'un des cas les plus simples d'une séquence d'événements aléatoires. Mais malgré sa simplicité, elle peut souvent être utile, même pour décrire des phénomènes plutôt complexes.

Chaîne Une chaîne de Markov est une séquence d'événements aléatoires dans laquelle la probabilité de chaque événement dépend uniquement de l'événement précédent, mais est indépendante des événements antérieurs. Par exemple, une chaîne de Markov est le mélange séquentiel d'un jeu de cartes à jouer. La probabilité qu'après un nouveau mélange, les cartes soient dans un certain ordre dépend uniquement de leur ordre avant ce mélange et est indépendante de tous les mélanges précédents. En d'autres termes, la séquence d'états d'un système est une chaîne de Markov, si l'état actuel du système détermine entièrement ce qui peut lui arriver ensuite, et si la façon dont il est arrivé à cet état n'est pas pertinente.
 

De tout cela, la seule qui m'a été utile était celle-ci - Une chaîne de Markov est une séquence d'événements aléatoires dans laquelle la probabilité de chaque événement ne dépend que de l'état dans lequel se trouve le processus au moment présent et est indépendante des états antérieurs.


 
sever31:

Pourriez-vous expliquer leur signification en termes simples ?

Par exemple, dans le type d'explication et d'exemple d'une chaîne de Markov, c'est l'un des cas les plus simples d'une séquence d'événements aléatoires. Mais malgré sa simplicité, elle peut souvent être utile, même pour décrire des phénomènes plutôt complexes.

Chaîne Une chaîne de Markov est une séquence d'événements aléatoires dans laquelle la probabilité de chaque événement dépend uniquement de l'événement précédent, mais est indépendante des événements antérieurs. Par exemple, une chaîne de Markov est une séquence de mélange d'un jeu de cartes à jouer. La probabilité qu'après un nouveau mélange, les cartes soient dans un certain ordre dépend uniquement de leur position avant ce mélange et est indépendante de tous les mélanges précédents. En d'autres termes, la séquence d'états d'un système est une chaîne de Markov, si l'état actuel du système détermine entièrement ce qui peut lui arriver ensuite, et si la façon dont il est arrivé à cet état n'est pas pertinente.

Quelque chose dans l'exemple de la carte n'est pas convaincant. Évidemment, l'ordre dans lequel les cartes se retrouvent après le dernier mélange dépend de tous les mélanges précédents.

S'il s'agit de donner un sens particulier au terme "dépendre", alors c'est jouer avec la terminologie pour les "élus".

 
sever31:

Pourriez-vous expliquer sa signification en termes simples ?

Par exemple, dans le type d'explication et d'exemple d'une chaîne de Markov, c'est l'un des cas les plus simples d'une séquence d'événements aléatoires. Mais malgré sa simplicité, elle peut souvent être utile, même pour décrire des phénomènes plutôt complexes.

Chaîne Une chaîne de Markov est une séquence d'événements aléatoires dans laquelle la probabilité de chaque événement dépend uniquement de l'événement précédent, mais est indépendante des événements antérieurs. Par exemple, une chaîne de Markov est une séquence de mélange d'un jeu de cartes à jouer. La probabilité qu'après un nouveau mélange, les cartes soient dans un certain ordre dépend uniquement de leur position avant ce mélange et est indépendante de tous les mélanges précédents. En d'autres termes, la séquence d'états d'un système est une chaîne de Markov, si l'état actuel du système détermine entièrement ce qui peut lui arriver ensuite, et si la façon dont il est arrivé à cet état n'est pas pertinente.
Je le comprends de cette façon. Par exemple, prenons (dans notre cas) un SELL et un BAY. La probabilité de placer un ordre à la bonne position est de 1/2, c'est-à-dire 50%. Nous tenons compte de l'écart, il est donc moindre. Étape suivante - si nous gagnons, la probabilité suivante est 1/2 - (moins) 1/4, si nous perdons, 1/2+1/4 et ainsi de suite. ))))
 
MoneyJinn: Je ne suis pas convaincu par l'exemple de la carte. Évidemment, l'ordre dans lequel les cartes se retrouvent après le dernier mélange dépend de tous les mélanges précédents.
L'exemple des cartes indique que la séquence des cartes lors du dernier mélange est la seule information dont nous disposons pour calculer la probabilité de différentes séquences lors du prochain mélange. L'ajout des résultats des mélanges précédents ne nous donne aucune nouvelle information.
 
Mathemat:


Alexei, pourriez-vous donner une explication claire et concise des enseignements mentionnés des citoyens cités, avec des exemples.
 

Je pourrais, mais je suis en colère maintenant. J'ai écrit 15 lignes sur le théorème de Bernoulli, mais le forum m'a obligé à me reconnecter. Tout s'est perdu. Attendez une minute, Vladimir.

P.S. Ne me demandez pas pourquoi le forum est si défectueux. Je ne sais pas. Il n'est pas facile de déplacer un forum aussi important.

 

En effet, pour couvrir l'ensemble des questions posées par le topicstarter, il faudrait écrire un article. Pour les universitaires. Ce sera très difficile, car les terver/matstatistiques se réfèrent traditionnellement à des théories assez compliquées : les sociologues, les médecins, les biologistes appliquent souvent très incorrectement les terver/matstatistiques lorsqu'ils interprètent leurs observations. La raison en est que leur éducation de base n'est pas mathématique.

En bref, commençons lentement, un problème à la fois.

Voici donc le théorème de Bernoulli dans l'ESB. En fait, pour l'humaniste, cet article ne clarifie rien, car la formulation du théorème lui-même n'est pas là. Il n'existe qu'une estimation de la probabilité de déviation de la fréquence d'un événement par rapport à sa probabilité (pas encore confondue ?) par Chebyshev.

Sous une forme simple, mais malheureusement assez incorrecte, le théorème de Bernoulli est le suivant :

La fréquence d'un événement [dans le schéma de Bernoulli] tend vers sa probabilité lorsque le nombre d'essais augmente.

Pour expliquer la formulation (en particulier les petits caractères), vous devrez vous plonger au moins un peu dans certains concepts de base de la théorie des probabilités.

1. Dans la théorie des probabilités, la probabilité est un concept indéfinissable (comme la ligne droite et le point en géométrie). Mais pour l'appliquer utilement, nous devons l'interpréter d'une manière ou d'une autre. A l'inverse, l'interprétation fréquentielle est acceptée : la probabilité d'un événement est approximativement égale à la fréquence de son occurrence dans des conditions constantes de répétition des tests et avec un très grand nombre de tests. Disons que si nous lançons un dé et que nous suivons l'événement "Cinq est tombé", et que notre dé est parfait (toutes les faces sont également préférables), alors la probabilité de cet événement p = 1/6, et la probabilité de l'événement supplémentaire ("Tout est tombé sauf cinq") est q = 1 - p = 5/6. Ainsi, si nous lançons ce dé un million de fois, la fréquence de cinq sera d'environ 1/6, et les écarts de fréquence possibles sont presque toujours très peu différents de 1/6.

2. Qu'est-ce qu'un schéma de Bernoulli ? Il s'agit d'une séquence d'essais de type unique et indépendants dans lesquels seuls 2 résultats sont possibles - succès (Y) et échec (F).

Dans notre cas, nous pouvons considérer Y comme l'événement "un A est tombé" et H comme "quelque chose d'autre est tombé, non égal à un A". Nous connaissons la probabilité de réussite et elle est de p = 1/6.

Le mot "indépendant" est presque la chose la plus importante dans le schéma de Bernoulli. Si je suis un croupier expérimenté et que je joue avec quelqu'un, je peux presque certainement contrôler le jeu de manière à le tourner à mon avantage. Je pourrai suivre les résultats et relancer les dés pour gagner. En d'autres termes, je suis capable de briser la condition la plus importante des essais dans le schéma de Bernoulli - leur indépendance. Et les estimations de probabilité dont nous parlons ici seront fausses.

3. nous savons que si nous lançons le dé 10 fois, le cinq peut tomber 0, 2, 5 et même 10 fois. Le résultat le plus probable parmi ceux mentionnés est de 2 fois sur 10 (il est le plus proche d'une probabilité de 1/6). La probabilité de l'issue "cinq n'est jamais arrivé" n'est ni élevée ni faible, mais celle de l'issue "10 sur 10 - cinq" est extrêmement faible. Quelles lois régissent ces probabilités ? L'une des techniques les plus utilisées pour découvrir une telle loi est la "multiplication" des actualisations : appelons une seule séquence de 10 lancers une série et commençons maintenant à effectuer de nombreuses séries.

Si l'on réalise de nombreuses séries de 10 lancers (disons N = 1 000 000 de séries), que l'on inscrit dans un tableau les résultats des séries ("2 fives", "5 fives", etc.), puis que l'on trace un histogramme, c'est-à-dire la dépendance de la fréquence des séries par rapport au résultat, on obtiendra une courbe très semblable à une gaussienne, c'est-à-dire une cloche. En fait, il ne s'agit pas d'une courbe gaussienne, bien qu'avec un million de séries, elle différera très peu de la courbe gaussienne. Cet histogramme peut théoriquement être calculé et il correspondra à une distribution binomiale.

La principale différence entre les cas N=100 et N=1 000 000 sera juste la "largeur moyenne" des histogrammes. Dans le second cas, il est beaucoup plus petit que dans le premier, c'est-à-dire que l'histogramme est plus étroit. La "largeur moyenne" (écart-type) est une mesure de l'écart entre les fréquences possibles et les fréquences théoriques.

Nous pouvons maintenant donner voix au théorème de Bernoulli :

Lorsque le nombre d'essais N du schéma de Bernoulli augmente, la probabilité que l'écart réel du taux de réussite par rapport à la probabilité de réussite ne dépasse pas un epsilon prédéterminé, aussi petit soit-il, tend vers 1.

Le théorème de Bernoulli ne donne pas d'estimation de la taille de l'écart pour un N donné. Ces estimations peuvent être faites à l'aide du théorème de Mois-Laplace (local ou intégral). Mais à propos de ça - la prochaine fois. Pour l'instant, posez des questions.

P.S. J'ai corrigé les erreurs dans le titre du sujet.

 

Le sujet est SUPER. Je suis choqué par son apparence.

Cela va être difficile pour les auteurs. C'est comme une traduction compétente du chinois.

Prenez votre temps, les gars.

 

IMHO, ça n'aidera pas. Tout cela est vide en l'absence d'une base appropriée. Qui a une base, il n'a pas besoin de mâcher, ces ou d'autres caractéristiques pour expliquer ces ou d'autres conditions - pas de questions, mais autrement ... :-).

Lisez l'abécédaire à plusieurs reprises et VOUS SEREZ RELEVANT ! !! :-)

P.S. ... surtout "... en langage clair, sans formules." Que voulez-vous dire par langage clair, sans formules ? Une chose contredit l'autre... :-) Un langage beaucoup plus simple et plus court que celui d'une formule ! Quand il y a une formule spécifique, surtout avec une description des variables qui la composent, il n'y a besoin d'aucun langage... tout est clair.