Tutoriels de programmation - page 13

 

Factorielles, permutations et combinaisons


Factorielles, permutations et combinaisons

Salut tout le monde, aujourd'hui, nous allons explorer les concepts de comptage, y compris les factorielles, les permutations et les combinaisons. Tout se résume au principe de comptage fondamental, qui stipule que si un événement peut se produire de M manières et que le second événement peut se produire de N manières, alors les deux événements en séquence peuvent se produire dans un total de M fois N manières. Il est important de noter que le résultat du premier événement n'affecte pas le nombre de résultats possibles pour le deuxième événement.

Commençons par un exemple. Supposons qu'un menu comprenne 6 salades et 8 soupes. Combien de combinaisons soupes et salades sont possibles ? D'abord, on choisit une salade, ce qui nous donne 6 possibilités. Pour chacun de ces choix, il y a 8 soupes possibles. Par conséquent, nous nous retrouvons avec 6 groupes de 8, soit un total de 48 combinaisons possibles.

Cette idée s'étend à des séquences d'événements plus longues. Par exemple, si un menu comprend 6 salades, 8 soupes, 15 entrées et 3 desserts, alors il y a 6 fois 8 fois 15 fois 3, ce qui équivaut à 2 160 repas possibles.

Parfois, nous devons compter le nombre de façons dont les objets, les personnes ou les choses peuvent être disposés. Par exemple, combien de façons différentes un groupe de 4 personnes peut-il faire la queue ? Nous pouvons à nouveau utiliser le principe de comptage fondamental. Il y a 4 choix différents pour la première personne en ligne, 3 choix pour la deuxième personne, 2 choix pour la troisième et 1 choix pour la quatrième. En multipliant ces nombres ensemble, nous trouvons qu'il y a 4 fois 3 fois 2 fois 1, ce qui équivaut à 24 façons dont les 4 personnes peuvent être disposées dans la ligne. Ce calcul est si courant que nous lui donnons un nom particulier : factoriel.

En général, la factorielle d'un nombre N, noté N!, est le produit des N premiers entiers positifs. Par exemple, 3 ! est 1 fois 2 fois 3, 5 ! est 1 fois 2 fois 3 fois 4 fois 5, et ainsi de suite. La factorielle croît rapidement, même plus vite que la croissance exponentielle. Par exemple, 10 ! est déjà plus de 3 millions.

Prenons un exemple un peu plus complexe. Supposons que 12 chevaux participent à une course et que nous voulions savoir de combien de manières différentes ils peuvent gagner, se placer et se montrer, c'est-à-dire les trois premières positions. Nous pouvons appliquer à nouveau le principe fondamental de comptage. Il y a 12 gagnants possibles, 11 deuxièmes possibles et 10 troisièmes possibles. En multipliant ces nombres, nous trouvons qu'il y a 12 fois 11 fois 10, ce qui donne 1 320 combinaisons possibles.

Pour généraliser cela, supposons que nous ayons N éléments et que nous voulons compter le nombre d'arrangements pour les K premiers éléments. En utilisant le principe de comptage fondamental, il y a N choix pour le premier élément, N - 1 choix pour le second, et ainsi de suite, jusqu'à ce que nous ayons K termes au total. Le dernier terme sera N - K + 1. Nous l'appelons NPK, qui est égal à N factoriel divisé par (N - K) factoriel.

Une autre situation se présente lorsque nous voulons compter le nombre de façons dont nous pouvons sélectionner des groupes de K objets sans tenir compte de leur ordre. C'est ce qu'on appelle des combinaisons. Par exemple, si trois chevaux sur douze dans une course sont sélectionnés au hasard pour un test antidopage, de combien de manières les chevaux peuvent-ils être choisis ? Dans ce cas, l'ordre n'a pas d'importance. Nous utilisons la notation NCk, qui représente le nombre de façons dont K choses peuvent être choisies parmi un total de N choses sans tenir compte de l'ordre. Pour calculer cela, nous utilisons la formule N choisir K = NPK /(K factorielle). Dans l'exemple donné, nous devons calculer 12 choisissez 3. Pour ce faire, nous pouvons appliquer une petite manipulation algébrique. Nous pouvons réécrire 12 choisir 3 comme 12 permuter 3 divisé par 3 factorielle. En simplifiant encore, nous en avons 12 ! / (12 - 3) ! * 3!. Après avoir effectué les calculs, nous constatons que 12 choisissent 3 est égal à 220. Par conséquent, il existe 220 façons de choisir 3 chevaux sur les 12 pour un test antidopage aléatoire.

En général, nous pouvons exprimer N choisit K comme N factoriel divisé par (N - K) factoriel multiplié par K factoriel. Cette formule nous permet de calculer le nombre de combinaisons pour différents scénarios.

Lorsqu'il s'agit de permutations et de combinaisons, la question cruciale à se poser est de savoir si l'ordre est important. Si l'ordre compte, c'est un problème de permutation. Si l'ordre n'a pas d'importance, c'est un problème de combinaison.

Explorons quelques exemples. Supposons que nous voulions former un comité de quatre personnes à partir d'une classe de vingt élèves. Dans ce cas, l'ordre de sélection n'a pas d'importance, nous devons donc calculer 20 choisissez 4. En utilisant la formule, nous constatons que 20 choisissez 4 est égal à 20 ! / (20 - 4) ! * 4!, qui se simplifie en 48 845. Il existe donc 48 845 façons de former un comité de quatre personnes parmi la classe de vingt élèves.

Maintenant, considérons un autre scénario. Si le comité de quatre personnes doit comprendre un président, un vice-président, un secrétaire et un trésorier, l'ordre de sélection est important. Ici, nous devons calculer 20 permute 4, soit 20 ! / (20 - 4) !. Après avoir effectué les calculs, nous constatons qu'il existe 116 280 arrangements possibles.

Dans une situation un peu différente, supposons qu'un comité de quatre personnes doit être formé à partir d'une classe de vingt élèves, et qu'une personne doit être désignée comme président. Il s'agit d'un problème hybride comportant deux étapes. Tout d'abord, nous sélectionnons le président, ce qui peut se faire de 20 manières différentes. Ensuite, nous choisissons les trois membres restants du comité, où l'ordre n'a pas d'importance. Cela correspond à 19 choisissent 3. Par conséquent, le nombre total de possibilités est de 20 fois (19 choisissent 3). Après avoir calculé cela, nous constatons qu'il y a 19 382 résultats possibles.

En résumé, les permutations et les combinaisons impliquent de compter le nombre de façons dont les événements peuvent se produire ou les objets peuvent être disposés. Comprendre si l'ordre compte ou non est crucial pour déterminer la méthode appropriée pour résoudre le problème. En appliquant le principe de comptage fondamental et en utilisant les formules pour les permutations et les combinaisons, nous pouvons compter efficacement les possibilités dans divers scénarios.

Factorials, Permutations, and Combinations
Factorials, Permutations, and Combinations
  • 2020.07.04
  • www.youtube.com
Let's learn to count. Factorials, permutations, and combinations all rely on the terribly important Fundamental Counting Principle. Make it your friend! If t...
 

Probabilité conditionnelle et règle de multiplication


Probabilité conditionnelle et règle de multiplication

Salut tout le monde, aujourd'hui nous allons nous plonger dans le concept de probabilité conditionnelle et la règle de multiplication. Commençons par illustrer l'idée de probabilité conditionnelle à l'aide d'un exemple.

Dans une étude, un chercheur a contacté 1 250 adultes et a demandé à chacun s'il préférait les chiens ou les chats. Pour commencer, calculons la probabilité de sélectionner au hasard un répondant de cet échantillon qui préfère les chiens. Sur les 1 250 répondants, 589 personnes préfèrent les chiens. Par conséquent, la probabilité de sélectionner au hasard quelqu'un qui préfère les chiens est de 589/1 250, ce qui équivaut à 0,471 ou 47,1 %.

Ensuite, calculons la probabilité qu'un répondant de plus de 55 ans préfère les chiens aux chats. Nous nous concentrons sur la colonne intitulée "55+" dans le tableau. Dans cette colonne, il y a 143 adultes qui préfèrent les chiens sur un total de 325 individus. Par conséquent, la probabilité de sélectionner au hasard quelqu'un dans cette colonne qui préfère les chiens est de 143/325, soit environ 0,44 ou 44 %.

Notez que les deux probabilités ne sont pas les mêmes. Cela met en évidence le concept de probabilité conditionnelle, qui est définie comme la probabilité que l'événement B se produise alors que nous savons déjà que l'événement A s'est produit. Dans notre exemple, nous avons calculé non seulement la probabilité de l'événement B (chiens préférés), mais aussi la probabilité de B compte tenu de A (chiens préférés étant donné que le répondant a plus de 55 ans).

Prenons un autre exemple impliquant une probabilité conditionnelle. Nous avons un jeu de cartes, et deux cartes en sont tirées sans remise. Si la première carte tirée est un roi, nous voulons trouver la probabilité que la deuxième carte tirée soit aussi un roi. Ici, nous avons deux événements : A est l'événement où la première carte tirée est un roi, et B est l'événement où la deuxième carte est un roi.

Si le premier événement se produit (nous tirons un roi), nous avons maintenant 51 cartes restantes, dont trois sont des rois. Par conséquent, la probabilité de tirer un deuxième roi est de 3/51, soit environ 0,059 ou 5,9 %. Il est important de noter que cette probabilité est différente de la probabilité que la première carte soit un roi, qui serait de 4/52 ou 0,077.

La probabilité conditionnelle est particulièrement utile lorsque nous voulons calculer la probabilité que deux événements, A et B, se produisent tous les deux. C'est là que la règle de multiplication entre en jeu. La probabilité que les événements A et B se produisent tous les deux dans l'ordre est donnée par la formule : P(A et B) = P(A) × P(B|A). Nous l'interprétons comme la probabilité que le premier événement se produise multipliée par la probabilité que le deuxième événement se produise, en supposant que le premier événement s'est déjà produit.

Par exemple, calculons la probabilité de tirer deux rois d'un jeu standard sans remise. La probabilité que la première carte soit un roi est de 4/52, et la probabilité que la deuxième carte soit un roi, étant donné que la première carte est un roi, est de 3/51. En multipliant ces probabilités ensemble, nous constatons que la probabilité que les deux cartes soient des rois est d'environ 0,0045 ou 0,45 %.

Considérons maintenant le scénario où un client commande de l'alcool et un apéritif dans un restaurant. Nous avons observé que la probabilité qu'un client commande de l'alcool (événement A) est de 40 %, la probabilité de commander un apéritif (événement B) est de 30 % et la probabilité de commander à la fois de l'alcool et un apéritif (événements A et B) est 20 %.

Pour calculer la probabilité conditionnelle de commander de l'alcool sachant que le client a commandé une entrée (P(A|B)), on peut utiliser la règle de multiplication. En branchant les valeurs données, nous avons P(A et B) = 20%, P(B) = 30%. En réorganisant la formule de la règle de multiplication, nous pouvons résoudre pour P(A|B) :

P(A|B) = P(A et B) / P(B)

En remplaçant les valeurs données, nous avons P(A|B) = 20% / 30% = 2/3 ou environ 0,667. Par conséquent, la probabilité qu'un client commande de l'alcool étant donné qu'il a commandé un apéritif est de deux tiers.

De même, calculons la probabilité de commander un apéritif sachant que le client a commandé de l'alcool (P(B|A)). Encore une fois, en utilisant la règle de multiplication, nous avons :

P(B|A) = P(A et B) / P(A)

En substituant les valeurs données, nous avons P(B|A) = 20% / 40% = 1/2 ou 0,5. Ainsi, la probabilité qu'un client commande une entrée sachant qu'il a commandé de l'alcool est de moitié.

Il est important de noter que ces deux probabilités conditionnelles sont différentes, ce qui indique que les événements de commander de l'alcool et de commander un apéritif sont dépendants. Le fait que P(A|B) n'est pas égal à P(A) et que P(B|A) n'est pas égal à P(B) suggère que savoir si un événement s'est produit fournit des informations sur la probabilité que l'autre événement se produise.

Considérons maintenant quelques exemples pour déterminer si les paires d'événements répertoriées sont indépendantes ou non :

  1. Être diabétique si vos deux parents sont diabétiques : ces événements sont dépendants. Si les deux parents sont diabétiques, la probabilité qu'un individu contracte le diabète augmente. Cependant, il n'est pas certain que l'individu développera un diabète, et il est toujours possible de développer un diabète sans antécédents familiaux de la maladie.

  2. Obtenir un cinq au premier lancer d'un dé standard et obtenir un quatre au deuxième lancer : Ces événements sont indépendants. Le résultat du premier jet ne fournit aucune information sur le résultat du deuxième jet. La probabilité d'obtenir un cinq et un quatre sur un dé équitable est de 1/6 pour chaque événement.

  3. Fumer des cigarettes et contracter un cancer du poumon : ces événements sont dépendants. Fumer des cigarettes augmente le risque de développer un cancer du poumon. Cependant, ce n'est pas une certitude, et les personnes qui ne fument pas peuvent quand même développer un cancer du poumon.

  4. Deux cartes tirées d'un jeu standard sans remplacement, et les deux cartes sont des as : Ces événements sont dépendants. La probabilité de tirer la deuxième carte comme un as dépend de si la première carte tirée était un as. La probabilité que les deux cartes soient des as est inférieure à la probabilité que la première carte soit un as.

  5. Deux cartes tirées d'un jeu standard avec remplacement, et les deux cartes sont des as : ces événements sont indépendants. Remplacer la carte après le premier tirage élimine toute influence ou information acquise à partir de la première carte. La probabilité de tirer un as reste la même pour les deux cartes.

En général, deux événements sont considérés comme indépendants si la probabilité qu'un événement se produise compte tenu de l'occurrence de l'autre événement est égale à la probabilité que l'événement se produise indépendamment. Lorsque les probabilités diffèrent, les événements sont dépendants.

Enfin, analysons un scénario impliquant un responsable étudiant l'exactitude des commandes dans un restaurant. Le responsable examine 960 commandes pour différents repas et moments de la journée afin de déterminer les probabilités.

Question 1 : La probabilité qu'une commande sélectionnée au hasard dans cet ensemble de données soit remplie correctement peut être calculée comme suit : Il y a 842 commandes qui ont été remplies correctement sur un total de 960 commandes. Ainsi, la probabilité est de 842/960, ce qui équivaut à environ 0,877 ou 87,7 %.

Question 2 : Pour trouver la probabilité qu'une commande de dîner sélectionnée au hasard ait été remplie correctement, nous considérons la probabilité conditionnelle. Parmi les commandes de dîner, il y a 249 commandes correctement remplies sur un total de 280 commandes de dîner. Par conséquent, la probabilité est de 249/280, soit environ 0,889 ou 88,9 %.

Question 3 : Pour déterminer si la sélection aléatoire d'une commande correcte est indépendante de la sélection aléatoire d'une commande pour le dîner, nous comparons la probabilité conditionnelle P(A|B) avec la probabilité P(A). Dans ce cas, P(A|B) vaut 0,889 (calculé à la question précédente) et P(A) vaut 0,877 (à partir de la première question). Puisque les deux probabilités ne sont pas égales, nous pouvons conclure que la sélection aléatoire d'une commande correcte n'est pas indépendante de la sélection aléatoire d'une commande de dîner.

Il est important de noter que dans cet exemple, nous avons considéré la probabilité classique, qui consiste à calculer des probabilités en fonction de l'ensemble de données donné. La question de savoir si les observations futures de ces variables seront indépendantes est plus complexe et nécessite une analyse statistique, comme le test du chi carré. La détermination empirique de l'indépendance des événements implique l'évaluation de la présence d'une variabilité aléatoire et l'analyse d'un échantillon de plus grande taille.

Conditional Probability and the Multiplication Rule
Conditional Probability and the Multiplication Rule
  • 2020.09.20
  • www.youtube.com
How does information about the probability of one event change the probability of another event? Let's get into it! If this vid helps you, please help me a t...
 

Une introduction aux variables aléatoires


Une introduction aux variables aléatoires

Bonjour à tous, aujourd'hui nous nous penchons sur le concept de variables aléatoires. Une variable aléatoire est une variable définie sur un processus probabiliste, où le résultat du processus est représenté par une valeur numérique. Explorons quelques exemples pour mieux comprendre.

Considérez le scénario consistant à lancer deux dés et à prendre leur somme. La somme des dés peut être considérée comme une variable aléatoire. Un autre exemple consiste à lancer une pièce 50 fois et à compter le nombre de faces. Le nombre de têtes obtenu dans cette expérience est également une variable aléatoire. De même, mesurer la taille exacte d'une personne choisie au hasard dans la ville de Chicago ou mesurer la durée d'une éruption du geyser Old Faithful sont des exemples de variables aléatoires.

Il est important de noter que tous les résultats d'une expérience probabiliste ne sont pas des variables aléatoires. Par exemple, le sexe d'un chiot choisi au hasard dans un refuge pour chiens ou la couleur des yeux d'un sénateur américain choisi au hasard sont des résultats qui ne relèvent pas de la catégorie des variables aléatoires. Ce sont des données catégorielles car elles ne sont pas numériques et ne définissent pas de variables aléatoires.

Il existe deux types fondamentaux de variables aléatoires : discrètes et continues. Les variables aléatoires continues prennent leurs valeurs dans une plage spécifique, comme la longueur exacte d'une éruption ou la taille exacte d'une personne choisie au hasard. Ces valeurs peuvent inclure des fractions et des décimales à n'importe quel niveau de précision souhaité. D'autre part, les variables aléatoires discrètes ont des valeurs qui peuvent être répertoriées individuellement, telles que 1, 2, 3, 4 ou 5.

Lorsqu'une variable aléatoire a un nombre fini de résultats possibles, nous pouvons construire un tableau qui répertorie tous ces résultats avec leurs probabilités correspondantes. Ce tableau est appelé distribution de probabilité discrète. Considérons un exemple où nous lançons une pièce trois fois et comptons le nombre de faces obtenues. Les résultats possibles sont 0, 1, 2 ou 3 têtes, et nous attribuons des probabilités à chaque résultat. Par exemple, il y a 1 chance sur 8 de ne pas tomber face, et les probabilités diminuent ou augmentent en conséquence.

La construction d'une distribution de probabilité discrète peut également être effectuée à l'aide de données. Supposons que nous enquêtions sur un échantillon aléatoire de 100 adultes aux États-Unis et leur demandions combien de fois ils ont dîné au restaurant en une semaine, avec des réponses allant de 0 à 5. Nous pouvons calculer les probabilités de sélectionner les individus qui entrent dans chaque catégorie en divisant le nombre de personnes dans cette catégorie par la taille totale de l'échantillon, qui est de 100. Il en résulte une distribution de probabilité qui montre tous les résultats possibles de la variable aléatoire (nombre de fois au restaurant) ainsi que leurs probabilités respectives.

Pour représenter visuellement des distributions de probabilité discrètes, nous pouvons dessiner des histogrammes de probabilité. En continuant avec l'exemple précédent, nous pouvons créer un histogramme avec les catégories 0, 1, 2, 3, 4 et 5 sur l'axe des x et les probabilités correspondantes comme hauteurs des barres. Par exemple, si la probabilité d'avoir zéro repas au restaurant la semaine dernière est de 0,49, nous traçons une barre à la hauteur de 0,49 pour la catégorie x=0. La forme de cet histogramme de probabilité serait identique à la forme d'un histogramme de distribution de fréquence pour les mêmes données.

En résumé, les variables aléatoires sont des valeurs numériques qui représentent les résultats d'expériences probabilistes. Ils peuvent être discrets ou continus. Les variables aléatoires discrètes ont un nombre fini de résultats possibles et leurs probabilités peuvent être représentées à l'aide d'une distribution de probabilité discrète. Les histogrammes de probabilité sont utiles pour représenter visuellement des distributions de probabilité discrètes et comprendre la probabilité de différents résultats.

An Introduction to Random Variables
An Introduction to Random Variables
  • 2020.04.30
  • www.youtube.com
What is a random variable? What are the different types? How can we quantify and visualize them? If this vid helps you, please help me a tiny bit by mashing ...
 

Histogrammes de probabilité dans R


Histogrammes de probabilité dans R

Bonjour à tous! Aujourd'hui, nous allons explorer le processus de construction de beaux histogrammes de probabilité dans R à l'aide de la commande qplot. Passons en revue quelques exemples.

Dans notre premier exemple, nous avons une variable aléatoire discrète appelée X, qui peut prendre des valeurs de 1 à 6, ainsi que leurs probabilités respectives. Pour commencer, entrons les données et générons l'histogramme dans R.

Nous commençons par définir la variable X, qui peut prendre des valeurs de 1 à 6. Nous pouvons utiliser l'opérateur deux-points abrégé, 1:6, pour accomplir cela. Maintenant, notre variable X contient les valeurs 1, 2, 3, 4, 5 et 6.

Ensuite, nous créons un vecteur pour stocker les probabilités correspondantes. Dans ce cas, les probabilités pour les valeurs 1, 2, 3, 4, 5 et 6 sont respectivement de 0,15, 0,1, 0,1, 0,4, 0,2 et 0,05. Il est important de noter que l'ordre des probabilités doit correspondre à l'ordre des valeurs correspondantes.

Pour nous assurer que nous avons correctement saisi les données, nous pouvons effectuer une vérification rapide en calculant la somme de toutes les probabilités. La somme devrait toujours être 1 si nous avons une distribution de probabilité discrète légitime. Dans ce cas, la somme est bien 1, indiquant que les données ont été saisies correctement.

Maintenant, générons l'histogramme de probabilité. Nous allons utiliser la fonction qplot et spécifier la variable X pour l'axe des x. Nous devons également indiquer à R comment pondérer les valeurs à l'aide des probabilités, que nous fournissons comme argument de hauteur. Enfin, nous spécifions le type de tracé, qui est un histogramme dans ce cas.

Lors de la génération de l'histogramme, nous remarquons que les barres ne se touchent pas. Dans un histogramme de probabilité, les valeurs adjacentes doivent avoir des barres qui se touchent, indiquant leur relation. Pour résoudre ce problème, nous pouvons spécifier que le nombre de bacs doit être le même que le nombre de valeurs que nous avons. Dans ce cas, nous avons six valeurs, nous fixons donc le nombre de bacs à six.

Maintenant, l'histogramme commence à prendre forme. Cependant, pour améliorer son attrait visuel, nous pouvons ajouter une certaine distinction entre les barres. Nous y parvenons en spécifiant une couleur de limite pour les barres. Dans ce cas, nous utilisons la couleur noire.

Passant au deuxième exemple, nous continuons avec le processus de création d'un histogramme de probabilité. Cette fois, nous avons une variable aléatoire appelée Y, qui peut prendre les valeurs 15, 16, 18, 19 et 20. Nous avons également des probabilités correspondantes pour ces valeurs, sauf pour 17, qui a une probabilité de 0 puisqu'il est pas un résultat possible.

Nous suivons les mêmes étapes qu'auparavant, en saisissant les données et en générant l'histogramme à l'aide de la fonction qplot. Cependant, cette fois, nous remarquons qu'il y a un seau vide à Y égal à 17, indiquant une probabilité de zéro. Pour capturer ces informations avec précision, nous voulons utiliser six bacs, permettant un bac vide à Y égal à 17.

Nous pouvons encore améliorer l'esthétique de l'histogramme en ajoutant une couleur limite et une couleur intérieure pour les barres. Par exemple, nous pouvons définir la couleur de bordure sur bleu foncé et la couleur de remplissage sur bleu normal. De plus, nous pouvons personnaliser l'étiquette de l'axe des y pour indiquer qu'elle représente des probabilités, et changer l'étiquette de l'axe des x en simplement "valeurs" puisqu'il s'agit d'un ensemble de données abstrait.

Avec ces ajustements, notre histogramme de probabilité apparaît plus professionnel. Bien sûr, nous pouvons continuer à affiner les couleurs et les étiquettes pour obtenir la présentation visuelle souhaitée. C'est ainsi que nous construisons un histogramme de probabilité élégant dans R.

Probability Histograms in R
Probability Histograms in R
  • 2020.09.11
  • www.youtube.com
Constructing attractive probability histograms is easy in R. In this vid, we use the qplot() command in the ggplot2 package.If this vid helps you, please hel...
 

Travailler avec des variables aléatoires discrètes


Travailler avec des variables aléatoires discrètes

Bonjour à tous! Aujourd'hui, nous allons explorer le concept de variables aléatoires discrètes et de distributions de probabilité discrètes. Une variable aléatoire est une variable dont la valeur est déterminée par un processus aléatoire. Dans le cas d'une variable aléatoire discrète, les résultats possibles peuvent être répertoriés, ce qui donne une distribution de probabilité discrète.

Prenons un exemple pour illustrer ce concept. Imaginez que nous ayons une maison de 16 pièces et que nous choisissions au hasard une pièce pour compter le nombre de fenêtres dont elle dispose. Le nombre de fenêtres peut être 0, 1, 2, 3 ou 4, chacune avec des probabilités correspondantes de 3/16, 5/16, etc. Cela représente une distribution de probabilité discrète, qui se compose de tous les résultats possibles et de leurs probabilités associées.

Il existe deux propriétés importantes des variables aléatoires discrètes et des distributions de probabilité discrètes. Premièrement, la somme de toutes les probabilités doit être égale à un. Cela garantit que quelque chose se produira toujours, car les probabilités couvrent tous les résultats possibles. Dans notre exemple, si nous additionnons toutes les probabilités, nous obtenons 16/16 ou un.

Deuxièmement, lorsqu'il s'agit de distributions de probabilités discrètes, des probabilités peuvent être ajoutées. Par exemple, si nous voulons trouver la probabilité que X soit 3 ou 4, nous pouvons calculer la probabilité que X soit 3 et la probabilité que X soit 4, puis les additionner. Dans ce cas, la probabilité est de 3/16 + 1/16 = 4/16 = 1/4.

Continuons avec quelques exemples de problèmes. Considérons une autre distribution de probabilité discrète impliquant une variable aléatoire Y avec cinq résultats possibles : 5, 10, 25, 50 et 200. On nous donne des probabilités pour quatre de ces résultats, et nous devons trouver la probabilité pour le cinquième résultat.

Puisque la somme de toutes les probabilités doit être égale à un, nous pouvons en déduire la probabilité manquante. En soustrayant la somme des probabilités connues (0,04 + 0,12 + 0,18 + 0,45) de un, on trouve que la probabilité que Y soit 200 est de 0,21.

Effectuons maintenant quelques calculs en utilisant la même distribution de probabilité discrète. Tout d'abord, nous voulons trouver la probabilité que Y soit inférieur ou égal à 10. Cela implique la somme des probabilités pour Y égal à 5 et Y égal à 10, ce qui donne 0,04 + 0,12 = 0,16.

Ensuite, nous nous intéressons à la probabilité que Y soit un nombre impair. Dans ce cas, nous avons deux résultats : Y est égal à 5 et Y est égal à 25. En additionnant leurs probabilités, nous obtenons 0,04 + 0,18 = 0,22.

Enfin, déterminons la probabilité que Y soit supérieur à 5. Au lieu d'additionner directement les probabilités pour Y égales à 10, 25, 50 et 200, nous pouvons utiliser un raccourci. Nous considérons l'événement complément : la probabilité que Y ne soit pas supérieur à 5. En soustrayant la probabilité que Y soit inférieur ou égal à 5 (0,04) de 1, nous obtenons 1 - 0,04 = 0,96.

Ces exemples montrent comment calculer des probabilités et utiliser des événements complémentaires dans le contexte de distributions de probabilités discrètes.

Working with Discrete Random Variables
Working with Discrete Random Variables
  • 2020.04.30
  • www.youtube.com
Let's solve some problems using discrete probability distributions!
 

Variables aléatoires : moyenne, variance et écart type


Variables aléatoires : moyenne, variance et écart type

Bonjour à tous! Aujourd'hui, nous discuterons des variables aléatoires et de leurs mesures de tendance centrale et de propagation, à savoir la moyenne, la variance et l'écart type. Nous pouvons décrire le centre et la propagation d'une variable aléatoire de la même manière que nous le faisons avec des données numériques.

Prenons un exemple de distribution de probabilité discrète. Imaginez que nous menions une enquête dans laquelle nous demandions au hasard aux gens le nombre de dîners qu'ils avaient mangés au restaurant la semaine précédente. La distribution montre qu'environ 49 % des répondants n'ont pas mangé au restaurant, environ 22 % ont mangé au restaurant une fois, etc. Nous pouvons visualiser cette distribution à l'aide d'un histogramme de probabilité. En observant l'histogramme, il est intuitif de discuter du centre et de la propagation de cette variable aléatoire.

Pour être plus précis, interprétons nos résultats en fonction de l'histogramme. La valeur attendue ou la moyenne d'une variable aléatoire est déterminée en multipliant chaque valeur de la variable aléatoire par sa probabilité correspondante et en additionnant les résultats. Cette moyenne pondérée représente le centre de la variable aléatoire. En nous référant à notre distribution de probabilité discrète précédente, nous calculons la valeur attendue en multipliant chaque valeur (0, 1, 2, etc.) par sa probabilité respective (0,49, 0,22, etc.) et en additionnant les produits. Dans ce cas, la valeur attendue est 1,12.

La valeur attendue est souvent notée μ, ce qui est analogue à la moyenne de la population dans l'analyse des données. Il mesure le centre de la variable aléatoire. En regardant l'histogramme de probabilité, la valeur attendue représente le point d'équilibre où l'histogramme s'équilibrerait sur un point d'appui.

Parlons maintenant de la propagation d'une variable aléatoire discrète, qui est mesurée à l'aide de la variance et de l'écart type. La variance est calculée en soustrayant la moyenne de chaque valeur de la variable aléatoire, en mettant le résultat au carré, en le multipliant par la probabilité correspondante et en additionnant toutes les variances pondérées. Cela capture à quel point chaque valeur s'écarte de la moyenne. Cependant, puisque nous avons mis les différences au carré, la variance résultante n'aura pas les mêmes unités que les données d'origine. Pour avoir une mesure sur la même échelle, on prend la racine carrée de la variance, ce qui nous donne l'écart type.

En pratique, le calcul manuel de la variance et de l'écart type peut être fastidieux. Il est recommandé d'utiliser la technologie, comme les logiciels statistiques ou les calculatrices. Par exemple, dans la programmation R, nous pouvons entrer les valeurs et leurs probabilités correspondantes, puis utiliser des fonctions intégrées pour calculer la valeur attendue, la variance et l'écart type.

En utilisant la technologie, nous pouvons effectuer efficacement des calculs et éviter les calculs manuels impliquant des produits et des carrés. La variance fournit des informations précieuses pour les calculs et les considérations théoriques, tandis que l'écart type est plus pratique pour l'interprétation, car il partage les mêmes unités que la variable aléatoire d'origine.

En résumé, lorsqu'il s'agit de variables aléatoires, il est crucial de comprendre leur centre (moyenne) et leur dispersion (variance et écart-type). Ces mesures nous permettent de quantifier et d'interpréter efficacement les caractéristiques de la variable aléatoire.

Random Variables: Mean, Variance, and Standard Deviation
Random Variables: Mean, Variance, and Standard Deviation
  • 2020.05.02
  • www.youtube.com
If this vid helps you, please help me a tiny bit by mashing that 'like' button. For more #rstats joy, crush that 'subscribe' button!
 

Essais de Bernoulli et distribution binomiale


Essais de Bernoulli et distribution binomiale

Bonjour à tous, aujourd'hui nous allons discuter des essais de Bernoulli et de la distribution binomiale. Un essai de Bernoulli est une simple expérience de probabilité avec deux résultats : succès et échec. Ces essais sont définis par la probabilité de réussite, notée « p » minuscule. Prenons quelques exemples pour illustrer ce concept.

Par exemple, lancer une pièce et considérer face comme un succès aurait une probabilité de succès (p) égale à 1/2. Tirer une carte d'un jeu standard de 52 cartes et considérer un as comme un succès aurait une probabilité de succès (p) égale à 4/52 ou 1/13. Si 40% des électeurs américains approuvent leur président, choisir un électeur au hasard aurait une probabilité de succès (p) égale à 0,4.

Il est important de noter que les termes "succès" et "échec" sont des termes techniques dans ce contexte et n'impliquent aucune déclaration politique ou opinion personnelle. Nous pouvons représenter les essais de Bernoulli comme des variables aléatoires discrètes en codant le succès comme 1 et l'échec comme 0. Cela nous permet de créer une distribution de probabilité simple avec x prenant les valeurs de 0 ou 1. La probabilité d'obtenir un 1 est égale à p, tandis que le probabilité d'obtenir un 0 est égale à 1 - p puisque ces résultats sont complémentaires.

Nous pouvons calculer la valeur attendue de cette variable aléatoire (x) en additionnant x multiplié par la probabilité correspondante (p(x)) pour toutes les valeurs possibles de x. La valeur attendue est égale à p, qui représente la probabilité de succès dans un seul essai. De même, nous pouvons calculer la variance en additionnant (x - valeur attendue) ^ 2 multiplié par p (x) pour toutes les valeurs possibles de x. La variance est égale à p(1 - p). Prendre la racine carrée de la variance nous donne l'écart-type, qui mesure la propagation de la variable aléatoire.

Dans de nombreux cas, les essais de Bernoulli sont répétés, aboutissant à un nombre total de succès dans n essais identiques et indépendants. Cela conduit à une variable aléatoire discrète qui peut prendre des valeurs de 0 à n. La distribution binomiale, généralement notée B(n, p), représente la distribution de probabilité pour cette variable aléatoire lorsque nous avons n essais de Bernoulli identiques et indépendants avec une probabilité de réussite de p.

Par exemple, si une pièce équitable est lancée trois fois et que nous définissons x comme le nombre de faces, nous aurions B(3, 0,5) comme distribution binomiale. Nous pouvons calculer directement les probabilités pour chaque valeur de x en considérant tous les résultats possibles et leurs probabilités correspondantes. Lorsque n devient plus grand, il devient impossible de calculer ces probabilités à la main, et nous avons besoin d'une formule plus générale.

La probabilité d'exactement k succès dans n essais, où k varie de 0 à n, est donnée par la formule n choisir k fois p^k fois (1 - p)^(n - k). Cette formule tient compte du nombre de façons d'obtenir exactement k succès dans n essais et des probabilités respectives. Cela nous permet de calculer efficacement les probabilités dans la distribution binomiale.

Prenons un exemple où un joueur de basket-ball a un taux de réussite moyen de lancer franc de 78 %. Si elle tire dix lancers francs, nous pouvons utiliser la distribution binomiale pour calculer la probabilité qu'elle fasse exactement huit tirs et au moins huit tirs. En insérant les valeurs dans la formule, nous pouvons calculer les probabilités en conséquence.

Une variable aléatoire avec une distribution binomiale est la somme de plusieurs essais de Bernoulli. La moyenne de cette variable aléatoire est donnée par n fois p, et la variance est donnée par n fois p fois (1 - p). L'écart type est la racine carrée de np fois (1 - p).

Dans le cas du basketteur tirant dix fois avec une probabilité de réussite de 0,78, la valeur attendue (moyenne) serait de 10 * 0,78 = 7,8, et l'écart type serait la racine carrée de (10 * 0,78 * (1 - 0,78 )) ≈ 1,3.

Pour visualiser la distribution binomiale, nous pouvons construire un histogramme de probabilité. Prenant l'exemple du basketteur tirant dix coups avec une probabilité de réussite de 0,78, nous créons un histogramme avec des barres représentant chaque valeur de x (nombre de tirs réussis) de 0 à 10. La hauteur de chaque barre correspond à la probabilité d'atteindre ce nombre spécifique de tirs dans les dix tentatives. Par exemple, la probabilité de faire exactement 8 coups serait d'environ 0,3.

La distribution binomiale fournit un cadre utile pour analyser les situations qui impliquent des essais indépendants répétés avec une probabilité de succès fixe. En comprenant les propriétés de la distribution binomiale, telles que la valeur attendue, la variance et les calculs de probabilité, nous pouvons prendre des décisions et des prévisions éclairées dans divers domaines, notamment les statistiques, la finance et le contrôle qualité.

N'oubliez pas que la distribution binomiale suppose certaines conditions, telles que des essais indépendants et une probabilité de réussite fixe pour chaque essai. Ces hypothèses doivent être soigneusement prises en compte lors de l'application de la distribution binomiale à des scénarios réels.

En conclusion, les essais de Bernoulli et la distribution binomiale offrent une compréhension fondamentale des expériences de probabilité avec deux résultats et plusieurs essais indépendants. En utilisant les formules et les propriétés associées à ces concepts, nous pouvons analyser et prédire les probabilités d'atteindre différents niveaux de succès dans divers scénarios.

Bernoulli Trials and The Binomial Distribution
Bernoulli Trials and The Binomial Distribution
  • 2020.08.03
  • www.youtube.com
Your life will get so much better once you understand the binomial distribution. If this vid helps you, please help me a tiny bit by mashing that 'like' butt...
 

Calculs binomiaux dans R


Calculs binomiaux dans R

Bonjour à tous, aujourd'hui nous allons utiliser R pour effectuer des calculs impliquant la distribution binomiale. Dans R, il existe quatre fonctions de base qu'il est important de connaître pour travailler avec la distribution binomiale.

Premièrement, la fonction rbinom() génère des valeurs aléatoires à partir de la distribution binomiale. Il faut trois arguments : le nombre de valeurs aléatoires à générer, la taille de l'échantillon et la probabilité de succès d'un essai individuel. Par exemple, rbinom(10, 2, 0,5) génère 10 valeurs aléatoires à partir d'une distribution binomiale avec une taille d'échantillon de 2 et une probabilité de réussite de 0,5.

Deuxièmement, la fonction dbinom() renvoie la probabilité d'obtenir un nombre spécifié de succès dans la distribution binomiale. Il prend trois arguments : le nombre de succès, la taille de l'échantillon et la probabilité de succès. Vous pouvez spécifier le nombre de succès sous forme de vecteur pour calculer les probabilités pour différents nombres de succès à la fois. Par exemple, dbinom(0:4, 4, 0.5) calcule les probabilités d'obtenir 0, 1, 2, 3 ou 4 succès dans une distribution binomiale avec une taille d'échantillon de 4 et une probabilité de succès de 0,5.

Ensuite, la fonction pbinom() est une fonction de probabilité cumulative. Il renvoie la probabilité d'obtenir au plus un nombre spécifié de succès dans la distribution binomiale. Semblable à dbinom(), vous pouvez fournir un vecteur de valeurs pour calculer les probabilités cumulées. Par exemple, pbinom(0:4, 4, 0,5) renvoie les probabilités d'obtenir au plus 0, 1, 2, 3 ou 4 succès dans une distribution binomiale avec une taille d'échantillon de 4 et une probabilité de succès de 0,5.

Enfin, la fonction qbinom() est un calculateur de probabilité inverse. Il renvoie la plus petite valeur de succès telle que la probabilité cumulée soit égale ou supérieure à une probabilité spécifiée. En d'autres termes, il calcule les quantiles dans la distribution binomiale. Par exemple, qbinom(c(0,25, 0,5, 0,75), 10, 0,5) donne les 25e, 50e et 75e centiles dans une distribution binomiale avec une taille d'échantillon de 10 et une probabilité de réussite de 0,5.

Appliquons maintenant ces fonctions à quelques problèmes.

Problème 1 : Simulons 50 exécutions d'une expérience où nous lançons un dé juste 10 fois et comptons le nombre de six. Nous pouvons utiliser la fonction rbinom() avec une taille d'échantillon de 10 et une probabilité de réussite de 1/6 (puisqu'il y a 1 chance sur 6 d'obtenir un six).

results <- rbinom ( 50 , 10 , 1 / 6 ) table ( results )

Problème 2 : Selon un récent sondage, 72 % des Américains préfèrent les chiens aux chats. Si 8 Américains sont choisis au hasard, quelle est la probabilité qu'exactement 6 d'entre eux préfèrent les chiens et que moins de 6 préfèrent les chiens ? Nous pouvons utiliser les fonctions dbinom() et pbinom().

# Probability of exactly 6 preferring dogs
prob_six <- dbinom ( 6 , 8 , 0.72 ) # Probability of fewer than 6 preferring dogs
prob_less_than_six <- pbinom ( 5 , 8 , 0.72 )
prob_six
prob_less_than_six

Problème 3 : Une pièce pondérée a 42 % de chances de tomber face. Quel est le nombre attendu de face en 5 lancers ? Construisez également un histogramme de probabilité pour la variable aléatoire représentant le nombre de faces dans 5 lancers.

Pour calculer le nombre attendu de têtes, nous pouvons utiliser la formule de la valeur attendue d'une distribution binomiale, qui est le produit de la taille de l'échantillon et de la probabilité de succès. Dans ce cas, la taille de l'échantillon est de 5 et la probabilité de succès (obtenir une tête) est de 0,42.

# Expected number of heads
expected_heads <- 5 * 0.42 expected_heads

Le nombre prévu de face dans 5 lancers de la pièce pondérée est de 2,1.

Pour construire un histogramme de probabilité, nous allons utiliser le package ggplot2 dans R. Tout d'abord, installons et chargeons le package.

install.packages ( "ggplot2" ) # Run this line if ggplot2 is not installed
library ( ggplot2 )

Ensuite, nous allons générer la distribution de probabilité discrète pour le nombre de faces en 5 lancers à l'aide de la fonction dbinom(). Nous calculerons les probabilités pour chaque nombre possible de têtes (0 à 5).

x <- 0 : 5 # Possible number of heads
p <- dbinom ( x , 5 , 0.42 ) # Probabilities

Maintenant, nous pouvons créer l'histogramme de probabilité en utilisant ggplot2.

# Create probability histogram
df <- data.frame ( x = x , p = p )
ggplot ( df , aes ( x = as.factor ( x ) , y = p ) ) + geom_bar ( stat = "identity" , fill = "lightblue" ) + xlab ( "Number of Heads" ) + ylab ( "Probability" ) + ggtitle ( "Probability Histogram for Number of Heads in 5 Tosses" )

Ce code générera un histogramme avec le nombre de têtes sur l'axe des x et les probabilités correspondantes sur l'axe des y.

Binomial Calculations in R
Binomial Calculations in R
  • 2020.09.12
  • www.youtube.com
In this vid, we learn how to do binomial calculation in R using the commands rbinom(), dbinom, pbinom(), and qbinom(). If this vid helps you, please help me ...
 

La distribution uniforme


La distribution uniforme

Bonjour à tous, aujourd'hui, nous allons nous plonger dans les variables aléatoires continues et explorer spécifiquement celles avec des distributions uniformes.

Commençons par rappeler ce qu'est une variable aléatoire continue. C'est une variable qui peut prendre des valeurs dans une plage entière, par opposition à un ensemble discret de valeurs. Par exemple, si nous sélectionnons quelqu'un au hasard et mesurons sa taille exacte, il y a une infinité de valeurs possibles que cette variable aléatoire peut prendre. Par conséquent, la probabilité d'obtenir une valeur particulière est infiniment petite, ce qui rend impossible de discuter des probabilités de valeurs spécifiques. Pour résoudre ce problème, nous nous concentrons sur les probabilités associées à la variable aléatoire tombant dans des plages de valeurs spécifiques.

Par exemple, au lieu de demander la probabilité qu'une personne mesure précisément 58,6 pouces (ce qui serait presque nul), nous pourrions nous renseigner sur la probabilité que sa taille se situe entre 55 et 65 pouces. Cette approche nous permet de travailler avec des probabilités significatives. Un autre exemple consiste à considérer la probabilité qu'une chanson sélectionnée au hasard dure moins de trois minutes ou plus de trois minutes, plutôt que exactement trois minutes.

L'un des types les plus simples de variables aléatoires continues est la distribution uniforme. Dans une variable aléatoire uniformément distribuée, les probabilités sont uniformément réparties sur l'ensemble de son domaine. Vous avez peut-être rencontré ce concept dans la fonction rand() d'Excel, qui génère un nombre aléatoire entre 0 et 1 avec les décimales spécifiées. Dans ce cas, toutes les valeurs ont des probabilités égales. Nous appelons cela une distribution uniforme sur l'intervalle [0, 1].

Pour calculer les probabilités d'une distribution uniforme, nous divisons la largeur de l'intervalle souhaité par la largeur totale de la plage entière. Par exemple, la probabilité que le résultat soit inférieur à 0,2 est de 0,2 divisé par 1 (la largeur totale), ce qui donne 0,2. De même, la probabilité que le résultat soit supérieur ou égal à 4 est de 0,6, car l'intervalle d'intérêt a une largeur de 0,6 unité. Il convient de noter que la rigueur des inégalités (par exemple, "<" contre "<=") n'est pas pertinente lorsqu'il s'agit de variables aléatoires continues, étant donné que les probabilités de résultats individuels sont infiniment petites.

Nous pouvons également étendre le concept de distributions de probabilité uniformes à d'autres intervalles. Par exemple, considérer l'intervalle [1, 7] donnerait une distribution de probabilité continue où la variable aléatoire peut prendre n'importe quelle valeur entre 1 et 7 avec une probabilité égale. Examinons quelques exemples dans cette distribution :

  • La probabilité que la variable aléatoire soit inférieure à 5 est de 4/6 ou 2/3, calculée en divisant la largeur de l'intervalle de 1 à 5 (4) par la largeur totale de l'intervalle (6).
  • La probabilité que la variable aléatoire soit inférieure ou égale à 1,5 est de 0,5/6 ou 1/12. Ici, nous divisons la largeur de l'intervalle de 1 à 1,5 (0,5) par la largeur totale de l'intervalle (6).
  • La probabilité que la variable aléatoire soit supérieure à 6,12 est de 11/70 ou 0,157, obtenue en divisant la largeur de l'intervalle de 6,12 à 7 par la largeur totale de l'intervalle (70/5).

Dessiner des histogrammes de probabilité pour des variables aléatoires continues n'est pas possible de la même manière que pour des variables aléatoires discrètes puisque les probabilités individuelles sont infinitésimales. Au lieu de cela, nous utilisons des diagrammes de densité, représentant la probabilité sous forme de surface plutôt que de hauteur. Dans un diagramme de densité pour une distribution uniforme, toutes les probabilités sont égales et se traduisent par une ligne horizontale. La surface totale sous le diagramme de densité doit toujours être de 1 pour garantir que les probabilités se résument correctement.

Pour illustrer, considérons une distribution uniforme sur l'intervalle [-5, 5]. Dans ce cas, la largeur du domaine est de 10 (5 - (-5)). Pour créer la courbe de densité, nous avons besoin que la hauteur du rectangle soit 1 divisé par la largeur, ce qui nous donne 1/10. Cela garantit que la surface totale sous la courbe de densité est de 1.

Calculons maintenant la probabilité que la variable aléatoire soit supérieure à 3,5 dans cette distribution. On peut redessiner la courbe de densité et colorer la région correspondant à X > 3,5. La probabilité est alors égale à l'aire de cette région ombrée.

En appliquant la formule de calcul de l'aire d'un rectangle (base multipliée par la hauteur), on multiplie la largeur (5 - 3,5 = 1,5) par la hauteur (1/10). Il en résulte une surface de 1,5/10 ou 15 %.

Pour résumer, dans la distribution uniforme U(-5, 5), la probabilité que X soit supérieur à 3,5 est de 15 %.

The Uniform Distribution
The Uniform Distribution
  • 2020.05.13
  • www.youtube.com
Your first continuous random variable! The uniform distribution is a fantastic way to learn the basics.
 

Variables aléatoires continues


Variables aléatoires continues

Bonjour à tous! Aujourd'hui, nous allons nous plonger dans le sujet des variables aléatoires continues. Une variable aléatoire continue est simplement une variable qui peut prendre des valeurs sur toute une plage, permettant des mesures précises. Explorons quelques exemples pour illustrer ce concept.

Imaginez que vous choisissiez un chien au hasard au refuge pour animaux local et que vous mesuriez la longueur de sa queue. Vous pouvez obtenir des mesures avec n'importe quel degré de précision que vous désirez. De même, envisagez de prendre une lecture de température exacte au pôle Sud à un moment aléatoire ou de mesurer la durée d'un appel au service client sélectionné au hasard. Ces exemples démontrent la capacité de mesurer des variables à n'importe quel niveau de précision.

En revanche, une variable aléatoire discrète ne peut prendre que des valeurs d'un ensemble non continu. Par exemple, lancer un dé 20 fois et compter le nombre de six donnera des nombres entiers comme 0, 1, 2, 3, 4, etc. Cependant, des fractions ou des décimales telles que la moitié, les deux tiers ou trois et un quart ne sont pas des résultats possibles.

La description des probabilités pour les variables aléatoires continues est plus complexe que pour les variables discrètes. Avec une infinité de résultats possibles, la probabilité d'obtenir un résultat individuel particulier est essentiellement nulle. Par exemple, si nous déclarons qu'un appel au service client dure 150 secondes, la durée réelle peut être de 150,1, 150,05 ou d'innombrables autres valeurs. Par conséquent, la probabilité que l'appel dure exactement 150 secondes est essentiellement nulle.

Néanmoins, certaines durées d'appel peuvent sembler plus probables que d'autres. Nous nous attendons à ce qu'un appel de 150 secondes soit beaucoup plus probable qu'un appel de trois heures. Pour traiter les probabilités des variables aléatoires continues, nous nous concentrons sur des plages de valeurs plutôt que sur des résultats spécifiques. Par exemple, nous considérons la probabilité qu'un appel tombe entre 140 et 160 secondes, ce qui donne souvent des probabilités non nulles.

Une façon de visualiser une variable aléatoire continue consiste à utiliser une courbe de densité. Les probabilités sur les plages sont alors représentées sous forme d'aires sous la courbe de densité. Examinons un graphique représentant une variable aléatoire, X, qui varie de 0 à 4 avec une probabilité décroissante. La région ombrée du graphique représente la probabilité que X se situe entre 1 et 2 lors d'un essai donné. À partir de l'image, nous pouvons observer que la probabilité que X tombe entre 1 et 2 est inférieure à la probabilité qu'il tombe entre 0 et 1. Cet écart survient parce qu'il y a plus d'aire sous la courbe de 0 à 1 par rapport à 1 à 2 De même, la probabilité est plus élevée pour X tombant entre 1 et 2 qu'entre 2 et 3. On peut estimer la probabilité que X tombe entre 1 et 2 en approximant l'aire de la région ombrée, ce qui donne un résultat d'environ 3 dixièmes ou 30 %.

Une courbe de densité est communément appelée fonction de densité de probabilité (PDF). Un PDF légitime possède deux propriétés essentielles. Premièrement, il doit toujours être positif pour s'aligner sur la nature positive des probabilités. Deuxièmement, la surface totale sous le graphique d'un PDF légitime doit toujours être un, ce qui signifie que nous obtenons une certaine valeur de X lors de la réalisation d'une expérience de probabilité.

Bien que le concept d'un PDF et d'une courbe de densité puisse être intuitif, les calculs réels les impliquant peuvent être difficiles. En pratique, nous travaillons souvent avec des fonctions de distribution cumulatives (CDF) de variables aléatoires pour contourner le besoin de calculs approfondis. Un CDF fournit la probabilité qu'une variable aléatoire prenne une valeur non supérieure à un X spécifié lors d'un essai donné. Essentiellement, il accumule les probabilités. Par exemple, si X augmente, la valeur CDF correspondante augmente également à mesure que la probabilité s'accumule.

En utilisant le CDF, nous pouvons calculer la probabilité qu'une variable aléatoire tombe dans une plage spécifique. Cette probabilité est déterminée en soustrayant les valeurs CDF des limites inférieure et supérieure de la plage. Examinons le graphique de la PDF et de la CDF de la même variable aléatoire, notée X. La région ombrée du graphique représente la probabilité cumulée pour X d'être inférieur ou égal à deux, notée F(2), la CDF à deux . Notez que lorsque X augmente, la CDF, F(X), augmente toujours aussi parce que plus de probabilité est accumulée.

Pour calculer la probabilité que X tombe entre deux valeurs, disons a et b, nous soustrayons la valeur CDF en b de la valeur CDF en a. Dans le graphique, cela correspond à soustraire l'aire à gauche de X égal à 2 de l'aire à gauche de X égal à 1. Mathématiquement, cela s'exprime par F(b) - F(a). La représentation visuelle le rend évident.

Le type le plus simple de variable aléatoire continue est celui avec une distribution uniforme. Dans une distribution uniforme, les probabilités sont égales pour des intervalles de même largeur. Essentiellement, cela signifie que chaque valeur de X dans une plage particulière est également probable. Une autre façon de voir cela est que le PDF d'une variable aléatoire uniformément distribuée est une fonction constante.

Prenons un exemple. Supposons que nous ayons une variable aléatoire continue dont les valeurs peuvent être comprises entre 1 et 7 avec une distribution uniforme. Le PDF est une fonction constante entre 1 et 7, avec une aire totale de 1. Puisque la largeur de l'intervalle est de 6, la hauteur du graphique est de 1/6. Avec cette information, nous pouvons calculer les probabilités pour n'importe quelle plage de X. Par exemple, la probabilité que X tombe entre 2 et 7 est donnée par la largeur de l'intervalle, qui est de 7 moins 2, divisée par la hauteur du graphique, qui est 1/6. Ainsi, la probabilité est (1/6) * (7 - 2) = 5/6.

Si vous souhaitez une explication plus complète des distributions uniformes, j'ai une vidéo dédiée sur le sujet que vous pouvez trouver dans le lien fourni ci-dessus.

Continuous Random Variables
Continuous Random Variables
  • 2020.09.26
  • www.youtube.com
Continuous random variables are cool. No, really! In this vid, we cover pdfs (probability density functions) and cdfs (cumulative distribution functions) and...