Tutorial di programmazione - pagina 13

 

Fattoriali, permutazioni e combinazioni


Fattoriali, permutazioni e combinazioni

Ciao a tutti, oggi esploreremo i concetti di conteggio, inclusi fattoriali, permutazioni e combinazioni. Tutto si riduce al principio fondamentale del conteggio, che afferma che se un evento può verificarsi in M modi e il secondo evento può verificarsi in N modi, allora i due eventi in sequenza possono verificarsi in un totale di M volte N modi. È importante sottolineare che l'esito del primo evento non influisce sul numero di risultati possibili per il secondo evento.

Cominciamo con un esempio. Supponiamo che un menu includa 6 insalate e 8 zuppe. Quante combinazioni di zuppa e insalata sono possibili? Per prima cosa scegliamo un'insalata, che ci offre 6 possibilità. Per ciascuna di queste scelte, ci sono 8 possibili zuppe. Pertanto, ci ritroviamo con 6 gruppi da 8, per un totale di 48 combinazioni possibili.

Questa idea si estende a sequenze di eventi più lunghe. Ad esempio, se un menu comprende 6 insalate, 8 zuppe, 15 antipasti e 3 dessert, allora ci sono 6 volte 8 volte 15 volte 3, che equivalgono a 2.160 pasti possibili.

A volte, dobbiamo contare il numero di modi in cui oggetti, persone o cose possono essere disposti. Ad esempio, in quanti modi diversi può mettersi in fila un gruppo di 4 persone? Possiamo usare di nuovo il principio fondamentale del conteggio. Ci sono 4 scelte diverse per la prima persona in fila, 3 scelte per la seconda persona, 2 scelte per la terza e 1 scelta per la quarta. Moltiplicando questi numeri troviamo che ci sono 4 x 3 x 2 x 1, che equivale a 24 modi in cui le 4 persone possono essere disposte in fila. Questo calcolo è così comune che gli diamo un nome speciale: fattoriale.

In generale, il fattoriale di un numero N, indicato con N!, è il prodotto dei primi N interi positivi. Ad esempio, 3! è 1 per 2 per 3, 5! è 1 x 2 x 3 x 4 x 5 e così via. Il fattoriale cresce rapidamente, anche più velocemente della crescita esponenziale. Ad esempio, 10! è già più di 3 milioni.

Consideriamo un esempio leggermente più complesso. Supponiamo che 12 cavalli partecipino a una corsa e vogliamo sapere in quanti modi diversi possono vincere, piazzarsi e mostrarsi, ovvero le prime tre posizioni. Possiamo applicare ancora una volta il principio fondamentale del conteggio. Ci sono 12 possibili vincitori, 11 possibili secondi classificati e 10 possibili terzi classificati. Moltiplicando questi numeri, troviamo che ci sono 12 volte 11 volte 10, risultando in 1.320 possibili combinazioni.

Per generalizzare, supponiamo di avere N elementi e di voler contare il numero di arrangiamenti per i primi K elementi. Usando il principio fondamentale del conteggio, ci sono N scelte per il primo elemento, N - 1 scelte per il secondo, e così via, fino ad avere K termini in totale. L'ultimo termine sarà N - K + 1. Indichiamo questo come NPK, che è uguale a N fattoriale diviso per (N - K) fattoriale.

Un'altra situazione si verifica quando vogliamo contare il numero di modi in cui possiamo selezionare gruppi di K oggetti indipendentemente dal loro ordine. Questo si chiama combinazioni. Ad esempio, se tre cavalli su dodici in una corsa vengono selezionati a caso per il test antidroga, in quanti modi possono essere scelti i cavalli? In questo caso, l'ordine non ha importanza. Usiamo la notazione NCk, che rappresenta il numero di modi in cui K cose possono essere scelte da un totale di N cose senza considerare l'ordine. Per calcolarlo, usiamo la formula N scegli K = NPK /(K fattoriale). Nell'esempio dato, dobbiamo calcolare 12 scegliere 3. Per fare ciò, possiamo applicare una piccola manipolazione algebrica. Possiamo riscrivere 12 scegli 3 come 12 permuta 3 diviso 3 fattoriale. Semplificando ulteriormente, ne abbiamo 12! / (12 - 3)! * 3!. Dopo aver eseguito i calcoli, troviamo che 12 scegli 3 è uguale a 220. Pertanto, ci sono 220 modi per scegliere 3 cavalli su 12 per test antidroga casuali.

In generale, possiamo esprimere N scegliere K come N fattoriale diviso per (N - K) fattoriale per K fattoriale. Questa formula ci consente di calcolare il numero di combinazioni per vari scenari.

Quando si ha a che fare con permutazioni e combinazioni, la domanda cruciale da porsi è se l'ordine sia importante. Se l'ordine è importante, è un problema di permutazione. Se l'ordine non ha importanza, è un problema di combinazione.

Esploriamo alcuni esempi. Supponiamo di voler formare un comitato di quattro persone provenienti da una classe di venti studenti. In questo caso, l'ordine di selezione non ha importanza, quindi dobbiamo calcolare 20 scegli 4. Usando la formula, scopriamo che 20 scegli 4 è uguale a 20! / (20 - 4)! * 4!, che semplifica a 48.845. Pertanto, ci sono 48.845 modi per formare un comitato di quattro persone della classe di venti studenti.

Consideriamo ora un altro scenario. Se il comitato di quattro persone deve includere un presidente, un vicepresidente, un segretario e un tesoriere, l'ordine di selezione è importante. Qui dobbiamo calcolare 20 permuta 4, che fa 20! / (20 - 4)!. Dopo aver eseguito i calcoli, troviamo che ci sono 116.280 possibili arrangiamenti.

In una situazione leggermente diversa, supponiamo che si debba formare un comitato di quattro persone da una classe di venti studenti, e che una persona debba essere designata come presidente. Questo è un problema ibrido che coinvolge due passaggi. Per prima cosa selezioniamo il presidente, cosa che può essere fatta in 20 modi diversi. Quindi, scegliamo i restanti tre membri del comitato, dove l'ordine non ha importanza. Ciò corrisponde a 19 scegli 3. Pertanto, il numero totale di possibilità è 20 volte (19 scegli 3). Dopo aver calcolato questo, troviamo che ci sono 19.382 possibili risultati.

In sintesi, le permutazioni e le combinazioni implicano il conteggio del numero di modi in cui gli eventi possono verificarsi o gli oggetti possono essere disposti. Capire se l'ordine è importante o meno è fondamentale per determinare il metodo appropriato per risolvere il problema. Applicando il principio fondamentale del conteggio e utilizzando le formule per le permutazioni e le combinazioni, possiamo effettivamente contare le possibilità in vari scenari.

Factorials, Permutations, and Combinations
Factorials, Permutations, and Combinations
  • 2020.07.04
  • www.youtube.com
Let's learn to count. Factorials, permutations, and combinations all rely on the terribly important Fundamental Counting Principle. Make it your friend! If t...
 

Probabilità condizionale e regola di moltiplicazione


Probabilità condizionale e regola di moltiplicazione

Ciao a tutti, oggi approfondiremo il concetto di probabilità condizionata e la regola della moltiplicazione. Iniziamo illustrando l'idea di probabilità condizionata usando un esempio.

In uno studio, un ricercatore ha contattato 1.250 adulti e ha chiesto a ciascuno se preferissero cani o gatti. Per iniziare, calcoliamo la probabilità di selezionare casualmente un intervistato da questo campione che preferisce i cani. Dei 1.250 intervistati, ci sono 589 persone che preferiscono i cani. Pertanto, la probabilità di selezionare a caso qualcuno che preferisce i cani è 589/1.250, che equivale a 0,471 o 47,1%.

Successivamente, calcoliamo la probabilità che un intervistato di età superiore ai 55 anni preferisca i cani ai gatti. Ci concentriamo sulla colonna denominata "55+" nella tabella. All'interno di questa colonna ci sono 143 adulti che preferiscono i cani su un totale di 325 individui. Pertanto, la probabilità di selezionare casualmente qualcuno da quella colonna che preferisce i cani è 143/325, che è circa 0,44 o 44%.

Si noti che le due probabilità non sono le stesse. Ciò evidenzia il concetto di probabilità condizionata, che è definita come la probabilità che l'evento B si verifichi quando sappiamo già che l'evento A si è verificato. Nel nostro esempio, abbiamo calcolato non solo la probabilità dell'evento B (preferenza dei cani), ma anche la probabilità di B dato A (preferenza dei cani dato che l'intervistato ha più di 55 anni).

Consideriamo un altro esempio che coinvolge la probabilità condizionata. Abbiamo un mazzo di carte e da esso vengono estratte due carte senza sostituzione. Se la prima carta estratta è un re, vogliamo trovare la probabilità che anche la seconda carta estratta sia un re. Qui abbiamo due eventi: A è l'evento in cui la prima carta pescata è un re, e B è l'evento in cui la seconda carta è un re.

Se si verifica il primo evento (peschiamo un re), ora ci rimangono 51 carte, di cui tre sono re. Pertanto, la probabilità di estrarre un secondo re è 3/51, ovvero circa 0,059 o 5,9%. È importante notare che questa probabilità è diversa dalla probabilità che la prima carta sia un re, che sarebbe 4/52 o 0,077.

La probabilità condizionata è particolarmente utile quando si vuole calcolare la probabilità che si verifichino entrambi due eventi, A e B. È qui che entra in gioco la regola della moltiplicazione. La probabilità che gli eventi A e B si verifichino entrambi in sequenza è data dalla formula: P(A e B) = P(A) × P(B|A). Lo interpretiamo come la probabilità che si verifichi il primo evento moltiplicata per la probabilità che si verifichi il secondo evento, supponendo che il primo evento sia già accaduto.

Ad esempio, calcoliamo la probabilità di estrarre due re da un mazzo standard senza sostituzione. La probabilità che la prima carta sia un re è 4/52, e la probabilità che la seconda carta sia un re, dato che la prima carta è un re, è 3/51. Moltiplicando insieme queste probabilità, troviamo che la probabilità che entrambe le carte siano re è approssimativamente dello 0,0045 o dello 0,45%.

Consideriamo ora lo scenario in cui un cliente ordina alcolici e un aperitivo in un ristorante. Abbiamo osservato che la probabilità che un cliente ordini alcolici (evento A) è del 40%, la probabilità che ordini un antipasto (evento B) è del 30% e la probabilità che ordini sia alcolici sia uno stuzzichino (eventi A e B) è 20%.

Per calcolare la probabilità condizionata di ordinare alcolici dato che il cliente ha ordinato un antipasto (P(A|B)), possiamo usare la regola della moltiplicazione. Inserendo i valori dati, abbiamo P(A e B) = 20%, P(B) = 30%. Riorganizzando la formula della regola di moltiplicazione, possiamo risolvere per P(A|B):

P(A|B) = P(A e B) / P(B)

Sostituendo i valori dati, abbiamo P(A|B) = 20% / 30% = 2/3 o circa 0,667. Pertanto, la probabilità che un cliente ordini alcolici dato che ha ordinato un antipasto è di due terzi.

Allo stesso modo, calcoliamo la probabilità di ordinare un aperitivo dato che il cliente ha ordinato alcolici (P(B|A)). Ancora una volta, utilizzando la regola della moltiplicazione, abbiamo:

P(B|A) = P(A e B) / P(A)

Sostituendo i valori dati, abbiamo P(B|A) = 20% / 40% = 1/2 o 0.5. Pertanto, la probabilità che un cliente ordini un antipasto dato che ha ordinato alcolici è la metà.

È importante notare che queste due probabilità condizionali sono diverse, a indicare che gli eventi dell'ordinazione di alcolici e dell'ordinazione di un aperitivo sono dipendenti. Il fatto che P(A|B) non sia uguale a P(A) e P(B|A) non sia uguale a P(B) suggerisce che sapere se un evento si è verificato fornisce informazioni sulla probabilità che si verifichi l'altro evento.

Consideriamo ora alcuni esempi per determinare se le coppie di eventi elencate sono indipendenti o meno:

  1. Ottenere il diabete se entrambi i tuoi genitori hanno il diabete: questi eventi dipendono. Se entrambi i genitori hanno il diabete, aumenta la probabilità che un individuo contragga il diabete. Tuttavia, non è certo che l'individuo svilupperà il diabete ed è ancora possibile sviluppare il diabete senza una storia familiare della condizione.

  2. Ottenere un cinque al primo lancio di un dado standard e ottenere un quattro al secondo: questi eventi sono indipendenti. L'esito del primo tiro non fornisce alcuna informazione sull'esito del secondo tiro. La probabilità di ottenere un cinque e un quattro su un dado equilibrato è 1/6 per ogni evento.

  3. Fumare sigarette e ammalarsi di cancro ai polmoni: questi eventi sono dipendenti. Fumare sigarette aumenta la probabilità di sviluppare il cancro ai polmoni. Tuttavia, non è una certezza e le persone che non fumano possono ancora sviluppare il cancro ai polmoni.

  4. Due carte estratte da un mazzo standard senza sostituzione, ed entrambe le carte sono assi: questi eventi sono dipendenti. La probabilità di estrarre la seconda carta come un asso dipende dal fatto che la prima carta estratta fosse un asso. La probabilità che entrambe le carte siano assi è inferiore alla probabilità che la prima carta sia un asso.

  5. Due carte estratte da un mazzo standard con rimpiazzo ed entrambe le carte sono assi: questi eventi sono indipendenti. Sostituire la carta dopo la prima estrazione elimina qualsiasi influenza o informazione ottenuta dalla prima carta. La probabilità di estrarre un asso rimane la stessa per entrambe le carte.

In generale, due eventi sono considerati indipendenti se la probabilità che un evento si verifichi dato il verificarsi dell'altro evento è uguale alla probabilità che l'evento si verifichi indipendentemente. Quando le probabilità differiscono, gli eventi sono dipendenti.

Infine, analizziamo uno scenario che coinvolge un manager che studia l'accuratezza degli ordini in un ristorante. Il manager esamina 960 ordini per diversi pasti e orari della giornata per determinare le probabilità.

Domanda 1: La probabilità che un ordine selezionato casualmente da questo set di dati sia stato eseguito correttamente può essere calcolata come segue: Ci sono 842 ordini che sono stati completati correttamente su 960 ordini totali. Pertanto, la probabilità è 842/960, che equivale a circa 0,877 o 87,7%.

Domanda 2: Per trovare la probabilità che un ordine per la cena selezionato a caso sia stato riempito correttamente, consideriamo la probabilità condizionale. Tra gli ordini per la cena, ci sono 249 ordini compilati correttamente su un totale di 280 ordini per la cena. Pertanto, la probabilità è 249/280, che è circa 0,889 o 88,9%.

Domanda 3: Per determinare se la selezione casuale di un ordine corretto è indipendente dalla selezione casuale di un ordine per la cena, confrontiamo la probabilità condizionata P(A|B) con la probabilità P(A). In questo caso, P(A|B) è 0,889 (come calcolato nella domanda precedente) e P(A) è 0,877 (dalla prima domanda). Poiché le due probabilità non sono uguali, possiamo concludere che la selezione casuale di un ordine corretto non è indipendente dalla selezione casuale di un ordine per la cena.

È importante notare che in questo esempio abbiamo considerato la probabilità classica, che prevede il calcolo delle probabilità in base al dato set di dati. La questione se le osservazioni future di queste variabili saranno indipendenti è più complessa e richiede un'analisi statistica, come il test del chi-quadrato. La determinazione empirica dell'indipendenza degli eventi comporta la valutazione della presenza di variabilità casuale e l'analisi di un campione più ampio.

Conditional Probability and the Multiplication Rule
Conditional Probability and the Multiplication Rule
  • 2020.09.20
  • www.youtube.com
How does information about the probability of one event change the probability of another event? Let's get into it! If this vid helps you, please help me a t...
 

Un'introduzione alle variabili casuali


Un'introduzione alle variabili casuali

Ciao a tutti, oggi stiamo approfondendo il concetto di variabili casuali. Una variabile casuale è una variabile definita su un processo probabilistico, in cui il risultato del processo è rappresentato da un valore numerico. Esploriamo alcuni esempi per ottenere una migliore comprensione.

Considera lo scenario di tirare due dadi e sommarne la somma. La somma dei dadi può essere considerata una variabile casuale. Un altro esempio è lanciare una moneta 50 volte e contare il numero di teste. Anche il conteggio delle teste ottenuto in questo esperimento è una variabile casuale. Allo stesso modo, misurare l'altezza esatta di una persona scelta a caso nella città di Chicago o misurare la lunghezza di un'eruzione del geyser Old Faithful sono esempi di variabili casuali.

È importante notare che non tutti i risultati di un esperimento probabilistico sono variabili casuali. Ad esempio, il sesso di un cucciolo scelto a caso in un canile o il colore degli occhi di un senatore statunitense scelto a caso sono risultati che non rientrano nella categoria delle variabili casuali. Questi sono dati categorici poiché non sono numerici e non definiscono variabili casuali.

Esistono due tipi fondamentali di variabili casuali: discrete e continue. Le variabili casuali continue prendono i loro valori all'interno di un intervallo specifico, come la lunghezza esatta di un'eruzione o l'altezza esatta di una persona selezionata a caso. Questi valori possono includere frazioni e decimali con qualsiasi livello di precisione desiderato. D'altra parte, le variabili casuali discrete hanno valori che possono essere elencati singolarmente, come 1, 2, 3, 4 o 5.

Quando una variabile casuale ha un numero finito di possibili risultati, possiamo costruire una tabella che elenchi tutti questi risultati insieme alle probabilità corrispondenti. Questa tabella è chiamata distribuzione di probabilità discreta. Consideriamo un esempio in cui lanciamo una moneta tre volte e contiamo il numero di teste ottenute. I possibili risultati sono 0, 1, 2 o 3 teste e assegniamo probabilità a ciascun risultato. Ad esempio, c'è una possibilità su 8 di non ottenere testa e le probabilità diminuiscono o aumentano di conseguenza.

La costruzione di una distribuzione di probabilità discreta può essere eseguita anche utilizzando i dati. Supponiamo di esaminare un campione casuale di 100 adulti negli Stati Uniti e chiedere loro quante volte hanno cenato fuori in una settimana, con risposte che vanno da 0 a 5. Possiamo calcolare le probabilità di selezionare individui che rientrano in ciascuna categoria dividendo il numero di persone in quella categoria per la dimensione totale del campione, che è 100. Ciò si traduce in una distribuzione di probabilità che mostra tutti i possibili risultati della variabile casuale (numero di volte in cui si mangia fuori) insieme alle rispettive probabilità.

Per rappresentare visivamente distribuzioni di probabilità discrete, possiamo disegnare istogrammi di probabilità. Continuando con l'esempio precedente, possiamo creare un istogramma con le categorie 0, 1, 2, 3, 4 e 5 sull'asse x e le probabilità corrispondenti come altezze delle barre. Ad esempio, se la probabilità di non mangiare fuori nell'ultima settimana è 0,49, disegniamo una barra all'altezza di 0,49 per la categoria x=0. La forma di questo istogramma di probabilità sarebbe identica alla forma di un istogramma di distribuzione di frequenza per gli stessi dati.

In sintesi, le variabili casuali sono valori numerici che rappresentano i risultati di esperimenti probabilistici. Possono essere discreti o continui. Le variabili casuali discrete hanno un numero finito di possibili risultati e le loro probabilità possono essere rappresentate utilizzando una distribuzione di probabilità discreta. Gli istogrammi di probabilità sono utili per rappresentare visivamente distribuzioni di probabilità discrete e comprendere la probabilità di risultati diversi.

An Introduction to Random Variables
An Introduction to Random Variables
  • 2020.04.30
  • www.youtube.com
What is a random variable? What are the different types? How can we quantify and visualize them? If this vid helps you, please help me a tiny bit by mashing ...
 

Istogrammi di probabilità in R


Istogrammi di probabilità in R

Ciao a tutti! Oggi esploreremo il processo di costruzione di bellissimi istogrammi di probabilità in R usando il comando qplot. Passiamo attraverso un paio di esempi.

Nel nostro primo esempio, abbiamo una variabile casuale discreta chiamata X, che può assumere valori da 1 a 6, insieme alle rispettive probabilità. Per iniziare, inseriamo i dati e generiamo l'istogramma in R.

Iniziamo definendo la variabile X, che può assumere valori da 1 a 6. Possiamo usare l'operatore abbreviato due punti, 1:6, per ottenere questo risultato. Ora, la nostra variabile X contiene i valori 1, 2, 3, 4, 5 e 6.

Successivamente, creiamo un vettore per memorizzare le probabilità corrispondenti. In questo caso, le probabilità per i valori 1, 2, 3, 4, 5 e 6 sono rispettivamente 0,15, 0,1, 0,1, 0,4, 0,2 e 0,05. È importante notare che l'ordine delle probabilità deve corrispondere all'ordine dei valori corrispondenti.

Per assicurarci di aver inserito correttamente i dati, possiamo eseguire un rapido controllo calcolando la somma di tutte le probabilità. La somma dovrebbe essere sempre 1 se abbiamo una distribuzione di probabilità discreta legittima. In questo caso, la somma è effettivamente 1, a indicare che i dati sono stati inseriti correttamente.

Ora generiamo l'istogramma di probabilità. Useremo la funzione qplot e specificheremo la variabile X per l'asse x. Dobbiamo anche far sapere a R come pesare i valori usando le probabilità, che forniamo come argomento dell'altezza. Infine, specifichiamo il tipo di grafico, che in questo caso è un istogramma.

Dopo aver generato l'istogramma, notiamo che le barre non si toccano. In un istogramma di probabilità, i valori adiacenti dovrebbero avere barre che si toccano, indicando la loro relazione. Per risolvere questo problema, possiamo specificare che il numero di contenitori sia uguale al numero di valori che abbiamo. In questo caso, abbiamo sei valori, quindi impostiamo il numero di contenitori su sei.

Ora l'istogramma sta iniziando a prendere forma. Tuttavia, per migliorare il suo fascino visivo, possiamo aggiungere qualche distinzione tra le barre. Raggiungiamo questo obiettivo specificando un colore limite per le barre. In questo caso, usiamo il colore nero.

Passando al secondo esempio, continuiamo con il processo di creazione di un istogramma di probabilità. Questa volta abbiamo una variabile casuale chiamata Y, che può assumere i valori 15, 16, 18, 19 e 20. Abbiamo anche probabilità corrispondenti per questi valori, ad eccezione di 17, che ha una probabilità pari a 0 poiché è non un esito possibile.

Seguiamo gli stessi passaggi di prima, inserendo i dati e generando l'istogramma usando la funzione qplot. Tuttavia, questa volta notiamo che c'è un secchio vuoto in corrispondenza di Y uguale a 17, che indica una probabilità pari a zero. Per acquisire queste informazioni in modo accurato, vogliamo utilizzare sei contenitori, consentendo un contenitore vuoto a Y uguale a 17.

Possiamo migliorare ulteriormente l'estetica dell'istogramma aggiungendo un colore di contorno e un colore interno per le barre. Ad esempio, possiamo impostare il colore del contorno su blu scuro e il colore di riempimento su blu normale. Inoltre, possiamo personalizzare l'etichetta dell'asse y per indicare che rappresenta le probabilità e modificare l'etichetta dell'asse x semplicemente in "valori" poiché si tratta di un set di dati astratto.

Con questi aggiustamenti, il nostro istogramma di probabilità appare più professionale. Naturalmente, possiamo continuare a perfezionare i colori e le etichette per ottenere la presentazione visiva desiderata. Questo è il modo in cui costruiamo un elegante istogramma di probabilità in R.

Probability Histograms in R
Probability Histograms in R
  • 2020.09.11
  • www.youtube.com
Constructing attractive probability histograms is easy in R. In this vid, we use the qplot() command in the ggplot2 package.If this vid helps you, please hel...
 

Lavorare con variabili casuali discrete


Lavorare con variabili casuali discrete

Ciao a tutti! Oggi esploreremo il concetto di variabili casuali discrete e distribuzioni discrete di probabilità. Una variabile casuale è una variabile il cui valore è determinato da un processo casuale. Nel caso di una variabile casuale discreta, i possibili risultati possono essere elencati, risultando in una distribuzione di probabilità discreta.

Consideriamo un esempio per illustrare questo concetto. Immagina di avere una casa con 16 stanze e selezioniamo a caso una stanza per contare il numero di finestre che ha. Il numero di finestre può essere 0, 1, 2, 3 o 4, ciascuna con probabilità corrispondenti di 3/16, 5/16 e così via. Ciò rappresenta una distribuzione di probabilità discreta, che consiste in tutti i possibili risultati e le probabilità associate.

Ci sono due importanti proprietà delle variabili casuali discrete e delle distribuzioni discrete di probabilità. In primo luogo, la somma di tutte le probabilità deve essere uguale a uno. Ciò garantisce che accadrà sempre qualcosa, poiché le probabilità coprono tutti i possibili risultati. Nel nostro esempio, se sommiamo tutte le probabilità, otteniamo 16/16 o uno.

In secondo luogo, quando si ha a che fare con distribuzioni di probabilità discrete, è possibile sommare le probabilità. Per esempio, se vogliamo trovare la probabilità che X sia 3 o 4, possiamo calcolare la probabilità che X sia 3 e la probabilità che X sia 4, e poi sommarle. In questo caso, la probabilità è 3/16 + 1/16 = 4/16 = 1/4.

Procediamo con un paio di problemi di esempio. Considera un'altra distribuzione di probabilità discreta che coinvolge una variabile casuale Y con cinque possibili risultati: 5, 10, 25, 50 e 200. Ci vengono date le probabilità per quattro di questi risultati e dobbiamo trovare la probabilità per il quinto risultato.

Poiché la somma di tutte le probabilità deve essere uguale a una, possiamo dedurre la probabilità mancante. Sottraendo la somma delle probabilità note (0,04 + 0,12 + 0,18 + 0,45) da uno, troviamo che la probabilità che Y sia 200 è 0,21.

Ora eseguiamo un paio di calcoli usando la stessa distribuzione di probabilità discreta. Innanzitutto, vogliamo trovare la probabilità che Y sia minore o uguale a 10. Ciò comporta la somma delle probabilità per Y uguale a 5 e Y uguale a 10, che risulta in 0,04 + 0,12 = 0,16.

Successivamente, siamo interessati alla probabilità che Y sia un numero dispari. In questo caso, abbiamo due risultati: Y uguale a 5 e Y uguale a 25. Sommando le loro probabilità, otteniamo 0,04 + 0,18 = 0,22.

Infine, determiniamo la probabilità che Y sia maggiore di 5. Invece di sommare direttamente le probabilità per Y pari a 10, 25, 50 e 200, possiamo usare una scorciatoia. Consideriamo l'evento complementare: la probabilità che Y non sia maggiore di 5. Sottraendo da 1 la probabilità che Y sia minore o uguale a 5 (0.04), otteniamo 1 - 0.04 = 0.96.

Questi esempi dimostrano come calcolare le probabilità e utilizzare eventi complementari nel contesto di distribuzioni discrete di probabilità.

Working with Discrete Random Variables
Working with Discrete Random Variables
  • 2020.04.30
  • www.youtube.com
Let's solve some problems using discrete probability distributions!
 

Variabili casuali: media, varianza e deviazione standard


Variabili casuali: media, varianza e deviazione standard

Ciao a tutti! Oggi discuteremo le variabili casuali e le loro misure di tendenza centrale e diffusione, vale a dire media, varianza e deviazione standard. Possiamo descrivere il centro e la diffusione di una variabile casuale in modo simile a come facciamo con i dati numerici.

Consideriamo un esempio di distribuzione di probabilità discreta. Immagina di aver condotto un sondaggio in cui abbiamo chiesto a caso alle persone il numero di cene che hanno mangiato fuori la settimana precedente. La distribuzione mostra che circa il 49% degli intervistati non ha mangiato fuori, circa il 22% ha mangiato fuori una volta e così via. Possiamo visualizzare questa distribuzione utilizzando un istogramma di probabilità. Osservando l'istogramma, è intuitivo discutere il centro e la diffusione di questa variabile casuale.

Per essere più specifici, interpretiamo i nostri risultati in base all'istogramma. Il valore atteso o la media di una variabile casuale viene determinato moltiplicando ciascun valore della variabile casuale per la probabilità corrispondente e sommando i risultati. Questa media ponderata rappresenta il centro della variabile casuale. Facendo riferimento alla nostra precedente distribuzione di probabilità discreta, calcoliamo il valore atteso moltiplicando ciascun valore (0, 1, 2, ecc.) per la rispettiva probabilità (0,49, 0,22, ecc.) e sommando i prodotti. In questo caso, il valore atteso è 1,12.

Il valore atteso è spesso indicato come μ, che è analogo alla media della popolazione nell'analisi dei dati. Misura il centro della variabile casuale. Osservando l'istogramma di probabilità, il valore atteso rappresenta il punto di equilibrio in cui l'istogramma si bilancerebbe su un fulcro.

Ora, discutiamo la diffusione di una variabile casuale discreta, che viene misurata utilizzando la varianza e la deviazione standard. La varianza viene calcolata sottraendo la media da ciascun valore della variabile casuale, elevando al quadrato il risultato, moltiplicandolo per la probabilità corrispondente e sommando tutte le varianze ponderate. Questo cattura quanto ogni valore devia dalla media. Tuttavia, poiché abbiamo elevato al quadrato le differenze, la varianza risultante non avrà le stesse unità dei dati originali. Per avere una misura sulla stessa scala, prendiamo la radice quadrata della varianza, ottenendo la deviazione standard.

In pratica, il calcolo manuale della varianza e della deviazione standard può essere complicato. Si consiglia di utilizzare la tecnologia, come software statistici o calcolatori. Ad esempio, nella programmazione R, possiamo inserire i valori e le probabilità corrispondenti, quindi utilizzare le funzioni integrate per calcolare il valore atteso, la varianza e la deviazione standard.

Utilizzando la tecnologia, possiamo eseguire calcoli in modo efficiente ed evitare calcoli manuali che coinvolgono prodotti e quadrati. La varianza fornisce spunti preziosi per calcoli e considerazioni teoriche, mentre la deviazione standard è più conveniente per l'interpretazione, in quanto condivide le stesse unità della variabile casuale originale.

In sintesi, quando si ha a che fare con variabili casuali, è fondamentale comprenderne il centro (media) e la diffusione (varianza e deviazione standard). Queste misure ci consentono di quantificare e interpretare in modo efficiente le caratteristiche della variabile casuale.

Random Variables: Mean, Variance, and Standard Deviation
Random Variables: Mean, Variance, and Standard Deviation
  • 2020.05.02
  • www.youtube.com
If this vid helps you, please help me a tiny bit by mashing that 'like' button. For more #rstats joy, crush that 'subscribe' button!
 

Prove di Bernoulli e distribuzione binomiale


Prove di Bernoulli e distribuzione binomiale

Ciao a tutti, oggi parleremo delle prove di Bernoulli e della distribuzione binomiale. Un processo Bernoulli è un semplice esperimento di probabilità con due risultati: successo e fallimento. Queste prove sono definite dalla probabilità di successo, indicata come "p" minuscola. Consideriamo alcuni esempi per illustrare questo concetto.

Ad esempio, lanciare una moneta e considerare testa come un successo avrebbe una probabilità di successo (p) pari a 1/2. Pescare una carta da un mazzo standard di 52 carte e considerare un asso come un successo avrebbe una probabilità di successo (p) pari a 4/52 o 1/13. Se il 40% degli elettori americani approva il proprio presidente, scegliere un elettore a caso avrebbe una probabilità di successo (p) pari a 0,4.

È importante notare che i termini "successo" e "fallimento" sono termini tecnici in questo contesto e non implicano dichiarazioni politiche o opinioni personali. Possiamo rappresentare le prove di Bernoulli come variabili casuali discrete codificando il successo come 1 e il fallimento come 0. Questo ci permette di creare una semplice distribuzione di probabilità con x che assume valori di 0 o 1. La probabilità di ottenere un 1 è uguale a p, mentre la la probabilità di ottenere uno 0 è uguale a 1 - p poiché questi risultati sono complementari.

Possiamo calcolare il valore atteso di questa variabile casuale (x) sommando x moltiplicato per la corrispondente probabilità (p(x)) per tutti i possibili valori di x. Il valore atteso è pari a p, che rappresenta la probabilità di successo in una singola prova. Allo stesso modo, possiamo calcolare la varianza sommando (x - valore atteso)^2 moltiplicato per p(x) per tutti i possibili valori di x. La varianza è uguale a p(1 - p). Prendendo la radice quadrata della varianza otteniamo la deviazione standard, che misura la diffusione della variabile casuale.

In molti casi, le prove di Bernoulli vengono eseguite ripetutamente, risultando in un numero totale di successi in n prove identiche e indipendenti. Ciò porta a una variabile casuale discreta che può assumere valori da 0 a n. La distribuzione binomiale, tipicamente indicata come B(n, p), rappresenta la distribuzione di probabilità per questa variabile casuale quando abbiamo n prove di Bernoulli identiche e indipendenti con una probabilità di successo di p.

Ad esempio, se una moneta quadra viene lanciata tre volte e definiamo x come il numero di teste, avremmo B(3, 0.5) come distribuzione binomiale. Possiamo calcolare direttamente le probabilità per ogni valore di x considerando tutti i possibili risultati e le probabilità corrispondenti. Man mano che n diventa più grande, diventa poco pratico calcolare manualmente queste probabilità e abbiamo bisogno di una formula più generale.

La probabilità di esattamente k successi in n prove, dove k varia da 0 a n, è data dalla formula n scegli k volte p^k volte (1 - p)^(n - k). Questa formula rappresenta il numero di modi per ottenere esattamente k successi in n prove e le rispettive probabilità. Ci consente di calcolare le probabilità in modo efficiente nella distribuzione binomiale.

Consideriamo un esempio in cui un giocatore di basket ha una percentuale media di successo di tiri liberi del 78%. Se tira dieci tiri liberi, possiamo usare la distribuzione binomiale per calcolare la probabilità che faccia esattamente otto tiri e almeno otto tiri. Inserendo i valori nella formula, possiamo calcolare le probabilità di conseguenza.

Una variabile casuale con una distribuzione binomiale è la somma di più prove di Bernoulli. La media di questa variabile casuale è data da n volte p, e la varianza è data da n volte p volte (1 - p). La deviazione standard è la radice quadrata di np volte (1 - p).

Nel caso del giocatore di basket che tira dieci volte con una probabilità di successo di 0,78, il valore atteso (media) sarebbe 10 * 0,78 = 7,8 e la deviazione standard sarebbe la radice quadrata di (10 * 0,78 * (1 - 0,78 )) ≈ 1.3.

Per visualizzare la distribuzione binomiale, possiamo costruire un istogramma di probabilità. Prendendo l'esempio del giocatore di basket che tira dieci tiri con una probabilità di successo di 0,78, creiamo un istogramma con barre che rappresentano ogni valore di x (numero di tiri riusciti) da 0 a 10. L'altezza di ogni barra corrisponde alla probabilità di raggiungere quel numero specifico di colpi nei dieci tentativi. Ad esempio, la probabilità di fare esattamente 8 tiri sarebbe di circa 0,3.

La distribuzione binomiale fornisce un quadro utile per analizzare situazioni che comportano ripetute prove indipendenti con una probabilità di successo fissa. Comprendendo le proprietà della distribuzione binomiale, come il valore atteso, la varianza e i calcoli di probabilità, possiamo prendere decisioni e previsioni informate in vari campi, tra cui statistica, finanza e controllo di qualità.

Ricorda che la distribuzione binomiale presuppone determinate condizioni, come prove indipendenti e una probabilità di successo fissa per ogni prova. Queste ipotesi dovrebbero essere considerate attentamente quando si applica la distribuzione binomiale a scenari del mondo reale.

In conclusione, le prove di Bernoulli e la distribuzione binomiale offrono una comprensione fondamentale degli esperimenti di probabilità con due esiti e più prove indipendenti. Utilizzando le formule e le proprietà associate a questi concetti, possiamo analizzare e prevedere le probabilità di raggiungere diversi livelli di successo in vari scenari.

Bernoulli Trials and The Binomial Distribution
Bernoulli Trials and The Binomial Distribution
  • 2020.08.03
  • www.youtube.com
Your life will get so much better once you understand the binomial distribution. If this vid helps you, please help me a tiny bit by mashing that 'like' butt...
 

Calcoli binomiali in R


Calcoli binomiali in R

Ciao a tutti, oggi useremo R per eseguire calcoli che coinvolgono la distribuzione binomiale. In R, ci sono quattro funzioni di base che è importante conoscere per lavorare con la distribuzione binomiale.

Innanzitutto, la funzione rbinom() genera valori casuali dalla distribuzione binomiale. Richiede tre argomenti: il numero di valori casuali da generare, la dimensione del campione e la probabilità di successo in una singola prova. Ad esempio, rbinom(10, 2, 0.5) genera 10 valori casuali da una distribuzione binomiale con una dimensione del campione di 2 e una probabilità di successo di 0.5.

In secondo luogo, la funzione dbinom() restituisce la probabilità di ottenere un numero specificato di successi nella distribuzione binomiale. Richiede tre argomenti: il numero di successi, la dimensione del campione e la probabilità di successo. È possibile specificare il numero di successi come vettore per calcolare le probabilità per diversi numeri di successi contemporaneamente. Ad esempio, dbinom(0:4, 4, 0.5) calcola le probabilità di ottenere 0, 1, 2, 3 o 4 successi in una distribuzione binomiale con una dimensione del campione di 4 e una probabilità di successo di 0,5.

Successivamente, la funzione pbinom() è una funzione di probabilità cumulativa. Restituisce la probabilità di ottenere al massimo un numero specificato di successi nella distribuzione binomiale. Analogamente a dbinom(), è possibile fornire un vettore di valori per calcolare le probabilità cumulative. Ad esempio, pbinom(0:4, 4, 0.5) restituisce le probabilità di ottenere al massimo 0, 1, 2, 3 o 4 successi in una distribuzione binomiale con una dimensione del campione di 4 e una probabilità di successo di 0,5.

Infine, la funzione qbinom() è un calcolatore di probabilità inversa. Restituisce il valore più piccolo di successi tale che la probabilità cumulativa sia uguale o maggiore di una probabilità specificata. In altre parole, calcola quantili nella distribuzione binomiale. Ad esempio, qbinom(c(0.25, 0.5, 0.75), 10, 0.5) fornisce il 25°, 50° e 75° percentile in una distribuzione binomiale con una dimensione del campione di 10 e una probabilità di successo di 0,5.

Ora applichiamo queste funzioni ad alcuni problemi.

Problema 1: simuliamo 50 esecuzioni di un esperimento in cui tiriamo un dado equilibrato 10 volte e contiamo il numero di sei. Possiamo usare la funzione rbinom() con la dimensione del campione di 10 e la probabilità di successo di 1/6 (poiché c'è una probabilità di 1/6 di ottenere un sei).

results <- rbinom ( 50 , 10 , 1 / 6 ) table ( results )

Problema 2: secondo un recente sondaggio, il 72% degli americani preferisce i cani ai gatti. Se si scelgono a caso 8 americani, qual è la probabilità che esattamente 6 di loro preferiscano i cani e che meno di 6 preferiscano i cani? Possiamo usare le funzioni dbinom() e pbinom().

# Probability of exactly 6 preferring dogs
prob_six <- dbinom ( 6 , 8 , 0.72 ) # Probability of fewer than 6 preferring dogs
prob_less_than_six <- pbinom ( 5 , 8 , 0.72 )
prob_six
prob_less_than_six

Problema 3: una moneta ponderata ha una probabilità del 42% di uscire testa. Qual è il numero previsto di teste in 5 lanci? Inoltre, costruisci un istogramma di probabilità per la variabile casuale che rappresenta il numero di teste in 5 lanci.

Per calcolare il numero atteso di teste, possiamo usare la formula per il valore atteso di una distribuzione binomiale, che è il prodotto della dimensione del campione e la probabilità di successo. In questo caso, la dimensione del campione è 5 e la probabilità di successo (ottenere una testa) è 0,42.

# Expected number of heads
expected_heads <- 5 * 0.42 expected_heads

Il numero previsto di teste in 5 lanci della moneta ponderata è 2,1.

Per costruire un istogramma di probabilità, useremo il pacchetto ggplot2 in R. Innanzitutto, installiamo e carichiamo il pacchetto.

install.packages ( "ggplot2" ) # Run this line if ggplot2 is not installed
library ( ggplot2 )

Successivamente, genereremo la distribuzione di probabilità discreta per il numero di teste in 5 lanci utilizzando la funzione dbinom(). Calcoleremo le probabilità per ogni possibile numero di teste (da 0 a 5).

x <- 0 : 5 # Possible number of heads
p <- dbinom ( x , 5 , 0.42 ) # Probabilities

Ora possiamo creare l'istogramma di probabilità usando ggplot2.

# Create probability histogram
df <- data.frame ( x = x , p = p )
ggplot ( df , aes ( x = as.factor ( x ) , y = p ) ) + geom_bar ( stat = "identity" , fill = "lightblue" ) + xlab ( "Number of Heads" ) + ylab ( "Probability" ) + ggtitle ( "Probability Histogram for Number of Heads in 5 Tosses" )

Questo codice genererà un istogramma con il numero di teste sull'asse x e le probabilità corrispondenti sull'asse y.

Binomial Calculations in R
Binomial Calculations in R
  • 2020.09.12
  • www.youtube.com
In this vid, we learn how to do binomial calculation in R using the commands rbinom(), dbinom, pbinom(), and qbinom(). If this vid helps you, please help me ...
 

La distribuzione uniforme


La distribuzione uniforme

Ciao a tutti, oggi approfondiremo le variabili casuali continue ed esploreremo in particolare quelle con distribuzioni uniformi.

Iniziamo ricordando cos'è una variabile aleatoria continua. È una variabile che può assumere valori all'interno di un intero intervallo, al contrario di un insieme discreto di valori. Ad esempio, se selezioniamo casualmente qualcuno e misuriamo la sua altezza esatta, ci sono infiniti valori possibili che questa variabile casuale può assumere. Di conseguenza, la probabilità di ottenere un valore particolare è infinitamente piccola, rendendo poco pratico discutere le probabilità di valori specifici. Per risolvere questo problema, ci concentriamo sulle probabilità associate alla variabile casuale che rientra in specifici intervalli di valori.

Ad esempio, invece di chiedere la probabilità che qualcuno sia alto esattamente 58,6 pollici (che sarebbe quasi zero), potremmo indagare sulla probabilità che la sua altezza sia compresa tra 55 e 65 pollici. Questo approccio ci permette di lavorare con probabilità significative. Un altro esempio è considerare la probabilità che una canzone selezionata a caso duri meno di tre minuti o più lunga di tre minuti, anziché esattamente tre minuti.

Uno dei tipi più semplici di variabili casuali continue è la distribuzione uniforme. In una variabile casuale uniformemente distribuita, le probabilità sono uniformemente distribuite in tutto il suo intero dominio. Potresti aver incontrato questo concetto nella funzione rand() di Excel, che genera un numero casuale compreso tra 0 e 1 con le posizioni decimali specificate. In questo caso, tutti i valori hanno probabilità uguali. Ci riferiamo a questo come una distribuzione uniforme sull'intervallo [0, 1].

Per calcolare le probabilità per una distribuzione uniforme, dividiamo la larghezza dell'intervallo desiderato per la larghezza totale dell'intero intervallo. Ad esempio, la probabilità che il risultato sia inferiore a 0,2 è 0,2 diviso per 1 (l'ampiezza totale), risultando in 0,2. Allo stesso modo, la probabilità che il risultato sia maggiore o uguale a 4 è 0,6, poiché l'intervallo di interesse ha un'ampiezza di 0,6 unità. Vale la pena notare che la severità delle disuguaglianze (ad esempio, "<" vs. "<=") è irrilevante quando si ha a che fare con variabili casuali continue, dato che le probabilità dei risultati individuali sono infinitamente piccole.

Possiamo estendere il concetto di distribuzioni di probabilità uniformi anche ad altri intervalli. Ad esempio, considerando l'intervallo [1, 7] produrrebbe una distribuzione di probabilità continua in cui la variabile casuale può assumere qualsiasi valore compreso tra 1 e 7 con uguale probabilità. Esaminiamo alcuni esempi all'interno di questa distribuzione:

  • La probabilità che la variabile casuale sia inferiore a 5 è 4/6 o 2/3, calcolata dividendo l'ampiezza dell'intervallo da 1 a 5 (4) per l'ampiezza totale dell'intervallo (6).
  • La probabilità che la variabile casuale sia minore o uguale a 1,5 è 0,5/6 o 1/12. Qui, dividiamo la larghezza dell'intervallo da 1 a 1,5 (0,5) per la larghezza totale dell'intervallo (6).
  • La probabilità che la variabile casuale sia maggiore di 6,12 è 11/70 o 0,157, ottenuta dividendo l'ampiezza dell'intervallo da 6,12 a 7 per l'ampiezza totale dell'intervallo (70/5).

Disegnare istogrammi di probabilità per variabili casuali continue non è possibile allo stesso modo delle variabili casuali discrete poiché le probabilità individuali sono infinitesimali. Invece, utilizziamo grafici di densità, che rappresentano la probabilità come area piuttosto che come altezza. In un diagramma di densità per una distribuzione uniforme, tutte le probabilità sono uguali e risultano in una linea orizzontale. L'area totale sotto il grafico della densità dovrebbe essere sempre 1 per garantire che le probabilità si riassumano correttamente.

Per illustrare, consideriamo una distribuzione uniforme sull'intervallo [-5, 5]. In questo caso, la larghezza del dominio è 10 (5 - (-5)). Per creare la curva di densità, abbiamo bisogno che l'altezza del rettangolo sia 1 divisa per la larghezza, che ci dà 1/10. Ciò garantisce che l'area totale sotto la curva di densità sia 1.

Ora, calcoliamo la probabilità che la variabile casuale sia maggiore di 3,5 in questa distribuzione. Possiamo ridisegnare la curva di densità e ombreggiare la regione corrispondente a X > 3.5. La probabilità è quindi uguale all'area di quella regione ombreggiata.

Applicando la formula per calcolare l'area di un rettangolo (base per altezza), moltiplichiamo la larghezza (5 - 3,5 = 1,5) per l'altezza (1/10). Ciò si traduce in un'area di 1,5/10 o 15%.

Riassumendo, nella distribuzione uniforme U(-5, 5), la probabilità che X sia maggiore di 3,5 è del 15%.

The Uniform Distribution
The Uniform Distribution
  • 2020.05.13
  • www.youtube.com
Your first continuous random variable! The uniform distribution is a fantastic way to learn the basics.
 

Variabili casuali continue


Variabili casuali continue

Ciao a tutti! Oggi approfondiremo l'argomento delle variabili casuali continue. Una variabile casuale continua è semplicemente una variabile che può assumere valori in un intero intervallo, consentendo misurazioni precise. Esploriamo alcuni esempi per illustrare questo concetto.

Immagina di selezionare un cane a caso al rifugio per animali locale e misurare la lunghezza della sua coda. È possibile ottenere misurazioni con qualsiasi grado di accuratezza desiderato. Allo stesso modo, prendi in considerazione la lettura esatta della temperatura al Polo Sud in un momento casuale o la misurazione della durata di una chiamata al servizio clienti selezionata a caso. Questi esempi dimostrano la capacità di misurare le variabili a qualsiasi livello di precisione.

Al contrario, una variabile casuale discreta può solo assumere valori da un insieme non continuo. Ad esempio, tirando un dado 20 volte e contando il numero di sei si otterranno numeri interi come 0, 1, 2, 3, 4 e così via. Tuttavia, frazioni o decimali come metà, due terzi o tre e un quarto non sono risultati possibili.

La descrizione delle probabilità per le variabili casuali continue è più complessa che per quelle discrete. Con infiniti risultati possibili, la probabilità di ottenere un particolare risultato individuale è essenzialmente zero. Ad esempio, se affermiamo che una chiamata al servizio clienti dura 150 secondi, la lunghezza effettiva potrebbe essere 150,1, 150,05 o qualsiasi altro valore. Quindi, la probabilità che la chiamata duri esattamente 150 secondi è sostanzialmente zero.

Tuttavia, alcune durate delle chiamate possono sembrare più probabili di altre. Prevediamo che una chiamata della durata di 150 secondi sia molto più probabile di una della durata di tre ore. Per affrontare le probabilità per variabili casuali continue, ci concentriamo su intervalli di valori piuttosto che su risultati specifici. Ad esempio, consideriamo la probabilità che una chiamata cada tra 140 e 160 secondi, che spesso produce probabilità diverse da zero.

Un modo per visualizzare una variabile casuale continua è attraverso una curva di densità. Le probabilità sugli intervalli vengono quindi rappresentate come aree sotto la curva di densità. Esaminiamo un grafico raffigurante una variabile casuale, X, che va da 0 a 4 con probabilità decrescente. La regione ombreggiata nel grafico rappresenta la probabilità che X rientri tra 1 e 2 in una data prova. Dall'immagine, possiamo osservare che la probabilità che X cada tra 1 e 2 è inferiore alla probabilità che cada tra 0 e 1. Questa discrepanza si verifica perché c'è più area sotto la curva da 0 a 1 rispetto a 1 a 2 Allo stesso modo, la probabilità che X rientri tra 1 e 2 è maggiore che tra 2 e 3. Possiamo stimare la probabilità che X rientri tra 1 e 2 approssimando l'area della regione ombreggiata, che produce un risultato di circa 3 decimi o 30%.

Una curva di densità è comunemente chiamata funzione di densità di probabilità (PDF). Un PDF legittimo possiede due proprietà essenziali. In primo luogo, deve essere sempre positivo per allinearsi alla natura positiva delle probabilità. In secondo luogo, l'area totale sotto il grafico di un PDF legittimo dovrebbe sempre essere uno, a significare che otteniamo un certo valore di X quando conduciamo un esperimento di probabilità.

Sebbene il concetto di PDF e curva di densità possa essere intuitivo, i calcoli effettivi che li coinvolgono possono essere impegnativi. In pratica, lavoriamo spesso con funzioni di distribuzione cumulativa (CDF) di variabili casuali per aggirare la necessità di calcoli estesi. Un CDF fornisce la probabilità che una variabile casuale assuma un valore non maggiore di una X specificata in una data prova. Essenzialmente, accumula le probabilità. Ad esempio, se X aumenta, anche il corrispondente valore CDF aumenta man mano che si accumula più probabilità.

Usando il CDF, possiamo calcolare la probabilità che una variabile casuale rientri in un intervallo specifico. Questa probabilità è determinata sottraendo i valori CDF dei limiti inferiore e superiore dell'intervallo. Esaminiamo il grafico della PDF e della CDF della stessa variabile casuale, indicata con X. La regione ombreggiata nel grafico rappresenta la probabilità accumulata che X sia minore o uguale a due, indicata con F(2), la CDF a due . Si noti che all'aumentare di X, anche la CDF, F(X), aumenta sempre perché si accumula più probabilità.

Per calcolare la probabilità che X rientri tra due valori, diciamo a e b, sottraiamo il valore CDF in b dal valore CDF in a. Nel grafico, ciò corrisponde alla sottrazione dell'area a sinistra di X uguale a 2 dall'area a sinistra di X uguale a 1. Matematicamente, questo è espresso come F(b) - F(a). La rappresentazione visiva lo rende evidente.

Il tipo più semplice di variabile casuale continua è quello con una distribuzione uniforme. In una distribuzione uniforme, le probabilità sono uguali per intervalli di uguale ampiezza. In sostanza, significa che ogni valore di X all'interno di un particolare intervallo è ugualmente probabile. Un altro modo per vederlo è che la PDF di una variabile casuale uniformemente distribuita è una funzione costante.

Consideriamo un esempio. Supponiamo di avere una variabile casuale continua in cui i valori possono essere compresi tra 1 e 7 con una distribuzione uniforme. La PDF è una funzione costante tra 1 e 7, con un'area totale di 1. Poiché la larghezza dell'intervallo è 6, l'altezza del grafico è 1/6. Con queste informazioni, possiamo calcolare le probabilità per qualsiasi intervallo di X. Ad esempio, la probabilità che X rientri tra 2 e 7 è data dall'ampiezza dell'intervallo, che è 7 meno 2, divisa per l'altezza del grafico, che è 1/6. Pertanto, la probabilità è (1/6) * (7 - 2) = 5/6.

Se desideri una spiegazione più completa delle distribuzioni uniformi, ho un video dedicato sull'argomento che puoi trovare nel link fornito sopra.

Continuous Random Variables
Continuous Random Variables
  • 2020.09.26
  • www.youtube.com
Continuous random variables are cool. No, really! In this vid, we cover pdfs (probability density functions) and cdfs (cumulative distribution functions) and...