Elementi di teoria della probabilità e distribuzioni di probabilità
Eventi aleatori Un evento è aleatorio (casuale) quando non si può prevedere con certezza se avverrà o meno I fenomeni (eventi) aleatori sono studiati attraverso la teoria della probabilità Probabilità di un evento semplice Un evento può risultare: Certo (si verifica sempre) - estrazione di una pallina nera da un’urna contenente solo palline nere Impossibile(non si verifica mai) - estrazione di una pallina bianca da un’urna contenente solo palline nere Probabile(può verificarsi o no) - estrazione di una pallina bianca da un’una contenente sia palline nere che bianche
Eventi e probabilità impossibile probabile certo P=00<P<1P=1 Se E indica un evento l’evento corrispondente al non verificarsi di E rappresenta l’evento complementare E con la relazione P(E) = 1 – P(E) La prova genera l’evento con una certa probabilità
Eventi aleatori Evento semplice singola manifestazione di un fenomeno (misura,osservazione, risultato) che esclude altri eventi (eventi incompatibili: testa o croce nel lancio di una moneta) Evento composto è costituito da una combinazione di più eventi semplici. Possono verificarsi simultaneamente ovvero sono compatibili(l’evento testa di una moneta è compatibile con l’evento croce nel lancio di due monete)
Eventi aleatori L’insieme di tutti gli eventi di un fenomeno costituiscono l’universo o spazio campione (Ω) delle possibilità. Si usa il termine successo per segnalare che si è verificato l’evento considerato e insuccesso in caso contrario. Essi sono eventi incompatibili o mutuamente esclusivi
Eventi necessari ed eventi incompatibili Due eventi A e B si dicono incompatibili se non possono verificarsi entrambi nella stessa prova Se A è l’evento “carta di cuori” e B l’evento “carta di picche”, i due eventi sono incompatibili perché nessuna carta può essere contemporaneamente “cuori” e “picche” Due eventi si dicono necessari se almeno uno dei due si presenta in una prova Nel lancio di una moneta i due eventi T e C sono necessari perché almeno uno si presenta - necessari ed incompatibili:numero pari e numero dispari -necessari ma non incompatibili: un numero >3 e un numero <5 (il 4 è in comune) -incompatibili ma non necessari: l’uscita del numero 2 e del numero 6
Spazio campionario Lo spazio campionario associato al lancio di due monete comprende 4 punti che rappresentano i possibili risultati Si chiama evento ogni sottoinsieme dello spazio campionario TT TC CT CC
Cenni di insiemistica Un insieme (A,B,C,..) può essere definito come un gruppo di una qualsiasi specie di elementi (a,b,c,...) È ben definito quando è evidente che un elemento appartiene o no all’insieme stesso e in base al loro numero si fa riferimento a: insieme finito o infinito Quando tutti gli elementi di un insieme B fanno anche parte degli elementi di A, si definisce B sottoinsieme Ø Insieme vuoto a A l’elemento a appartiene a un insieme A B A B è contenuto in A Ogni insieme è sottoinsieme di un Insieme più generale detto universo o spazio campionario Ω
Rappresentazione grafica sottoinsieme Ω A B B A Ω Es:risultati del lancio di un dato A = esce 2 A = esce pari A = 1/6 A = 3/6 = 1/2
Evento complementare Es: i risultati del lancio di un dado A = esce 2 A = non esce 2 L’evento complementare di A è l’evento che comprende tutti i casi in cui A non si verifica p = (A) = 1- p(A) p(A) = 1/6 p(A) = 5/6 A A A
Intersezione Insiemi disgiunti A esce 2 B esce 3 A ∩ B = Φ insieme vuoto evento impossibile A ∩ B insiemi che si intersecano A esce numero pari B esce ≤ 3 A ∩ B = esce 2 l’intersezione di due eventi A e B comprende tutti i casi in cui si verificano sia A che B A B A B
Unione A e B insiemi disgiunti A esce 2 B esce 3 A U B esce 2 oppure 3 p(A U B) = p(A) + p(B) Es: i risultati del lancio del dado pari = 2 o 4 o 6 p(pari) = p(2)+p(4)+p(6) = 1/6 + 1/6 + 1/6 = 3/6 = 1/2 B A
Unione A e B due insiemi che si intersecano l’unione di A e B comprende tutti i casi in cui si verifica A oppure B e tutti i casi in cui si verificano entrambi (intersezione) A esce pari B esce un numero ≤ 3 A∩B = esce 2 A U B = esce “1” oppure 2” oppure “3” oppure “4” oppure “6” p(A U B) = p(A) + p(B) – p(A ∩ B) B A
Teoria e calcolo della probabilità L’entità di successi in una serie di osservazioni (prove) può essere definita come frequenza relativa o (percentuale) calcolata come rapporto tra il numero di eventi favorevoli rispetto al numero di casi esaminati Il grado di aspettativa circa il verificarsi di un evento E, ovvero la probabilità dell’evento P(E) è
Concezione classica della probabilità La probabilità di un evento E è il rapporto tra il numero di casi favorevoli al verificarsi di E(n) e il numero di casi possibili (N), purché siano tutti equi - probabili Es: probabilità di estrarre un asso da un mazzo di 52 carte = 4/52 = 0.08 probabilità di ottenere testa nel lancio di una moneta =1/2 = 0.5
Applicazioni della concezione classica Probabilità uscita testa Probabilità faccia 6 dado Qual è la probabilità che lanciando due volte una moneta si presenti prima la faccia testa poi la faccia croce 1°- TT 2°- TC 3°- CT 4°- CC p =
Concezione frequentista della probabilità La probabilità di un evento è la frequenza relativa di successo in una serie di prove tendenti all’infinito, ripetute sotto identiche condizioni Nella concezione frequentista la probabilità è ricavata a posteriori dall’esame dei dati Frequenza relativa su un gran numero di prove Es: qual è la probabilità post-operatoria dopo l’intervento xyz ? I dati su un decennio in un territorio presentano 30 morti su 933 interventi Frequenza relativa = 30/933= 3.22% = Probabilità di mortalità post-operatoria
Legge dei grandi numeri P(E): ripetendo la prova un gran numero di volte si osserva che il rapporto f = m/n (frequenza relativa) dove m = numero di successi ed n = numero di prove tende ad avvicinarsi sempre più alla probabilità P(E) La frequenza relativa f al crescere del numero delle prove, tende, pur oscillando, verso un valore costante (regolarità statistica)
Concezione soggettivistica Critiche alla concezione frequentista: Non sempre è possibile ripetere lo stesso esperimento nelle medesime condizioni È impossibile l’analisi probabilistica di fenomeni non ancora osservati Concezione soggettivista: la probabilità P(E) di un evento è un valore che traduce numericamente un’opinione personale E’ la quantificazione della misura della fiducia che viene assegnata al manifestarsi dell’evento
Teorie della probabilità gravidanza 1 su 2 = 50% (definizione classica di probabilità) (probabilità a priori ) maschio femmina Nel mondo, in assenza di interventi dell’uomo nascono 1057 maschi ogni 1000 femmine 1000/( ) = 48.6% (definizione frequentista di probabilità) (probabilità a posteriori) L’ ecografista, alla decima settimana di gravidanza, dice ai genitori che 80 su 100 il neonato è femmina (definizione soggettivista di probabilità)
Assiomi della teoria della probabilità Ad ogni evento di uno spazio campione è associato un numero, da 0 a 1, detto probabilità dell’evento La probabilità 0 è associata all’evento impossibile, la probabilità 1 all’evento certo Dati due eventi mutuamente esclusivi E 1 e E 2 e le rispettive probabilità P 1 e P 2, la probabilità dell’evento unione E 1 E 2 sarà determinata da P(E 1 E 2 )= P 1 + P 2. La probabilità, principio della somma, può essere generalizzata a N eventi incompatibili ed esaustivi, nel caso P 1 + P P n =1
Teorema delle probabilità totali principio della somma La probabilità del verificarsi di due o più eventi tra loro incompatibili è la somma delle probabilità se il verificarsi di uno esclude il verificarsi dell’altro p(E 1 o E 2 ) = p(E 1 ) + (E 2 )
Probabilità eventi incompatibili Esercizio Un urna contiene tre palline bianche, due nere e cinque rosse. Qual è la probabilità che estraendo una pallina a caso sia bianca o nera?
Principio della somma Qual è la probabilità che un soggetto a caso presenti un gruppo sanguigno di tipo 0 oppure A? Calcolare la probabilità dell’insieme unione (0 A) Si attribuisce a ogni gruppo sanguigno una probabilità A = 0.40; B = 0.10; AB = 0.04;0 = 0.46 In base al principio della somma: P(A 0)= P(A) + P(0)= = = % La probabilità del verificarsi di due o più eventi tra loro incompatibili è la somma delle probabilità dei singoli eventi
Probabilità totali eventi incompatibili P(A B)= P(A)+ P(B)-P(A ∩ B) La probabilità della loro unione è tutta l’area compresa all’interno del contorno(diagramma Venn);la somma delle due aree include due volte la probabilità della loro intersezione che va sottratta Avendo gli eventi una parte in comune facendo la somma delle probabilità associate ai due singoli eventi si conterebbe due volte la parte comune Evento A= estrazione di un Re Evento= B estrazione carta di fiori P(A B)=P(KC KQ KF KP 1F 2F......KF) La probabilità del verificarsi Kappa di Fiori (KF) è considerata due volte per cui va sottratta: P(A B)=P(KC)+P(KQ)+P(KF)+P(KP)+P(1F)+P(2F) P(KF)-P(KF)= 4/52+13/52-1/52
Il principio della probabilità totale può essere espresso come segue P(A o B)=P(A)+P(B) – (PA e B) in cui P(A e B) rappresenta la probabilità di ottenere contemporaneamente sia A che B La probabilità di ottenere A o B può essere calcolata sommando prima la probabilità di ottenere A con la probabilità di ottenere B e sottraendo poi la probabilità di ottenere simultaneamente A e B Si deve sottrarre P(A e B) perché la probabilità che si verifichi questo evento congiunto è stata calcolata nella somma due volte in P(A) e una volta in P(B) Es: Probabilità di estrarre da un mazzo di carte una donna (A) e probabilità di estrarre dallo stesso mazzo una carta di picche(B) P(A o B)=P(A)+P(B)-P(A e B)=4/52+13/52-1/52=16/52=4/13
Probabilità condizionata Eventi dipendenti e indipendenti Quando la probabilità di un evento NON cambia in presenza di condizionamento ad un altro evento, essi si dicono indipendenti p(A | B) = p(A) Il condizionamento non agisce! L’aspettativa di A non si modifica sapendo che si verifica B A e B si dicono dipendenti se: p(A | B) ≠ p(A) L’aspettativa di A si modifica sapendo che si verifica B Es: p( esce 2) = 1/6 Se conosco che “esce un numero pari” p = 1/3 Introduciamo quindi il concetto di probabilità condizionata: p(A | B) = probabilità di A condizionata a B
Probabilità condizionata eventi dipendenti Es: Nella popolazione anziana, la probabilità di Colesterolo elevato è del 60%. Ipertensione è del 50% Ipertensione | colesterolo elevato è del 68% Qual è la Pr di avere colesterolo elevato e ipertensione? Pr(colesterolo e pressione)= Pr (colest.) x Pr( pressione | colest)= 0,60 x 0,68 = 0,408 = 40,8%
Principio del prodotto probabilità condizionata Se X e Y sono eventi che presentano una probabilità condizionata la probabilità che accadano entrambi è il prodotto della probabilità di Y “dato X” X si è già verificato o conosciuto Pr( X e Y) = Pr (X) x Pr (Y | X) Il simbolo Pr (Y | X) indica la probabilità di Y dato X
Principio del prodotto eventi indipendenti Evento : estrazione asso di spade Non sono eventi mutuamente esclusivi A∩C = asso di spade Calcolo della probabilità di una intersezione P(A∩C)= P(A) P(C)= Da un’urna contenente due palline nere(N) e una Bianca(B) si fanno due estrazioni di una pallina, con reimmissione. Qual è la probabilità di estrarre una pallina nera alla prima estrazione (N 1 ) e una bianca alla seconda (B 2 )? P(N 1 ∩ B 2 )= (P(N1) P(B 2 )= Probabilità indipendente
Distribuzioni di probabilità Una distribuzione di probabilità è formata dall’insieme di probabilità associate a tutti i possibili eventi casuali di uno spazio campione Si definisce variabile casuale (aleatoria) una variabile x che in un esperimento casuale può assumere, certi valori x 1, x 2,...,x n rispettivamente con probabilità p 1, p 2,...., p n L’insieme dei valori che la variabile può assumere e delle corrispondenti probabilità costituisce una distribuzione di probabilità
Variabile casuale e variabile statistica parallelismo e differenze La probabilità è un dato teorico determinato “a priori” La frequenza è un dato sperimentale derivante da prove o osservazioni fatte Una variabile casuale è originata da un esperimento casuale mentre la variabile statistica emerge dall’osservazione empirica dei fenomeni del reale Per le variabili casuali, in corrispondenza di ciascuna determinazione della variabile si considera la probabilità, mentre per le variabili statistiche si considera la frequenza relativa
Distribuzioni di probabilità variabili casuali continue
Le aree dei singoli rettangoli rappresentano le frequenze osservate delle modalità comprese tra gli estremi (X 1, X 2 ) degli intervalli di base Effettuata la rappresentazione analitica, all’area dei rettangoli si sostituisce l’area della superficie individuata dallo stesso intervallo di base e dal tratto di curva interpolata Questa area è la frequenza teorica delle modalità i cui valori sono compresi fra gli stessi estremi (X 1, X 2 ) A un rettangolo finito di base ΔX (ampiezza di classe) e di altezza Y(densità di frequenza relativa osservata), corrisponde un rettangolo infinitesimo di base dX e di altezza Y* (densità di frequenza relativa teorica) Frequenza area di un rettangolo relativa osservata = finito Frequenza area di un rettangolo relativa teorica = infinitesimo
Distribuzioni di probabilità variabili casuali continue La legge di probabilità di una v.c. è espressa da una funzione matematica p(x) detta funzione di densità di probabilità La probabilità in un evento casuale non è più un determinato valore della variabile casuale ma solo la probabilità che si abbia un valore della v.c. compreso in un intervallo x 1 – x 2 cioè Pr(x 1 ≤ x ≥ x 2 ) = area individuata dalla curva (px) in corrispondenza degli estremi x 1 e x 2 Per una v.c. continua x non è possibile elencare ed enumerare gli infiniti valori che essa può assumere
Variabili casuali continue distribuzione di Gauss Se viene rilevata infinite volte le misure di una grandezza μ l’insieme di misure saranno +/- scostate dal valore vero di μ Si ipotizza che gli scarti (positivi e negativi) dal valore vero (x - μ) abbiano la stessa probabilità di verificarsi e gli scarti maggiori saranno i meno frequenti Sono necessarie due informazioni Il valore vero della grandezza μ (la media del carattere)e la dispersione delle misure σ(deviazione standard)
Curva di Gauss Caratteristiche E’ simmetrica rispetto alla media: la probabilità di un valore superiore alla media di una quantità prefissata è uguale alla probabilità di un valore inferiore per la stessa quantità L’area compresa tra la funzione e l’area delle ascisse ( da + a - ) sia = 1 così da esaurire lo spazio campionario Esiste la probabilità al 100% che la misura sia inclusa nella distribuzione La frazione di area compresa tra due valori della variabile è assimilabile alla probabilità di riscontrare casualmente una misura entro tale intervallo
Le aree sottese alla curva normale Spesso è necessario determinare la probabilità di riscontrare casualmente una misura entro tale intervallo Proprietà della curva normale l’area sottesa alla porzione di curva che vi è tra le media e una ordinata posta a una distanza data, determinata in termini di una o più deviazione standard, è costante
Applicazione curva di Gauss Se una popolazione di unità classificate secondo un certo carattere X si distribuisce normalmente, la conoscenza di media e varianza (o loro stime) consente di calcolare (o di stimare) la frequenza relativa delle unità che presentano un valore di X compreso in un certo intervallo Calcolare la probabilità che, estraendo da tale popolazione un’unità questa abbia un valore di X compreso in un certo intervallo
Distribuzione gaussiana standardizzata Per agevolare il ricercatore la variabile x viene trasformata in una nuova variabile Z Mentre la distribuzione di X è normale con media X e DS s, quella della nuova variabile è normale con media 0 e DS 1 La distribuzione standardizzata presenta il vantaggio di consentire la predisposizione di tabelle che permettono di calcolare porzioni di area della distribuzione e di stabilire la probabilità statistica di riscontrate valori in relazione a determinati valori Z
Valori notevoli della distribuzione z z area compresa area esterna all’intervallo nell’intervallo (- z + z) (code della distribuzione) (-z + z) 1 (-1<z<+1) (≈ 68%) (≈ 32%) 1.96 (-1.96<z<+1.96) 0.95 (≈ 95%) 0.05 (≈ 5%) 2.58 (-2.58<z<+2.58) 0.99 (≈ 99%) 0.01 (≈ 1%)
Esempio di utilizzazione della distribuzione z Qual è la probabilità che un individuo estratto a caso da una popolazione con peso medio 72 Kg e deviazione standard 25 Kg pesi tra i 60 e 80 Kg:? Occorre calcolare la porzione di area compresa tra 60 e 80 Kg. ai cui valori corrispondono rispettivamente i valori
Esempio di utilizzazione della distribuzione Z Facendo riferimento alla tabella z per z=0.48 nelle due code è L’area di interesse tra e 0 è Con analogo procedimento si calcola la porzione di area tra 0 e 0.32 P(60kg<peso<80kg=P(z 60 <z<z 80 ) = =P(-0.48<z<0) + (P(0<z<+0.32) = = = ,0%
0 z 0,5 Ripartizione delle aree di probabilità della distribuzione z
Esempio di utilizzazione della distribuzione z Una popolazione di bambini presenta valori di statura distribuiti in modo gaussiano con media = 120 cm. e deviazione standard = 16 cm. 1.Quale è la probabilità che un bambino scelto a caso presenti una statura inferiore a 132 cm.? 2.Quale è la probabilità che l’altezza sia maggiore di 116 cm., ma inferiore a 132 cm.? 1R
Esempio di utilizzazione della distribuzione z 2R P(Z 116 <Z<Z 132 ) = %