La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1.

Presentazioni simili


Presentazione sul tema: "Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1."— Transcript della presentazione:

1 Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio

2 1) Eventi elementari e composti Un esperimento aleatorio consiste in una prova (o insieme di prove) il cui risultato è noto solo dopo leffettuazione dellesperimento stesso. La prova può essere appositamente eseguita (lancio di un dado) oppure essere una prova di osservazione (rilevazione della pressione sistolica di un paziente). Il risultato di un esperimento aleatorio si dice evento. Prima di eseguire l esperimento un evento E può essere certo, possibile o impossibile. Una volta eseguito lesperimento levento E può risultare vero o falso. I singoli risultati di un esperimento sono detti eventi elementari; aggregando tra loro gli eventi elementari si possono costruire eventi composti. Per ottenere degli eventi composti si possono utilizzare le operazioni logiche sugli eventi. 2

3 Esempi di esperimento aleatorio Si conta il numero di battiti cardiaci di un paziente durante un minuto. Eventi elementari : 65 battiti, 80 battiti, 87 battiti, 125 battiti ecc. Eventi composti: - bradicardia leggera (da 55 a 69 battiti) - ritmo cardiaco normale (da 70 a 84 battiti) - ritmo cardiaco accelerato (da 85 a 99 battiti) - tachicardia (da 100 a 119 battiti) ecc. ° Si conta il numero di petali di una margherita. ° Si misura la statura di un adolescente. ° Si estrae una carta da un mazzo francese di 52. 3

4 2) Operazioni logiche sugli eventi Evento contrario Se E è un evento associato a un determinato esperimento aleatorio, levento contrario – E è levento che risulta vero quando E risulta falso, e viceversa. Unione di due eventi Se A e B sono due eventi, lunione A U B è levento che si verifica se, al termine dellesperimento, almeno uno degli eventi A e B risulta vero. Intersezione di due eventi Se A e B sono due eventi, lintersezione A B è levento che si verifica se, al termine dellesperimento, entrambi gli eventi A e B risultano veri. Differenza di due eventi Se A e B sono due eventi, la differenza A B è levento che si verifica se, al termine dellesperimento, levento minuendo A risulta vero e levento sottraendo B risulta falso. 4

5 Esempio di operazioni logiche Esperimento: si misura la temperatura corporea di un paziente anziano. Evento A la temperatura è superiore a 38°C; Evento B la temperatura è compresa tra 37°C e 39°C Evento contrario –A : la temperatura non supera i 38°C Unione A U B : la temperatura supera i 37°C Intersezione A B: la temperatura è compresa tra 38°C e 39°C Differenza A - B: la temperatura supera i 39°C Differenza B - A: la temperatura è compresa tra 37°C e 38°C Come avviene per la differenza aritmetica, la differenza tra due eventi NON è simmetrica, per cui levento A-B è diverso da B-A. 5

6 3) Relazioni tra eventi Un evento che risulta sempre vero, indipendentemente dal risultato dellesperimento, si dice evento certo (simbolo ). Un evento che risulta sempre falso, indipendentemente dal risultato dellesperimento, si dice evento impossibile (simbolo ). Due eventi A, B la cui intersezione A B è un evento impossibile, per cui essi non possono mai verificarsi contemporaneamente, si dicono eventi incompatibili. Dati tre o più eventi tali per cui ogni loro coppia è formata da eventi incompatibili, si dicono incompatibili a due a due. Due eventi A, B la cui unione A U B è un evento certo, per cui almeno uno di essi deve per forza verificarsi, si dicono eventi esaustivi. Se gli eventi sono più di due, si dicono esaustivi se la loro unione è un evento certo. 6

7 4) Proprietà delle operazioni logiche Proprietà associativa: (A U B) U C = A U (B U C); (A B) C = A (B C) Proprietà commutativa: A U B = B U A; A B = B A Proprietà distributiva: A U (B C) = (A U B) (A U C); A (B U C) = (A B) U ( A C) Relazione con un evento certo: A U = A = Relazione con un evento impossibile: A U = A = 7

8 5) Spazio degli eventi Lo spazio degli eventi è linsieme di tutti gli eventi elementari associati a un esperimento aleatorio. Esso si indica con la lettera Lo spazio degli eventi può essere: - finito, ossia formato da un numero limitato di eventi. - infinito numerabile, formato da un numero illimitato di eventi che possono essere ordinati in modo naturale. - infinito continuo, formato da uninfinità continua di eventi. Lo spazio degli eventi è infinito continuo ogni volta che si esegue una misurazione. Per determinare il numero di eventi di uno spazio finito, si può fare uso del calcolo combinatorio. 8

9 6) Calcolo combinatorio: permutazioni e disposizioni Permutazioni In quanti modi si possono permutare (ordinare) n elementi distinguibili? Al primo posto della sequenza ci sono n possibili scelte, al secondo ce ne sono n-1, al terzo n-2 e così via fino allultimo posto dove si colloca lultimo elemento rimasto a disposizione. Pertanto, le permutazioni di n elementi sono n(n-1)(n-2)…321 = n! Disposizioni semplici Se voglio costruire gruppi ordinati prendendo solo k degli n elementi a disposizione, le scelte possibili sono: n(n-1)(n-2)…(n-k+1)=n!/(n-k)! Disposizioni con ripetizione Se ammetto la possibilità di ripetere lo stesso elemento nel gruppo, le scelte possibili diventano n n n … n = n k 9

10 Esempi di permutazioni e disposizioni Un paziente decide di fare cinque esami clinici di controllo: ECG, EEG, Ematocrito, Ecografia addominale, Esame dermatologico. Può fare gli esami nellordine che preferisce, non essendoci nessuna urgenza. In quanti ordini diversi può eseguire gli esami? P 5 = 5! = 120 Uno studente deve partire per un viaggio e decide di portarsi dietro sei libri didattici, Avendo in tutto 11 testi da studiare, quante scelte possibili ha? D 11,6 = = Un medico ha la possibilità di prescrivere tre farmaci differenti ma equivalenti agli otto pazienti sofferenti di una certa patologia. In quanti modi può scegliere il farmaco da dare a ciascuno? D (R) 3,8 =3 8 =

11 7) Calcolo combinatorio: combinazioni Combinazioni semplici Se voglio estrarre un sottoinsieme di k elementi da un insieme di n elementi, in quanti modi diversi posso farlo? Il numero di scelte corrisponde al cosiddetto coefficiente binomiale: Combinazioni con ripetizione Se ammetto la possibilità di ripetere lo stesso elemento nel gruppo, le scelte possibili diventano: 11

12 (segue Combinazioni) Combinazioni multiple Se voglio suddividere n elementi in k gruppi, di cui il primo gruppo contiene n 1 elementi, il secondo ne contiene n 2 e così via, il numero di scelte possibili diventa: Esempio. Se si vogliono suddividere 15 impiegati in tre uffici, rispettivamente di 6, 5, 4 impiegati ciascuno, le scelte possibili sono: 12

13 Esempi di combinazioni Una persona deve partire per le vacanze e ha in casa nove libri che deve ancora leggere. Se decide di portare con sé 5 libri, quante scelte possibili ha? Un signore galante vuole regalare un mazzo di 4 fiori a una donna, e può scegliere tra 7 qualità differenti. Quante scelte possibili vi sono di formare il mazzo? Un padre di famiglia vuole distribuire 16 pacchetti di figurine tra i suoi tre figli, rispettivamente di 7, 5 e 4 anni. Se decidesse di regalare a ciascuno una bustina per ogni anno di età, in quanti modo diversi potrebbe distribuire le bustine? 13

14 8) Definizioni di probabilità Definizione classica (Laplace) P(E)=N° di casi favorevoli / N° di casi possibili (è applicabile solo quando si eseguono prove ripetute nelle medesime condizioni, e quando i cosiddetti casi possibili sono tutti alla pari) Definizione frequentista (Von Mises) P(E)=limite della frequenza relativa di osservazione dellevento E al tendere allinfinito del numero delle prove. (è applicabile a tutti i fenomeni in cui si può raccogliere una cospicua base di dati) Definizione soggettivista (Ramsey, de Finetti) P (E)=grado di fiducia che un valutatore, in possesso di determinate informazioni, possiede nel verificarsi di un evento E. Il grado di fiducia può essere determinato attraverso il meccanismo della scommessa. 14

15 9) Assiomi del calcolo delle probabilità I tre assiomi base della probabilità furono enunciati dal russo Andrej N. Kolmogorov ( ) Primo Assioma: la probabilità non ha segno, per cui non esistono eventi con probabilità inferiore allo zero: P(E)0 Secondo Assioma: la probabilità dellintero spazio degli eventi è pari a 1: P( Ω)=1 Terzo Assioma: se due eventi sono incompatibili, la probabilità della loro unione è pari alla somma delle singole probabilità degli eventi: se AB= allora P(AU B) = P(A)+P(B) Il terzo assioma può venire esteso anche a uninfinità numerabile di eventi, purchè siano incompatibili a due a due. 15

16 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogorov Se levento E ha probabilità p (0

17 11) Probabilità condizionata Gli eventi, in molti casi, si influenzano reciprocamente. Per esempio, in ambito biomedico, un tossicodipendente può contrarre più facilmente alcune patologie a causa dello stress fisico conseguente allassunzione di sostanze tossiche. E quindi spesso opportuno studiare, oltre ai singoli eventi a alle loro probabilità, le relazioni tra eventi, e in particolare come lavverarsi di un certo evento possa eventualmente modificare le probabilità di verificarsi di altri eventi. La probabilità condizionata P(B|A) è appunto la probabilità che ha levento B di verificarsi, supponendo che levento A si sia già verificato: Vale pertanto la seguente regola del prodotto: 17

18 12) Eventi indipendenti Il verificarsi dellevento A può aumentare la probabilità dellevento B (allora vi è correlazione positiva tra i due eventi). Può diminuirla (correlazione negativa) o lasciarla invariata. Se P(B|A) = P(B), allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (più sinteticamente indipendenti). Se gli eventi A e B sono indipendenti, la probabilità della loro intersezione diviene: Tale risultato può essere esteso a un numero qualsiasi di eventi. Si deve però distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due. 18

19 Esempi di eventi incompatibili e indipendenti I due aggettivi incompatibili e indipendenti identificano due situazioni completamente diverse che non vanno confuse. Due eventi incompatibili si escludono categoricamente lun laltro: testa o croce, numero pari o dispari, soglia critica diagnostica superata o non superata, linfoma Hodgkin o non-Hodgkin e così via. Due eventi indipendenti possono senzaltro verificarsi entrambi, il punto è che la probabilità rimane la stessa, appunto, indipendentemente dal verificarsi dellaltro evento. Lanciando un dado e una moneta, gli eventi 4 e croce sono evidentemente indipendenti; altrettanto possono essere gli eventi paziente diabetico e paziente di gruppo sanguigno A oppure voto nellesame di statistica e segno zodiacale del candidato. 19

20 13) Passaggio dallevento contrario Come già evidenziato in precedenza, la probabilità dellevento contrario -E è uguale al complemento a 1 della P(E). A volte, per calcolare la probabilità di un evento, è molto più semplice calcolare prima la probabilità dellevento contrario e sottrarla dal valore 1. Per esempio, se lancio cinque volte il dado e voglio calcolare la probabilità dellevento almeno un dado presenta il 6 è molto più veloce calcolare la probabilità dellevento contrario: P(-E) = P(nessun dado presenta il 6) = (5/6) 5 = 3125/7776 = 40,2% A questo punto si può calcolare P(E) = 1 – 0,402 = 0,598 = 59,8% In generale, ogni volta che si vuol calcolare la probabilità di eventi del tipo almeno un elemento è di un certo tipo o magari almeno due elementi… ecc., si può fare il passaggio dallevento contrario. 20

21 (segue) Se levento è del tipo «almeno 2 eventi si verificano», dal valore 1 vanno sottratti la probabilità che non si verifichi nessun evento e la probabilità che se ne verifichi uno solo. Esempio: qual è la probabilità di ottenere almeno due teste lanciando sei monete? P(0 teste) = (1/2) 6 = 1/64 P(1 testa) = 6 · (1/2) 6 = 6/64 P(almeno due teste) = 1 – 1/64 – 6/64 = 57/64. 21

22 14) Il problema del compleanno Un esempio di applicazione del metodo dellevento contrario è il classico problema del compleanno, che consiste nel calcolare la probabilità che, in un insieme di k persone, almeno due festeggino il compleanno nello stesso giorno dellanno. Supponiamo che sia k = 35. La probabilità che tutti i 35 compleanni siano diversi, supposta lindipendenza di tutti i compleanni. è la seguente: P(tutti diversi) = 364/ / / /365 = 0,1856 Pertanto la probabilità di avere almeno due compleanni coincidenti è la seguente: P(E) = 1 – P(-E) = 1 – 0,1856 = 0,8144 = 81,44% Tale probabilità è decisamente più alta di quello che lintuito porta a pensare, e aumentando il numero di persone la probabilità si avvicina rapidamente a uno. Con k=50 si ha infatti P(E) = 97,04% 22

23 Il problema del compleanno (segue) Per avere una probabilità di doppio compleanno superiore al 50%, è sufficiente considerare un gruppo di sole 23 persone. Per avere una probabilità del 90%, occorre radunare 41 persone. Per avere una probabilità del 95% ce ne vogliono 47, mentre per superare il 99% ne sono necessarie 57. Se la scelta fosse addirittura tra 1000 opzioni anziché 365 (esempio: ultime tre cifre della carta di identità), i risultati sarebbero ancora più sorprendenti: bastano infatti 38 individui per superare il 50% di probabilità, ce ne vogliono 68 per superare il 90% e appena 77 per superare il 95%. 23

24 15) Il teorema di Bayes: premesse Thomas Bayes era un pastore presbiteriano scozzese ( ) che formulò per primo un teorema di cui egli stesso non fece in tempo a cogliere limportanza e la rilevanza che avrebbe avuto sulla probabilità moderna, al punto di essere il punto di riferimento di una importante scuola di pensiero bayesiana. Il teorema consiste nellaggiornare le probabilità (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate. Vediamo il teorema nella sua formulazione basilare. Siano H 1, H 2, …, H k ipotesi esaustive e incompatibili a due a due, per cui una sola può essere vera e tutte le altre sono false. A ciascuna di queste ipotesi va assegnata una probabilità iniziale, che funge da sistema di pesi. Siano P(H 1 ), P(H 2 ), …, P(H k ) le probabilità iniziali delle ipotesi a confronto, e sia E levento – o insieme di eventi – che è stato osservato. Quello che interessa sono le probabilità aggiornate P(H j !E), j= 1,2, …, k 24

25 Il teorema di Bayes: formulazione Sia H j una generica ipotesi tra quelle a confronto. Applicando la definizione di probabilità condizionata si ottiene: Applicando ora la regola del prodotto e mettendo in evidenza le probabilità iniziali, si trova la formula finale: Le probabilità inverse P(E|H i ) prendono il nome di verosimiglianze, e rivestono un ruolo fondamentale nel teorema di Bayes. In particolare, se in assenza di informazioni più precise si pone P(H i )=1/k per ogni i, Le probabilità finali P(H i |E) saranno tutte proporzionali alle verosimiglianze. 25

26 Teorema di Bayes: applicazione Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie: A, B e C. Lincidenza della patologia A è di 1 su 1000 persone, quella della patologia B è di 1 su 5000, quella della patologia C è di 1 su Le probabilità iniziali sono pertanto: Per aumentare la precisione della diagnosi, il medico ordina di effettuare un esame clinico. Questo esame risulta positivo, tra i pazienti affetti dalla malattia A, nel 10% dei casi; tra i pazienti affetti da B nel 30% dei casi e, tra i pazienti affetti da C, nel 95% dei casi. Il paziente risulta positivo allesame. Come cambia la distribuzione di probabilità dopo questo risultato clinico? 26

27 (segue applicazione) 27 In questo caso lesame clinico, anziché chiarire la situazione, ha addirittura aumentato lincertezza, per cui è sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual è la patologia di cui soffre il suo paziente.

28 16) Variabili aleatorie discrete Una variabile aleatoria (reale) è unapplicazione che assegna a ogni evento un numero reale. Per esempio, se nellesperimento del lancio di una moneta indico con 0 la croce e con 1 la testa, sto definendo una variabile aleatoria. Se lesperimento aleatorio di riferimento è un esperimento di conteggio, lo spazio degli eventi è finito o numerabile e la variabile che descrive lesperimento è una variabile aleatoria discreta. Linsieme dei valori che può assumere una v.a. discreta è detto il supporto della variabile stessa. Ognuno di questi valori ha una probabilità; linsieme dei valori del supporto e delle loro probabilità costituisce la distribuzione della variabile aleatoria. La funzione che fornisce le probabilità dei valori del supporto è detta funzione di probabilità. 28

29 17) Funzione di ripartizione 29

30 18) Mediana e centili Data la variabile aleatoria discreta X, si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X. Se esiste un valore x* tale che: P(X 1/2, il valore x* si dice mediana della distribuzione. Se invece esistono due valori x* e x** tali che: P(X 1/2, si fissa la semisomma (x*+x**)/2 come mediana della distribuzione. Se al posto di considerare la metà esatta della distribuzione (mediana) si vuole stabilire quale valore si trova in correspondenza di k/100 della distribuzione, si procede come fatto con la mediana, inserendo però il valore k/100 al posto di 1/2. Il valore ottenuto si dice k–esimo centile della variabile X. 30

31 Esempi di determinazione di mediana e centili Sia X una variabile aleatoria discreta con la seguente funzione di probabilità: P(X=x) = x/10, x = 1, 2, 3, 4. La mediana si trova osservando che: P(X2)= 1/10 + 2/10 = 3/10 ( ½). Pertanto, il valore X=3 è il valore mediano. Se invece si cerca il 25° centile, ossia il punto corrispondente a ¼ della distribuzione, si può osservare che P(X1)=1/10, P(X2)= 3/10. Essendo il primo valore minore di ¼ e il secondo maggiore, si può affermare che il 25° centile è il punto X=2. Sia X il numero di teste nel lancio di 4 monete regolari, Si può calcolare la probabilità P(X=0)=1/16, P(X=1)=1/4, P(X=2)=3/8. Cumulando le probabilità ottenute si verifica che Me(X) = 2. 31

32 19) Valore atteso di una v.a. discreta La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa, e sommando i risultati. Il valore atteso di una v.a. X, indicato solitamente con E(X), è lequivalente teorico della media aritmetica, e si ottiene considerando tutti i valori del supporto, e sostituendo alle frequenze relative le rispettive probabilità. Si ha quindi: Il valore atteso è sempre compreso tra il valore più piccolo del supporto e quello più grande; inoltre vale la proprietà lineare: 32

33 20) Momenti di una v.a. discreta Il momento di ordine k della v.a. X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso: In particolare, il momento di ordine 1 coincide con il valore atteso, mentre secondo della v.a. X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso: Esempio: se consideriamo il lancio di un dado regolare otteniamo: E(X)= 11/6+21/6+31/6+…+61/6 = 21/6 = 3,5 E(X 2 )= 11/6+41/6+91/6+…+361/6 = 91/6 = 15,2 E(X 3 )= 11/6+81/6+271/6+…+2161/6 = 441/6 = 73,5 33

34 21) Varianza di una v.a. discreta La varianza di una v.a. discreta è una misura di variabilità, analoga a quella che si definisce per le variabili statistiche, così definita: V(X) = E[X-E(X)] 2 = E(X 2 ) – [E(X)] 2 La varianza, essendo una quantità quadratica, non può mai essere negativa ed è espressa nel quadrato dellunità di misura dei valori assunti da X. Valgono le seguenti proprietà: - V(X+b) = V(X) - V(aX) = a 2 V(X) ; in particolare: V(-X) = V(X) - V(aX+b) = a 2 V(X) La radice quadrata della varianza di dice scarto di X: - S(X) = V(X) Vale al proprietà: S(aX+b) = |a|S(X) 34

35 Esempio di calcolo Sia X una v.a. discreta con la seguente funzione di probabilità: P(X=x) = (5-x)/15, x=0, 1, 2, 3, 4 Il valore atteso è pari a: E(X) = 0 5 / / / / /15 = 20/15 =4/3. Il momento secondo è invece il seguente: E(X 2 ) = 14/ / / /15 = 50/15 = 10/3. La varianza è infine pari a V(X) = E(X 2 ) – [E(X)] 2 = 10/3–(4/3) 2 = 30/9 – 16/9 = 14/9. 35

36 22) Variabile aleatoria di Bernoulli Sia X lesito di una prova in cui vi sono due possibili risultati, rispettivamente indicati con i valori 0 e 1. Sia p la probabilità del valore 1. X si dice variabile aleatoria di Bernoulli di parametro p. Dunque: P(X=0)=1-p; P(X=1)=p. Funzione di ripartizione F(x) = 0 per x < 0 = 1-p per 0 x < 1 = 1 per x 1 E(X) = 0 (1-p)+1 p = p, E(X 2 ) = p, V(X) = p (1-p) 36

37 23) Variabile aleatoria binomiale Si effettua un esperimento formato da n prove di Bernoulli, indipendenti e con parametro p costante. Sia X il numero dei successi ossia il numero di eventi a cui corrisponde il valore 1. Funzione di probabilità: E(X) = np, V(X) = np(1-p) In particolare, se p=1/2 la funzione di probabilità diviene: Per questo valore si ha inoltre: E(X) = n/2, V(X) = n/4 37

38 24) Variabile aleatoria di Poisson La variabile di Poisson è molto versatile, ed è stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse è il numero di volte in cui un determinato evento si presenta in un intervallo prefissato., supponendo che la probabilità istantanea dellevento sia sempre la stessa. Indicando con il numero medio di volte in cui levento viene osservato nel periodo di tempo, la funzione di probabilità è la seguente: In particolare, la probabilità del valore zero è P(X=0) = e ; i valori più probabili sono quelli vicini a dopodichè la probabilità decresce molto rapidamente. Il valore atteso e la varianza di X sono entrambi uguali a. 38

39 Esempio di applicazione di Poisson Il numero di attacchi di emicrania subiti da un paziente ogni settimana può essere un esempio di variabile poissoniana. Se il numero medio di attacchi è 2,5 la distribuzione di probabilità (almeno per i primi valori) è la seguente: P(X=0) = e -2,5 = 8,21%, P(X=1) = e -2,5 = 20,52% P(X=2) = e -2,5 = 25,65%, P(X=3) = e -2,5 = 21,38% P(X=4) = e -2,5 = 13,36%, P(X=5) = e -2,5 = 6,68% SI può notare come i tre valori più probabili (1, 2, 3) hanno complessivamente quasi il 70% di probabilità, quindi il paziente di deve aspettare, con buona probabilità, di avere 1 2 o 3 attacchi alla settimana. 39

40 25) Variabili aleatorie continue Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione. Statura, peso, glicemia, temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo. In una variabile continua le probabilità non vengono assegnate ai singoli punti, ma piuttosto agli intervalli. Pertanto, al posto della funzione di probabilità tipica delle variabili discrete, si utilizza la funzione di densità di probabilità che dà una misura di addensamento della probabilità nei dintorni di un punto. La funzione di densità non è mai negativa, ma – non rappresentando direttamente una probabilità – può anche superare il valore 1. La probabilità di un intervallo [a, b] si ottiene effettuando lintegrale definito, da a a b, della funzione di densità di probabilità: 40

41 26) Descrizione di una v.a. continua La funzione di ripartizione di una v.a. continua Y ha lo stesso significato della F.d.R. delle variabili discrete. Essa si ottiene, ancora una volta, applicando il calcolo integrale: La mediana Me(Y) è il punto in cui la funzione di ripartizione vale esattamente ½, mentre il k-esimo centile è il punto y* in cui vale luguaglianza: F Y (y*)=k/100 Il valore atteso E(Y) si ottiene risolvendo il seguente integrale: Il momento secondo E(Y 2 ) si ottiene risolvendo invece l integrale: 41

42 27) Variabile aleatoria uniforme (o rettangolare) Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto è formato da un intervallo chiuso [a, b] e ogni valore del supporto ha la stessa densità. Se Y è una v.a. uniforme, la funzione di densità di Y è la seguente: A sua volta, la funzione di ripartizione di Y è la seguente: Il valore atteso E(Y) è pari alla semisomma degli estremi (a+b)/2 La varianza V(Y) è pari a (b-a) 2 /12 42

43 28) Variabile aleatoria esponenziale Una variabile aleatoria esponenziale rappresenta un fenomeno, a valori non negativi, in cui la densità è massima intorno al valore y=0 e decresce costantemente al crescere di y. La funzione di densità di Y è la seguente: A sua volta, la funzione di ripartizione di Y è la seguente: Il valore atteso è pari al reciproco del parametro k: E(Y)=1/. La varianza è pari a V(Y)=1/. 43

44 29) Variabile aleatoria gaussiana La v.a. gaussiana (o normale) è il modello continuo più noto e diffuso, ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri: la media e lo scarto per cui si scrive N( Il supporto è formato dallintero asse reale, e la funzione di densità di Y è la seguente: La v.a. gaussiana ha due proprietà molto importanti: - Se Y è N( la variabile W = a + bY (con b 0) è ancora una v.a. gaussiana, di media a + b e di scarto |b| - Ogni combinazione lineare di v.a. gaussiane a due a due indipendenti è ancora una gaussiana. 44

45 30) Variabile aleatoria normale standardizzata Data una v.a. gaussiana Y ~N( se si sottrae la media e si divide il risultato per lo scarto si ottiene una v.a. gaussiana Z = (Y- )/ di media 0 e scarto 1, di cui sono riportati i valori e le loro densità e ripartizioni nelle cosiddette tavole statistiche, che si possono trovare in qualunque manuale. La funzione di densità di una normale standardizzata è la seguente: Per risolvere problemi probabilistici sulla v.a. normale generica, si fa solitamente ricorso alla v.a. standardizzata Z, trovando le probabilità cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa: Y = Z. 45

46 31) Variabile aleatoria log-normale Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W è normalmente distribuita. Pertanto, se la variabile aleatoria Y è N( ), la trasformata W = e Y è di tipo log-normale. La mediana di questa distribuzione è Me(W)=e il valore atteso è pari a E(W)=e e la varianza è pari a V(W)= e e Per esempio, se si ha: Me(W)= e E(W)=e V(W)= e e 46

47 32) Variabile aleatoria chi quadrato Siano Z 1, Z 2, …, Z k variabili aleatorie normali, standardizzate, a due a due indipendenti. Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute, si ottiene una nuova variabile: W = Z Z 2 2 +… + Z k 2 che prende il nome di v.a. chi quadrato con k gradi di libertà. Se W è una v.a. chi quadrato con k gradi di libertà, allora si ha: E(W) = k, V(W) = 2k. La funzione di ripartizione di W non è direttamente esplicitabile, per cui si deve fare ricorso alle tavole della distribuzione chi quadrato. Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione, che risultano utili per i test statistici. 47

48 33) Variabile aleatoria t di Student Sia Z una v.a. normale standardizzata e sia W k una v.a. chi quadrato, con k gradi di libertà, indipendente da Z. La variabile aleatoria: si dice variabile t di Student con k gradi di libertà. Se k=1 la variabile T ha media e varianza non finite, mentre se k = 2 sessa ha media nulla e varianza non finita. Da k=3 in avanti, si ha: 48 Anche la funzione di ripartizione di T non è direttamente esplicitabile, per cui si deve fare ricorso alle tavole della distribuzione t di Student. Sulle tavole della t ci sono unicamente i centili di coda destra, quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare.

49 34) Variabile aleatoria F di Snedecor-Fisher Sia U g una variabile aleatoria chi quadrato con g gradi di libertà, e sia W h una variabile aleatoria chi quadrato con h gradi di libertà, indipendente da U g La variabile aleatoria prende il nome di variabile F di Snedecor – Fisher con g gradi di libertà al numeratore e h al denominatore (dai nomi di George Snedecor, statunitense e Ronald A. Fisher, britannico). La variabile aleatoria F ha delle apposite tavole, ed essendo il numero di gradi di libertà un numero doppio, è necessaria una tavola per ogni centile di coda destra. Per ottenere un centile di coda sinistra della v.a. F è necessario invertire il numero di gradi di libertà, trovare il centile complementare e considerare il reciproco del valore ottenuto. 49

50 Funzione di densità della variabile log-normale 50

51 Funzione di densità delle variabili 2, t, F 51

52 35) Paradosso di San Pietroburgo Il paradosso di San Pietroburgo si basa su un modello di gioco/scommessa molto semplice, simile allesperimento della distribuzione geometrica: un giocatore lancia una moneta e vince 1 euro se esce subito testa, ne vince 2 se esce croce e poi testa, ne vince 4 se esce croce, croce e testa, e in generale ne vince 2 n se esce n volte croce e poi testa. Qual è la vincita media E(W), che corrisponde al prezzo equo da pagare per fare il gioco? E(W) = 1 · 1/2 + 2 · 1/4 + 4 · 1/8+8 ·1/16 + … = = ½ + ½ + ½ + …. = + ° Un giocatore di buon senso quanto sarebbe disposto a scommettere? Sicuramente una cifra molto limitata, al massimo 8 o 10 euro, perché è molto bassa la probabilità di ottenere una vincita consistente. Pertanto, in questa situazione, il calcolo della vincita media sembra portare molto fuori strada… 52

53 36) Paradosso di Monty Hall Il paradosso di Monty Hall ha tratto in inganno numerosi matematici, anche piuttosto quotati. Eppure si basa su un esperimento semplicissimo. I personaggi sono un concorrente e un presentatore. Il concorrente si trova tre porte, diciamo A B e C. Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata, dietro le altre due una semplice scatola di fiammiferi. Insomma, una sola porta è vincente. Al concorrente viene chiesto di scegliere una porta. Dopo la scelta il presentatore, che sa qual è la porta vincente, ne spalanca una perdente. In questa maniera rimangono chiuse due porte: quella scelta dal concorrente e unaltra. 53

54 Paradosso di Monty Hall (segue) Il presentatore propone al concorrente di cambiare porta. Il problema è: al concorrente conviene cambiare porta, oppure non cambiare, o è perfettamente indifferente? La maggior parte delle persone, alla prima formulazione del problema, pensa che sia assolutamente indifferente: due porte chiuse, una è vincente, 50% contro 50%. Ma non è così: se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A. Negli altri due casi è conveniente scegliere di cambiare porta. Pertanto, cambiando porta si vince con probabilità 2/3. E se non siete ancora convinti… 54

55 Paradosso di Monty Hall (segue) … supponiamo che non ci siano solo tre porte, ma ben 100! Voi siete il concorrente e scegliete, per esempio, la numero 76. Il presentatore spalanca 98 porte «perdenti» e lascia chiuse soltanto la numero 76 e la numero 83. Poi vi chiede se volete cambiare la 76 con la 83. Non vi viene voglia di scegliere la numero 83 senza pensarci troppo? Non pensate che in questo caso sia decisamente il caso di accettare il cambio??? Eppure è esattamente lo stesso problema di prima… 55

56 37) Paradosso delle tre buste Come è noto, le banconote americane di diverso valore hanno tutte la stessa dimensione. Supponiamo di avere tre buste, una contenente due banconote da 1 dollaro, una contenente una banconota da 1 dollaro e una da 100 dollari, e infine una contenente due banconote da 100 dollari. Le tre buste vengono rimescolate; una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta. La banconota è da 100 dollari. Qual è la probabilità che anche laltra banconota della busta sia da 100 dollari? Si potrebbe pensare che la probabilità sia pari a 1/2, in quanto due sono le buste che contengono banconote da 100 dollari. Invece, la probabilità è pari a 2/3. Infatti, vi sono in tutto tre banconote da 100 dollari, di cui due nella stessa busta e una «isolata». Quindi, la probabilità di avere pescato proprio la banconota «isolata» è pari a 1/3, mentre la probabilità di avere estratto una banconota «non isolata» è di 2/3. 56


Scaricare ppt "Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013 1."

Presentazioni simili


Annunci Google