La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013.

Presentazioni simili


Presentazione sul tema: "Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013."— Transcript della presentazione:

1 Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna)
BIOSTAT 2013 Asti, 1° luglio 2013

2 1) Eventi elementari e composti
Un esperimento aleatorio consiste in una prova (o insieme di prove) il cui risultato è noto solo dopo l’effettuazione dell’esperimento stesso. La prova può essere appositamente eseguita (lancio di un dado) oppure essere una prova di osservazione (rilevazione della pressione sistolica di un paziente). Il risultato di un esperimento aleatorio si dice evento. Prima di eseguire l’ esperimento un evento E può essere certo, possibile o impossibile. Una volta eseguito l’esperimento l’evento E può risultare vero o falso. I singoli risultati di un esperimento sono detti eventi elementari; aggregando tra loro gli eventi elementari si possono costruire eventi composti. Per ottenere degli eventi composti si possono utilizzare le operazioni logiche sugli eventi.

3 Esempi di esperimento aleatorio
Si conta il numero di battiti cardiaci di un paziente durante un minuto. Eventi elementari : 65 battiti, 80 battiti, 87 battiti, 125 battiti ecc. Eventi composti: - bradicardia leggera (da 55 a 69 battiti) - ritmo cardiaco “normale” (da 70 a 84 battiti) - ritmo cardiaco accelerato (da 85 a 99 battiti) - tachicardia (da 100 a 119 battiti) ecc. ° Si conta il numero di petali di una margherita. ° Si misura la statura di un adolescente. ° Si estrae una carta da un mazzo francese di 52.

4 2) Operazioni logiche sugli eventi
Evento contrario Se E è un evento associato a un determinato esperimento aleatorio, l’evento contrario – E è l’evento che risulta vero quando E risulta falso, e viceversa. Unione di due eventi Se A e B sono due eventi, l’unione A U B è l’evento che si verifica se, al termine dell’esperimento, almeno uno degli eventi A e B risulta vero. Intersezione di due eventi Se A e B sono due eventi, l’intersezione A ∩ B è l’evento che si verifica se, al termine dell’esperimento, entrambi gli eventi A e B risultano veri. Differenza di due eventi Se A e B sono due eventi, la differenza A - B è l’evento che si verifica se, al termine dell’esperimento, l’evento “minuendo” A risulta vero e l’evento “sottraendo” B risulta falso.

5 Esempio di operazioni logiche
Esperimento: si misura la temperatura corporea di un paziente anziano. Evento A “la temperatura è superiore a 38°C”; Evento B “la temperatura è compresa tra 37°C e 39°C” Evento contrario –A : “la temperatura non supera i 38°C” Unione A U B : “la temperatura supera i 37°C” Intersezione A ∩ B: “la temperatura è compresa tra 38°C e 39°C” Differenza A - B: “la temperatura supera i 39°C” Differenza B - A: “la temperatura è compresa tra 37°C e 38°C” Come avviene per la differenza aritmetica, la differenza tra due eventi NON è simmetrica, per cui l’evento A-B è diverso da B-A.

6 3) Relazioni tra eventi Un evento che risulta sempre vero, indipendentemente dal risultato dell’esperimento, si dice evento certo (simbolo W). Un evento che risulta sempre falso, indipendentemente dal risultato dell’esperimento, si dice evento impossibile (simbolo f). Due eventi A, B la cui intersezione A ∩ B è un evento impossibile, per cui essi non possono mai verificarsi contemporaneamente, si dicono eventi incompatibili. Dati tre o più eventi tali per cui ogni loro coppia è formata da eventi incompatibili, si dicono incompatibili a due a due. Due eventi A, B la cui unione A U B è un evento certo, per cui almeno uno di essi deve per forza verificarsi, si dicono eventi esaustivi. Se gli eventi sono più di due, si dicono esaustivi se la loro unione è un evento certo.

7 4) Proprietà delle operazioni logiche
Proprietà associativa: (A U B) U C = A U (B U C); (A ∩ B) ∩ C = A ∩ (B ∩ C) Proprietà commutativa: A U B = B U A; A ∩ B = B ∩ A Proprietà distributiva: A U (B ∩ C) = (A U B) ∩ (A U C); A ∩ (B U C) = (A ∩ B) U ( A ∩ C) Relazione con un evento certo: A U W = W ; A ∩ W = A; Relazione con un evento impossibile: A U f = A ; A ∩ f = f

8 5) Spazio degli eventi Lo spazio degli eventi è l’insieme di tutti gli eventi elementari associati a un esperimento aleatorio. Esso si indica con la lettera W . Lo spazio degli eventi può essere: - finito, ossia formato da un numero limitato di eventi. - infinito numerabile, formato da un numero illimitato di eventi che possono essere ordinati in modo naturale. - infinito continuo, formato da un’infinità continua di eventi. Lo spazio degli eventi è infinito continuo ogni volta che si esegue una misurazione. Per determinare il numero di eventi di uno spazio finito, si può fare uso del calcolo combinatorio.

9 6) Calcolo combinatorio: permutazioni e disposizioni
In quanti modi si possono permutare (ordinare) n elementi distinguibili? Al primo posto della sequenza ci sono n possibili scelte, al secondo ce ne sono n-1, al terzo n-2 e così via fino all’ultimo posto dove si colloca l’ultimo elemento rimasto a disposizione. Pertanto, le permutazioni di n elementi sono n(n-1)(n-2)…3∙2∙1 = n! Disposizioni semplici Se voglio costruire gruppi ordinati prendendo solo k degli n elementi a disposizione, le scelte possibili sono: n(n-1)(n-2)…(n-k+1)=n!/(n-k)! Disposizioni con ripetizione Se ammetto la possibilità di ripetere lo stesso elemento nel gruppo, le scelte possibili diventano n ∙ n ∙ n … ∙ n = nk

10 Esempi di permutazioni e disposizioni
Un paziente decide di fare cinque esami clinici di controllo: ECG, EEG, Ematocrito, Ecografia addominale, Esame dermatologico. Può fare gli esami nell’ordine che preferisce, non essendoci nessuna urgenza. In quanti ordini diversi può eseguire gli esami? P5= 5! = 120 Uno studente deve partire per un viaggio e decide di portarsi dietro sei libri didattici, Avendo in tutto 11 testi da studiare, quante scelte possibili ha? D11,6=11∙10∙9∙8∙7∙6 = Un medico ha la possibilità di prescrivere tre farmaci differenti ma equivalenti agli otto pazienti sofferenti di una certa patologia. In quanti modi può scegliere il farmaco da dare a ciascuno? D(R)3,8=38 = 6.561

11 7) Calcolo combinatorio: combinazioni
Combinazioni semplici Se voglio estrarre un sottoinsieme di k elementi da un insieme di n elementi, in quanti modi diversi posso farlo? Il numero di scelte corrisponde al cosiddetto coefficiente binomiale: Combinazioni con ripetizione Se ammetto la possibilità di ripetere lo stesso elemento nel gruppo, le scelte possibili diventano:

12 (segue Combinazioni) Combinazioni multiple
Se voglio suddividere n elementi in k gruppi, di cui il primo gruppo contiene n1 elementi, il secondo ne contiene n2 e così via, il numero di scelte possibili diventa: Esempio. Se si vogliono suddividere 15 impiegati in tre uffici, rispettivamente di 6, 5, 4 impiegati ciascuno, le scelte possibili sono:

13 Esempi di combinazioni
Una persona deve partire per le vacanze e ha in casa nove libri che deve ancora leggere. Se decide di portare con sé 5 libri, quante scelte possibili ha? Un signore galante vuole regalare un mazzo di 4 fiori a una donna, e può scegliere tra 7 qualità differenti. Quante scelte possibili vi sono di formare il mazzo? Un padre di famiglia vuole distribuire 16 pacchetti di figurine tra i suoi tre figli, rispettivamente di 7, 5 e 4 anni. Se decidesse di regalare a ciascuno una bustina per ogni anno di età, in quanti modo diversi potrebbe distribuire le bustine?

14 8) Definizioni di probabilità
Definizione classica (Laplace) P(E)=N° di casi favorevoli / N° di casi possibili (è applicabile solo quando si eseguono prove ripetute nelle medesime condizioni, e quando i cosiddetti “casi possibili” sono tutti “alla pari”) Definizione frequentista (Von Mises) P(E)=limite della frequenza relativa di osservazione dell’evento E al tendere all’infinito del numero delle prove. (è applicabile a tutti i fenomeni in cui si può raccogliere una cospicua base di dati) Definizione soggettivista (Ramsey, de Finetti) P(E)=grado di fiducia che un “valutatore”, in possesso di determinate informazioni, possiede nel verificarsi di un evento E. Il grado di fiducia può essere determinato attraverso il meccanismo della scommessa.

15 9) Assiomi del calcolo delle probabilità
I tre assiomi base della probabilità furono enunciati dal russo Andrej N. Kolmogorov ( ) Primo Assioma: la probabilità non ha segno, per cui non esistono eventi con probabilità inferiore allo zero: P(E)≥0 Secondo Assioma: la probabilità dell’intero spazio degli eventi è pari a 1: P(Ω)=1 Terzo Assioma: se due eventi sono incompatibili, la probabilità della loro unione è pari alla somma delle singole probabilità degli eventi: se A∩B=f, allora P(AU B) = P(A)+P(B) Il terzo assioma può venire esteso anche a un’infinità numerabile di eventi, purchè siano incompatibili a due a due.

16 10) Alcuni risultati dimostrabili con gli assiomi di Kolmogorov
Se l’evento E ha probabilità p (0<p<1), l’evento contrario –E ha probabilità 1-p. Un evento impossibile ha probabilità nulla; P(f)=0. La probabilità dell’evento differenza A-B è pari alla probabilità di A meno la probabilità dell’intersezione A∩B. La probabilità dell’unione A U B di due eventi qualsiasi è pari alla somma delle probabilità di A e di B, meno la probabilità dell’intersezione A∩B. La probabilità dell’intersezione A∩B di due eventi qualsiasi è pari alla somma delle probabilità di A e di B, meno la probabilità dell’unione A U B.

17 11) Probabilità condizionata
Gli eventi, in molti casi, si influenzano reciprocamente. Per esempio, in ambito biomedico, un tossicodipendente può contrarre più facilmente alcune patologie a causa dello stress fisico conseguente all’assunzione di sostanze tossiche. E’ quindi spesso opportuno studiare, oltre ai singoli eventi a alle loro probabilità, le relazioni tra eventi, e in particolare come l’avverarsi di un certo evento possa eventualmente modificare le probabilità di verificarsi di altri eventi. La probabilità condizionata P(B|A) è appunto la probabilità che ha l’evento B di verificarsi, supponendo che l’evento A si sia già verificato: Vale pertanto la seguente “regola del prodotto”:

18 12) Eventi indipendenti Il verificarsi dell’evento A può aumentare la probabilità dell’evento B (allora vi è correlazione positiva tra i due eventi). Può diminuirla (correlazione negativa) o lasciarla invariata. Se P(B|A) = P(B), allora anche P(A|B) = P(A) e i due eventi si dicono stocasticamente indipendenti (più sinteticamente indipendenti). Se gli eventi A e B sono indipendenti, la probabilità della loro intersezione diviene: Tale risultato può essere esteso a un numero qualsiasi di eventi. Si deve però distinguere tra eventi globalmente indipendenti ed eventi indipendenti a due a due.

19 Esempi di eventi “incompatibili “ e “indipendenti”
I due aggettivi “incompatibili” e “indipendenti” identificano due situazioni completamente diverse che non vanno confuse. Due eventi incompatibili si escludono categoricamente l’un l’altro: testa o croce, numero pari o dispari, soglia critica diagnostica superata o non superata, linfoma Hodgkin o non-Hodgkin e così via. Due eventi indipendenti possono senz’altro verificarsi entrambi, il punto è che la probabilità rimane la stessa, appunto, indipendentemente dal verificarsi dell’altro evento. Lanciando un dado e una moneta, gli eventi “4” e “croce” sono evidentemente indipendenti; altrettanto possono essere gli eventi “paziente diabetico” e “paziente di gruppo sanguigno A” oppure “voto nell’esame di statistica” e “segno zodiacale del candidato”.

20 13) Passaggio dall’evento contrario
Come già evidenziato in precedenza, la probabilità dell’evento contrario -E è uguale al complemento a 1 della P(E). A volte, per calcolare la probabilità di un evento, è molto più semplice calcolare prima la probabilità dell’evento contrario e sottrarla dal valore 1. Per esempio, se lancio cinque volte il dado e voglio calcolare la probabilità dell’evento “almeno un dado presenta il 6” è molto più veloce calcolare la probabilità dell’evento contrario: P(-E) = P(nessun dado presenta il 6) = (5/6)5 = 3125/7776 = 40,2% A questo punto si può calcolare P(E) = 1 – 0,402 = 0,598 = 59,8% In generale, ogni volta che si vuol calcolare la probabilità di eventi del tipo “almeno un elemento è di un certo tipo” o magari “almeno due elementi…” ecc., si può fare il passaggio dall’evento contrario.

21 (segue) Se l’evento è del tipo «almeno 2 eventi si verificano», dal valore 1 vanno sottratti la probabilità che non si verifichi nessun evento e la probabilità che se ne verifichi uno solo. Esempio: qual è la probabilità di ottenere almeno due teste lanciando sei monete? P(0 teste) = (1/2)6 = 1/64 P(1 testa) = 6 · (1/2)6 = 6/64 P(almeno due teste) = 1 – 1/64 – 6/64 = 57/64.

22 14) Il problema del compleanno
Un esempio di applicazione del metodo dell’evento contrario è il classico “problema del compleanno”, che consiste nel calcolare la probabilità che, in un insieme di k persone, almeno due festeggino il compleanno nello stesso giorno dell’anno. Supponiamo che sia k = 35. La probabilità che tutti i 35 compleanni siano diversi, supposta l’indipendenza di tutti i compleanni. è la seguente: P(tutti diversi) = 364/365∙ 363/365∙ 362/365∙...∙ 331/365 = 0,1856 Pertanto la probabilità di avere almeno due compleanni coincidenti è la seguente: P(E) = 1 – P(-E) = 1 – 0,1856 = 0,8144 = 81,44% Tale probabilità è decisamente più alta di quello che l’intuito porta a pensare, e aumentando il numero di persone la probabilità si avvicina rapidamente a uno. Con k=50 si ha infatti P(E) = 97,04%

23 Il problema del compleanno (segue)
Per avere una probabilità di doppio compleanno superiore al 50%, è sufficiente considerare un gruppo di sole 23 persone. Per avere una probabilità del 90%, occorre radunare 41 persone. Per avere una probabilità del 95% ce ne vogliono 47, mentre per superare il 99% ne sono necessarie 57. Se la scelta fosse addirittura tra 1000 opzioni anziché 365 (esempio: ultime tre cifre della carta di identità), i risultati sarebbero ancora più sorprendenti: bastano infatti 38 individui per superare il 50% di probabilità, ce ne vogliono 68 per superare il 90% e appena 77 per superare il 95%.

24 15) Il teorema di Bayes: premesse
Thomas Bayes era un pastore presbiteriano scozzese ( ) che formulò per primo un teorema di cui egli stesso non fece in tempo a cogliere l’importanza e la rilevanza che avrebbe avuto sulla probabilità moderna, al punto di essere il punto di riferimento di una importante scuola di pensiero “bayesiana”. Il teorema consiste nell’aggiornare le probabilità (opinioni) iniziali sulla base di un insieme di osservazioni successivamente effetuate. Vediamo il teorema nella sua formulazione basilare. Siano H1, H2, …, Hk ipotesi esaustive e incompatibili a due a due, per cui una sola può essere vera e tutte le altre sono false. A ciascuna di queste ipotesi va assegnata una probabilità iniziale, che funge da “sistema di pesi”. Siano P(H1), P(H2), … , P(Hk) le probabilità iniziali delle ipotesi a confronto, e sia E l’evento – o insieme di eventi – che è stato osservato. Quello che interessa sono le probabilità “aggiornate” P(Hj!E), j= 1,2, …, k

25 Il teorema di Bayes: formulazione
Sia Hj una generica ipotesi tra quelle a confronto. Applicando la definizione di probabilità condizionata si ottiene: Applicando ora la regola del prodotto e mettendo in evidenza le probabilità iniziali, si trova la formula finale: Le probabilità inverse P(E|Hi) prendono il nome di verosimiglianze, e rivestono un ruolo fondamentale nel teorema di Bayes. In particolare, se in assenza di informazioni più precise si pone P(Hi)=1/k per ogni i, Le probabilità finali P(Hi|E) saranno tutte proporzionali alle verosimiglianze.

26 Teorema di Bayes: applicazione
Un medico visita un paziente e pensa che possa essere affetto da una di tre patologie: A, B e C. L’incidenza della patologia A è di 1 su 1000 persone, quella della patologia B è di 1 su 5000, quella della patologia C è di 1 su Le probabilità iniziali sono pertanto: Per aumentare la precisione della diagnosi, il medico ordina di effettuare un esame clinico. Questo esame risulta positivo, tra i pazienti affetti dalla malattia A, nel 10% dei casi; tra i pazienti affetti da B nel 30% dei casi e, tra i pazienti affetti da C, nel 95% dei casi. Il paziente risulta positivo all’esame. Come cambia la distribuzione di probabilità dopo questo risultato clinico?

27 (segue applicazione) In questo caso l’esame clinico, anziché chiarire la situazione, ha addirittura aumentato l’incertezza, per cui è sicuramente opportuno che il medico esegua ulteriori accertamenti se vuole stabilire con maggiore esattezza qual è la patologia di cui soffre il suo paziente.

28 16) Variabili aleatorie discrete
Una variabile aleatoria (reale) è un’applicazione che assegna a ogni evento un numero reale. Per esempio, se nell’esperimento del lancio di una moneta indico con 0 la croce e con 1 la testa, sto definendo una variabile aleatoria. Se l’esperimento aleatorio di riferimento è un esperimento di conteggio, lo spazio degli eventi è finito o numerabile e la variabile che descrive l’esperimento è una variabile aleatoria discreta. L’insieme dei valori che può assumere una v.a. discreta è detto il supporto della variabile stessa. Ognuno di questi valori ha una probabilità; l’insieme dei valori del supporto e delle loro probabilità costituisce la distribuzione della variabile aleatoria. La funzione che fornisce le probabilità dei valori del supporto è detta funzione di probabilità.

29 17) Funzione di ripartizione
Sia X una variabile aleatoria discreta e sia P(X=x) la sua funzione di probabilità. La funzione di ripartizione, per un generico valore reale x0, fornisce la probabilità che X non superi tale valore. Indicando tale funzione con FX(x0) si ha quindi: FX(x0) = P(X≤x0). La funzione di ripartizione, definita per ogni x0 reale, ha le seguenti proprietà: - è non decrescente, per cui se a < b si ha FX(a) ≤ FX(b) - è continua a destra, per cui vale il limite: lim x  𝑥0 + FX(x)= FX( 𝑥 0 ); - valgono i seguenti due limiti: lim x  -∞ FX(x)= 0; lim x  +∞ FX(x)= 1;

30 18) Mediana e centili Data la variabile aleatoria discreta X, si definisce mediana il valore che divide probabilisticamente in due la distribuzione di X. Se esiste un valore x* tale che: P(X<x*)<1/2 e P(X≤x*)>1/2, il valore x* si dice mediana della distribuzione. Se invece esistono due valori x* e x** tali che: P(X<x*)<1/2, P(X≤x*)=P(X<x**)=1/2; (X≤x**)>1/2, si fissa la semisomma (x*+x**)/2 come mediana della distribuzione. Se al posto di considerare la metà esatta della distribuzione (mediana) si vuole stabilire quale valore si trova in correspondenza di k/100 della distribuzione, si procede come fatto con la mediana, inserendo però il valore k/100 al posto di 1/2. Il valore ottenuto si dice k–esimo centile della variabile X.

31 Esempi di determinazione di mediana e centili
Sia X una variabile aleatoria discreta con la seguente funzione di probabilità: P(X=x) = x/10, x = 1, 2, 3, 4. La mediana si trova osservando che: P(X≤2)= 1/10 + 2/10 = 3/10 (< ½); P(X≤3)= 6/10 (>½). Pertanto, il valore X=3 è il valore mediano. Se invece si cerca il 25° centile, ossia il punto corrispondente a ¼ della distribuzione, si può osservare che P(X≤1)=1/10, P(X≤2)= 3/10. Essendo il primo valore minore di ¼ e il secondo maggiore, si può affermare che il 25° centile è il punto X=2. Sia X il numero di teste nel lancio di 4 monete regolari, Si può calcolare la probabilità P(X=0)=1/16, P(X=1)=1/4, P(X=2)=3/8. Cumulando le probabilità ottenute si verifica che Me(X) = 2.

32 19) Valore atteso di una v.a. discreta
La media aritmetica di una variabile statistica si ottiene moltiplicando ciascun valore osservato per la sua frequenza relativa, e sommando i risultati. Il valore atteso di una v.a. X, indicato solitamente con E(X), è l’equivalente teorico della media aritmetica, e si ottiene considerando tutti i valori del supporto, e sostituendo alle frequenze relative le rispettive probabilità. Si ha quindi: Il valore atteso è sempre compreso tra il valore più piccolo del supporto e quello più grande; inoltre vale la proprietà lineare:

33 20) Momenti di una v.a. discreta
Il momento di ordine k della v.a. X si ottiene elevando ciascun valore alla k-esima potenza e ricalcolando il valore atteso: In particolare, il momento di ordine 1 coincide con il valore atteso, mentre secondo della v.a. X si ottiene elevando ciascun valore al quadrato e ricalcolando il valore atteso: Esempio: se consideriamo il lancio di un dado regolare otteniamo: E(X)= 1∙1/6+2∙1/6+3∙1/6+…+6∙1/6 = 21/6 = 3,5 E(X2)= 1∙1/6+4∙1/6+9∙1/6+…+36∙1/6 = 91/6 = 15,2 E(X3)= 1∙1/6+8∙1/6+27∙1/6+…+216∙1/6 = 441/6 = 73,5

34 21) Varianza di una v.a. discreta
La varianza di una v.a. discreta è una misura di variabilità, analoga a quella che si definisce per le variabili statistiche, così definita: V(X) = E[X-E(X)]2 = E(X2) – [E(X)]2 La varianza, essendo una quantità quadratica, non può mai essere negativa ed è espressa nel quadrato dell’unità di misura dei valori assunti da X. Valgono le seguenti proprietà: - V(X+b) = V(X) - V(aX) = a2 V(X) ; in particolare: V(-X) = V(X) - V(aX+b) = a2V(X) La radice quadrata della varianza di dice scarto di X: - S(X) = √V(X) Vale al proprietà: S(aX+b) = |a|∙S(X)

35 Esempio di calcolo Sia X una v.a. discreta con la seguente funzione di probabilità: P(X=x) = (5-x)/15, x=0, 1, 2, 3, 4 Il valore atteso è pari a: E(X) = 0 ∙5/15 + 1∙4/15 + 2∙3/15 + 3∙2/15 + 4∙1/15 = 20/15 =4/3. Il momento secondo è invece il seguente: E(X2) = 1∙4/15 + 4∙3/15 + 9∙2/ ∙1/15 = 50/15 = 10/3. La varianza è infine pari a V(X) = E(X2) – [E(X)]2 = 10/3–(4/3)2= 30/9 – 16/9 = 14/9.

36 22) Variabile aleatoria di Bernoulli
Sia X l’esito di una prova in cui vi sono due possibili risultati, rispettivamente indicati con i valori 0 e 1. Sia p la probabilità del valore 1. X si dice variabile aleatoria di Bernoulli di parametro p. Dunque: P(X=0)=1-p; P(X=1)=p . Funzione di ripartizione F(x) = per x < 0 = 1-p per 0 ≤ x < 1 = per x ≥ 1 E(X) = 0 ∙ (1-p)+1 ∙ p = p, E(X2) = p, V(X) = p (1-p)

37 23) Variabile aleatoria binomiale
Si effettua un esperimento formato da n prove di Bernoulli, indipendenti e con parametro p costante. Sia X il numero dei “successi” ossia il numero di eventi a cui corrisponde il valore 1. Funzione di probabilità: E(X) = n∙p, V(X) = n∙p∙(1-p) In particolare, se p=1/2 la funzione di probabilità diviene: Per questo valore si ha inoltre: E(X) = n/2, V(X) = n/4

38 24) Variabile aleatoria di Poisson
La variabile di Poisson è molto versatile, ed è stata utilizzata per rappresentare i fenomeni in cui la variabile di interesse è il numero di volte in cui un determinato evento si presenta in un intervallo prefissato., supponendo che la probabilità istantanea dell’evento sia sempre la stessa. Indicando con l il numero medio di volte in cui l’evento viene osservato nel periodo di tempo, la funzione di probabilità è la seguente: In particolare, la probabilità del valore zero è P(X=0) = e-l ; i valori più probabili sono quelli vicini a l dopodichè la probabilità decresce molto rapidamente. Il valore atteso e la varianza di X sono entrambi uguali a l.

39 Esempio di applicazione di Poisson
Il numero di attacchi di emicrania subiti da un paziente ogni settimana può essere un esempio di variabile poissoniana. Se il numero medio di attacchi è 2,5 la distribuzione di probabilità (almeno per i primi valori) è la seguente: P(X=0) = e-2,5 = 8,21% , P(X=1) = e-2,5 = 20,52% P(X=2) = e-2,5 = 25,65% , P(X=3) = e-2,5 = 21,38% P(X=4) = e-2,5 = 13,36% , P(X=5) = e-2,5 = 6,68% SI può notare come i tre valori più probabili (1, 2, 3) hanno complessivamente quasi il 70% di probabilità, quindi il paziente di deve aspettare, con buona probabilità, di avere 1 2 o 3 attacchi alla settimana.

40 25) Variabili aleatorie continue
Una variabile aleatoria continua Y rappresenta i possibili risultati di una misurazione. Statura, peso, glicemia, temperatura corporea sono tutti fenomeni che si possono rappresentare nel continuo. In una variabile continua le probabilità non vengono assegnate ai singoli punti, ma piuttosto agli intervalli. Pertanto, al posto della funzione di probabilità tipica delle variabili discrete, si utilizza la funzione di densità di probabilità che dà una misura di addensamento della probabilità nei dintorni di un punto. La funzione di densità non è mai negativa, ma – non rappresentando direttamente una probabilità – può anche superare il valore 1. La probabilità di un intervallo [a, b] si ottiene effettuando l’integrale definito, da a a b, della funzione di densità di probabilità:

41 26) Descrizione di una v.a. continua
La funzione di ripartizione di una v.a. continua Y ha lo stesso significato della F.d.R. delle variabili discrete. Essa si ottiene, ancora una volta, applicando il calcolo integrale: La mediana Me(Y) è il punto in cui la funzione di ripartizione vale esattamente ½, mentre il k-esimo centile è il punto y* in cui vale l’uguaglianza: FY(y*)=k/100 Il valore atteso E(Y) si ottiene risolvendo il seguente integrale: Il momento secondo E(Y2) si ottiene risolvendo invece l’ integrale:

42 27) Variabile aleatoria uniforme (o rettangolare)
Una variabile aleatoria uniforme (rettangolare) rappresenta un fenomeno in cui il supporto è formato da un intervallo chiuso [a, b] e ogni valore del supporto ha la stessa densità. Se Y è una v.a. uniforme, la funzione di densità di Y è la seguente: A sua volta, la funzione di ripartizione di Y è la seguente: Il valore atteso E(Y) è pari alla semisomma degli estremi (a+b)/2 La varianza V(Y) è pari a (b-a)2/12

43 28) Variabile aleatoria esponenziale
Una variabile aleatoria esponenziale rappresenta un fenomeno, a valori non negativi, in cui la densità è massima intorno al valore y=0 e decresce costantemente al crescere di y. La funzione di densità di Y è la seguente: A sua volta, la funzione di ripartizione di Y è la seguente: Il valore atteso è pari al reciproco del parametro k: E(Y)=1/k. La varianza è pari a V(Y)=1/k2.

44 29) Variabile aleatoria gaussiana
La v.a. gaussiana (o normale) è il modello continuo più noto e diffuso, ha la classica forma a campana rovesciata e dipende essenzialmente da due parametri: la media m e lo scarto s, per cui si scrive N(m,s) Il supporto è formato dall’intero asse reale, e la funzione di densità di Y è la seguente: La v.a. gaussiana ha due proprietà molto importanti: - Se Y è N(m,s), la variabile W = a + bY (con b ≠0) è ancora una v.a. gaussiana, di media a + bm e di scarto |b| s - Ogni combinazione lineare di v.a. gaussiane a due a due indipendenti è ancora una gaussiana.

45 30) Variabile aleatoria normale standardizzata
Data una v.a. gaussiana Y ~N(m,s), se si sottrae la media m e si divide il risultato per lo scarto s, si ottiene una v.a. gaussiana Z = (Y-m)/s di media 0 e scarto 1, di cui sono riportati i valori e le loro densità e ripartizioni nelle cosiddette tavole statistiche, che si possono trovare in qualunque manuale. La funzione di densità di una normale standardizzata è la seguente: Per risolvere problemi probabilistici sulla v.a. normale generica, si fa solitamente ricorso alla v.a. standardizzata Z, trovando le probabilità cercate sulle tavole e riportandosi alla variabile gaussiana iniziale tramite la trasformata inversa: Y = m + sZ .

46 31) Variabile aleatoria log-normale
Una variabile W segue una distribuzione log-normale se la trasformata logaritmica Y = ln W è normalmente distribuita. Pertanto, se la variabile aleatoria Y è N(m,s), la trasformata W = eY è di tipo log-normale. La mediana di questa distribuzione è Me(W)=em , il valore atteso è pari a E(W)=em+s2/2 e la varianza è pari a V(W)= e2m+s2 (es2-1). Per esempio, se m = 2, s = 1 si ha: Me(W)= e2 E(W)=e5/2 , V(W)= e5 (e-1).

47 32) Variabile aleatoria chi quadrato
Siano Z1, Z2, …, Zk variabili aleatorie normali, standardizzate, a due a due indipendenti. Elevando ciascuna variabile aleatoria al quadrato e sommando le variabili ottenute, si ottiene una nuova variabile: W = Z12 + Z22 +… + Zk2 che prende il nome di v.a. chi quadrato con k gradi di libertà. Se W è una v.a. chi quadrato con k gradi di libertà, allora si ha: E(W) = k, V(W) = 2k. La funzione di ripartizione di W non è direttamente esplicitabile, per cui si deve fare ricorso alle tavole della distribuzione chi quadrato. Solitamente nella tavole sono indicati i centili di coda (sinistra e destra) della distribuzione, che risultano utili per i test statistici.

48 33) Variabile aleatoria t di Student
Sia Z una v.a. normale standardizzata e sia Wk una v.a. chi quadrato, con k gradi di libertà, indipendente da Z. La variabile aleatoria: si dice variabile t di Student con k gradi di libertà. Se k=1 la variabile T ha media e varianza non finite, mentre se k = 2 sessa ha media nulla e varianza non finita. Da k=3 in avanti, si ha: Anche la funzione di ripartizione di T non è direttamente esplicitabile, per cui si deve fare ricorso alle tavole della distribuzione t di Student. Sulle tavole della t ci sono unicamente i centili di coda destra, quelli di coda sinistra si ottengono semplicemente cambiando di segno il centile complementare.

49 34) Variabile aleatoria F di Snedecor-Fisher
Sia Ug una variabile aleatoria chi quadrato con g gradi di libertà, e sia Wh una variabile aleatoria chi quadrato con h gradi di libertà, indipendente da Ug La variabile aleatoria prende il nome di variabile F di Snedecor – Fisher con g gradi di libertà al numeratore e h al denominatore (dai nomi di George Snedecor, statunitense e Ronald A. Fisher, britannico). La variabile aleatoria F ha delle apposite tavole, ed essendo il numero di gradi di libertà un numero doppio, è necessaria una tavola per ogni centile di coda destra. Per ottenere un centile di coda sinistra della v.a. F è necessario invertire il numero di gradi di libertà, trovare il centile complementare e considerare il reciproco del valore ottenuto.

50 Funzione di densità della variabile log-normale

51 Funzione di densità delle variabili c2, t, F

52 35) Paradosso di San Pietroburgo
Il paradosso di San Pietroburgo si basa su un modello di gioco/scommessa molto semplice, simile all’esperimento della distribuzione geometrica: un giocatore lancia una moneta e vince 1 euro se esce subito testa, ne vince 2 se esce croce e poi testa, ne vince 4 se esce croce, croce e testa, e in generale ne vince 2n se esce n volte croce e poi testa. Qual è la vincita media E(W), che corrisponde al prezzo equo da pagare per fare il gioco? E(W) = 1·1/2 + 2 · 1/4 + 4 · 1/8+8 ·1/16 + … = = ½ + ½ + ½ + …. = +∞ ° Un giocatore di buon senso quanto sarebbe disposto a scommettere? Sicuramente una cifra molto limitata, al massimo 8 o 10 euro, perché è molto bassa la probabilità di ottenere una vincita consistente. Pertanto, in questa situazione, il calcolo della vincita media sembra portare molto fuori strada…

53 36) Paradosso di Monty Hall
Il paradosso di Monty Hall ha tratto in inganno numerosi matematici, anche piuttosto quotati. Eppure si basa su un esperimento semplicissimo. I personaggi sono un concorrente e un presentatore. Il concorrente si trova tre porte, diciamo A B e C. Dietro a una di queste porte si trovano le chiavi di una macchina di grossa cilindrata, dietro le altre due una semplice scatola di fiammiferi. Insomma, una sola porta è vincente. Al concorrente viene chiesto di scegliere una porta. Dopo la scelta il presentatore, che sa qual è la porta vincente, ne spalanca una perdente. In questa maniera rimangono chiuse due porte: quella scelta dal concorrente e un’altra.

54 Paradosso di Monty Hall (segue)
Il presentatore propone al concorrente di cambiare porta. Il problema è: al concorrente conviene cambiare porta, oppure non cambiare, o è perfettamente indifferente? La maggior parte delle persone, alla prima formulazione del problema, pensa che sia assolutamente indifferente: due porte chiuse, una è vincente, 50% contro 50%. Ma non è così: se il concorrente ha scelto la porta A vince soltanto se la porta vincente era proprio la A. Negli altri due casi è conveniente scegliere di cambiare porta. Pertanto, cambiando porta si vince con probabilità 2/3. E se non siete ancora convinti…

55 Paradosso di Monty Hall (segue)
… supponiamo che non ci siano solo tre porte, ma ben 100! Voi siete il concorrente e scegliete, per esempio, la numero 76. Il presentatore spalanca 98 porte «perdenti» e lascia chiuse soltanto la numero 76 e la numero 83. Poi vi chiede se volete cambiare la 76 con la 83. Non vi viene voglia di scegliere la numero 83 senza pensarci troppo? Non pensate che in questo caso sia decisamente il caso di accettare il cambio??? Eppure è esattamente lo stesso problema di prima…

56 37) Paradosso delle tre buste
Come è noto, le banconote americane di diverso valore hanno tutte la stessa dimensione. Supponiamo di avere tre buste, una contenente due banconote da 1 dollaro, una contenente una banconota da 1 dollaro e una da 100 dollari, e infine una contenente due banconote da 100 dollari. Le tre buste vengono rimescolate; una persona sceglie a caso una busta ed estrae una banconota dalla busta scelta. La banconota è da 100 dollari. Qual è la probabilità che anche l’altra banconota della busta sia da 100 dollari? Si potrebbe pensare che la probabilità sia pari a 1/2, in quanto due sono le buste che contengono banconote da 100 dollari. Invece, la probabilità è pari a 2/3. Infatti, vi sono in tutto tre banconote da 100 dollari, di cui due nella stessa busta e una «isolata». Quindi, la probabilità di avere pescato proprio la banconota «isolata» è pari a 1/3, mentre la probabilità di avere estratto una banconota «non isolata» è di 2/3.


Scaricare ppt "Introduzione al calcolo delle probabilità a cura di Maurizio Brizzi (Università di Bologna) BIOSTAT 2013 Asti, 1° luglio 2013."

Presentazioni simili


Annunci Google