La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Bruno Mario Cesana Stefano Calza

Presentazioni simili


Presentazione sul tema: "Bruno Mario Cesana Stefano Calza"— Transcript della presentazione:

1 Bruno Mario Cesana Stefano Calza
CORSO DI STATISTICA Nozioni di Calcolo della Probabilità TERZA PARTE Bruno Mario Cesana Stefano Calza

2 UN TEST DIAGNOSTICO (1) Malato (M) Sano (S) Totale Test + (Positivo) A
(80) B ( 50) A + B ( 130) Test – (Negativo) C (20) D (850) C + D ( 870) A + C (100) B + D (900) N (1000) A = VERI POSITIVI, B = FALSI POSITIVI C = FALSI NEGATIVI, D = VERI NEGATIVI

3 UN TEST DIAGNOSTICO (2) Evento: (T+ M)  P (T+ M) = A / (A + C) = SENSIBILITA’ Evento: (T - S)  P (T - S) = D / (B + D) = SPECIFICITA’ Evento: (T+ S)  Falsi Positivi (1 – Specificità) Evento: (T - M)  Falsi Negativi (1 – Sensibilità) Probabilità CONDIZIONATA di ottenere un TEST POSITIVO (T+) DATO CHE IL SOGGETTO E’ MALATO (M): Probabilità CONDIZIONATA di ottenere un TEST POSITIVO (T+) DATO CHE IL SOGGETTO E’ SANO (S):

4 UN TEST DIAGNOSTICO (3) Ciò che interessa è la probabilità che IL SOGGETTO SIA MALATO DATO un TEST POSITIVO: Probabilità CONDIZIONATA CHE IL SOGGETTO SIA MALATO (M) DATO un TEST POSITIVO (T+) : Il numeratore è ottenuto dall’Eq.1 Il denominatore [P(T+)] è ottenuto dall’Eq. 1 e dall’Eq 2: P(T+)= (T+ M) + (T+ S). QUESTA E’ LA FORMULA DEL “TEOREMA DI BAYES” che permette di risolvere il problema dell’INFERENZA INVERSA (dal campione alla popolazione).

5 UN TEST DIAGNOSTICO (4) VALORE PREDITTIVO POSITIVO (VP+):
PROBABILITA’ CONDIZIONATA CHE IL SOGGETTO SIA MALATO (M) DATO un TEST POSITIVO (T+): VALORE PREDITTIVO NEGATIVO (VP-): PROBABILITA’ CONDIZIONATA CHE IL SOGGETTO NON SIA MALATO (S) DATO un TEST NEGATIVO (T-):

6 TEST DIAGNOSTICO – SCREENING (5)

7 UN TEST DIAGNOSTICO (6) Malato (M) Sano (S) Totale Test + (Positivo) A
(80) B ( 50) A + B ( 130) Test – (Negativo) C (20) D (850) C + D ( 870) A + C (100) B + D (900) n (1000) VP+ = A / (A + B ); VP- = D / (C + D) N.B.: FORMULE VALIDE SOLO IN CASO DI UN TEST DI SCREENING: n  campione casuale dalla popolazione N.

8 CURVE ROC (1)

9 CURVE ROC (2)

10 SINTOMI (S1, S2, S3) E MALATTIE (1)
Totale MAL. A 100 AS1 200 AS2 700 AS3 1,000 [P(A)] MAL. B 600 BS1 1,500 BS2 900 BS3 3,000 [P(B)] MAL. C 2,000 CS1 CS2 3,000 CS3 6,000 [P(C)] 2,700 [P(S1)] 2,700 [P(S1)] 4,600 [P(S1)] 10,000 P(A) = 1,000/10,000 = 0.10,…,P(C) = 6,000/10,000 = 0.60 P(S1) = 2,700/10,000 = 0.27,…,P(S3) = 4,600/10,000 = 0.46 P(AS1) = 100/10,000 = 0.01,…,P(CS3)=3,000/10,000 = 0.30 P(S1 A) = 100/1,000 = 0.10,…, P(S3 C) = 3,000/6,000 = 0.50

11 SINTOMI (S1, S2, S3) E MALATTIE (2)
Totale MAL. A 100 AS1 200 AS2 700 AS3 1,000 MAL. B 600 BS1 1,500 BS2 900 BS3 3,000 MAL. C 2,000 CS1 1,000 CS2 3,000 CS3 6,000 2,700 4,600 10,000 P(AS1) = 100/10,000 =0.01,…,P(CS3) = 3,000/10,000 =0.30 P(S1A) = P(S1  A) / P(A) = (100/10,000) / (1,000/10,000) = / 1,000 = 0.10. P(S1B) = P(S1  B) / P(B) = (600/10,000) / (3,000/10,000) = / 3,000 = 0.20. P(S1C) = P(S1  C) / P(C) = (2,000/10,000) / (6,000/10,000) = 2,000 / 6,000 = 0.33.

12 SINTOMI (S1, S2, S3) E MALATTIE (3)
Totale MAL. A 100 AS1 200 AS2 700 AS3 1,000 P(A)=0.10 MAL. B 600 BS1 1,500 BS2 900 BS3 3,000 P(B)=0.30 MAL. C 2,000 CS1 1,000 CS2 3,000 CS3 6,000 P(C)=0.60 2,700 4,600 10,000 P(AS1) = P(S1  A) / P(S1) = (100/10,000) / (2,700/10,000) = / 2,700 = P(BS1) = P(S1  B) / P(S1) = (600/10,000) / (2,700/10,000) = / 2,700 = P(CS1) = P(S1  C) / P(S1) = (2,000/10,000) / (2,700/10,000) = ,000 / 2,700 =

13 SINTOMI (S1, S2, S3) E MALATTIE (4)
Totale MAL. A (M1) 100 AS1 200 AS2 700 AS3 1,000 P(A)=0.10 MAL. B (M2) 600 BS1 1,500 BS2 900 BS3 3,000 P(B)=0.30 MAL. C (M3) 2,000 CS1 1,000 CS2 3,000 CS3 6,000 P(C)=0.60 2,700 4,600 10,000 P(AS1) = P(S1  A) / P(S1) = (100/10,000) / (2,700/10,000) = / 2,700 = P(AS1) = P(S1  A) / [P(M1  S1) + P(M2  S1) + P(M3  S1)] ovvero:

14 FORMULA del Teorema di Bayes
Dalla formula della probabilità condizionata: Ma: Quindi: P(Mi) = Probabilità a priori (non dipendono dall’ esito A) P(S1 | Mi) = Verosimiglianza (la probabilità di A dato che si è verificato Ei ) P(Mi|S1) = Probabilità a posteriori (verificatosi A, la probabilità con cui Ei si verifica)

15 Teorema di Bayes Consideriamo l’insieme degli eventi Ei,, i= 1,2..n tra loro incompatibili che costituiscono lo spazio campione Considero ora un evento A, sottoinsieme di  A E1 E2 E3 En La P(A) sarà data dalla somma delle singole aree di intersezione AEi ovvero:

16 Teorema di Bayes (2) Proviamo a pensare agli eventi Ei come le cause che determinano l’evento A. Allora, se si è verificato A, con quale probabilità la causa è Ei? In altre parole: P(Ei|A) = ? In tal caso le osservazioni sperimentali (A) forniscono nuove informazioni alle conoscenze a priori (E) [Da dove vengono quest’ultime? Da altri studi, da esperienze personali, ecc.] Come noto: Ma: Quindi: P(Ei) = Probabilità a priori (non dipendono dall’ esito A) P(A| Ei) = Verosimiglianza (la probabilità di A dato che si è verificato Ei ) P(Ei|A) = Probabilità a posteriori (verificatosi A, la probabilità con cui Ei si verifica)

17 Ulteriore esempio E’ noto che il 2% delle persone controllate dalla polizia è risultato essere in stato d’ebbrezza. Un laboratorio ha messo a punto un alcool-test che ha dato esito positivo nel 95% dei casi di reale ebbrezza (sensibilità) ed esito negativo nel 96% delle persone sobrie (specificità). Quale è la probabilità che una persona sia realmente ebbra, in caso di esito positivo del test (dato che il test è risultato positivo) ? E = evento “ubriaco” NE = evento “non ubriaco” T+ = evento “test positivo” T- = evento “test negativo” P(E) = P(NE) = 1 - P(E) = 0.98 P(T+ |E) = P(B|E) = 1 - P(T+ |E) = 0.05 P(T- |NE) = P(T- |NE) = 1 - P(T- |NE) = 0.04

18 Esempio (2) Risulterà: ovvero:
Non molto buono! Se aumentassi la specificità: P(T-|NE) = 0.99? Decisamente meglio… ma non certo ottimale !


Scaricare ppt "Bruno Mario Cesana Stefano Calza"

Presentazioni simili


Annunci Google