Fondamenti di “sensor fusion” Mariolino De Cecco, Luca Baglivo

Slides:



Advertisements
Presentazioni simili
8) GLI INTERVALLI DI CONFIDENZA
Advertisements

Intervalli di confidenza
Matematica I: Calcolo differenziale, Algebra lineare, Probabilità e statistica Giovanni Naldi, Lorenzo Pareschi, Giacomo Aletti Copyright © The.
Cinematica diretta Un manipolatore è costituito da un insieme di corpi rigidi (bracci) connessi in cascata tramite coppie cinematiche (giunti). Si assume.
1 2. Introduzione alla probabilità Definizioni preliminari: Prova: è un esperimento il cui esito è aleatorio Spazio degli eventi elementari : è linsieme.
Dinamica del manipolatore
Meccanica 8 31 marzo 2011 Teorema del momento angolare. 2° eq. Cardinale Conservazione del momento angolare Sistema del centro di massa. Teoremi di Koenig.
2.VARIABILI CONTINUE A. Federico ENEA; Fondazione Ugo Bordoni Scuola estiva di fonetica forense Soriano al Cimino 17 – 21 settembre 2007.
Espressione dell’incertezza di misura (UNI CEI 9)
Definizioni Chiamiamo esperimento aleatorio ogni fenomeno del mondo reale alle cui manifestazioni può essere associata una situazione di incertezza. Esempi:
Analisi delle Decisioni Funzioni di utilita’ e lotterie
Variabili Le variabili sono proprietà di eventi reali che possono modificarsi nel tempo o in diversi luoghi e che possono essere misurate. Tipologia delle.
Metodi Quantitativi per Economia, Finanza e Management Lezione n° 11.
INFERENZA NEL MODELLO DI REGRESSIONE LINEARE MULTIPLA (parte 1)
Caratteristiche metrologiche degli strumenti di misura.
Processi Aleatori : Introduzione – Parte I
Abbiamo visto un esempio di applicazione del teorema, ma a noi interessa l’applicazione del Teorema di Bayes alla combinazione delle informazioni, ovvero.
Il problema cinematico inverso tratta la determinazione delle variabili di giunto assegnata la posizione e l’assetto dell’organo finale del manipolatore.
Un manipolatore è costituito da un insieme di corpi rigidi (bracci) connessi in cascata tramite coppie cinematiche (giunti) a formare una catena cinematica.
Cinematica differenziale
Inversione differenziale della Cinematica
Esempio – Manipolatore Antropomorfo
Appunti di inferenza per farmacisti
Corso di biomatematica Lezione 2: Probabilità e distribuzioni di probabilità Davide Grandi.
Corso di biomatematica lezione 6: la funzione c2
La quantità di moto La quantità di moto di un sistema di punti materiali si ottiene sommando le quantità di moto di ciascun punto materiale Ricordando.
Rotazione di un corpo rigido attorno ad un asse fisso
Modello Domanda-Offerta Aggregata (AD-AS)
STATISTICA a.a METODO DEI MINIMI QUADRATI REGRESSIONE
Robotica e Sensor Fusion per i Sistemi Meccatronici
Modelli probabilistici
Cenni di teoria degli errori
1 Esempio : Utile per considerare limportanza delle ALTE FREQUENZE nella ricostruzione del segnale, in particolare dei FRONTI di SALITA e di DISCESA (trailing.
Esperimentazioni di fisica 3 AA 2010 – 2011 M. De Vincenzi
Emivita Fisica (T1/2) e Vita Media (T)
Lezione 8 Numerosità del campione
Num / 36 Lezione 9 Numerosità del campione.
Parte I (introduzione) Taratura degli strumenti (cfr: UNI 4546) Si parla di taratura in regime statico se lo strumento verrà utilizzato soltanto per misurare.
Lezione 13 Equazione di Klein-Gordon Equazione di Dirac (prima parte)
Propagazione degli errori
Guida ISO all’espressione dell’incertezza di misura (GUM) –
Regressione Logistica
Derivate Parziali di una Funzione di più Variabili
Le distribuzioni campionarie
Unità 6 Test parametrici e non parametrici Test per la verifica della normalità Funzione di ripartizione.
Unità 2 Distribuzioni di probabilità Misure di localizzazione Misure di variabilità Asimmetria e curtosi.
Errori casuali Si dicono casuali tutti quegli errori che possono avvenire, con la stessa probabilità, sia in difetto che in eccesso. Data questa caratteristica,
Errori casuali Si dicono casuali tutti quegli errori che possono avvenire, con la stessa probabilità, sia in difetto che in eccesso. Data questa caratteristica,
Metodi Quantitativi per Economia, Finanza e Management Lezione n°5 Analisi Bivariata I° Parte.
La verifica d’ipotesi Docente Dott. Nappo Daniela
Un insieme limitato di misure permette di calcolare soltanto i valori di media e deviazione standard del campione, ed s. E’ però possibile valutare.
Martina Serafini Martina Prandi
IL CAMPIONE.
Calcolo delle probabilità a cura di Maurizio Brizzi
Intervallo di Confidenza Prof. Ing. Carla Raffaelli A.A:
Intervalli di confidenza
Eventi aleatori Un evento è aleatorio (casuale) quando non si può prevedere con certezza se avverrà o meno I fenomeni (eventi) aleatori sono studiati.
Elaborazione statistica di dati
M. De Cecco - Lucidi del corso di Robotica e Sensor Fusion Fondamenti di “sensor fusion” Mariolino De Cecco, Luca Baglivo, Mattia Tavernini.
TRATTAMENTO STATISTICO DEI DATI ANALITICI
Elementi di teoria delle probabilità
M. De Cecco - Sensor Fusion: teoria ed applicazione alla percezione di sistemi robotici SLAM Simultanea localizzazione e mappatura di veicoli autonomi.
M. De Cecco - Lucidi del corso di Robotica e Sensor Fusion Se i parametri di Denavit-Hartemberg non corrispondono con quelli di progetto a causa di tolleranze.
Operazioni di campionamento CAMPIONAMENTO Tutte le operazioni effettuate per ottenere informazioni sul sito /area da monitorare (a parte quelle di analisi)
In alcuni casi gli esiti di un esperimento possono essere considerati numeri naturali in modo naturale. Esempio: lancio di un dado In atri casi si definisce.
Corso PAS Misure, strumenti ed Errori di misura Didattica del Laboratorio di Fisica F. Garufi 2014.
Ipotesi operative TeoriaEsperienza diretta e/o personale Quesito Piano esecutivo Scelta popolazione Scelta strumenti Scelta metodi statistici Discussione.
1 DISTRIBUZIONI DI PROBABILITÁ. 2 distribu- zione che permette di calcolare le probabilità degli eventi possibili A tutte le variabili casuali, discrete.
Introduzione alle distribuzioni di probabilità di Gauss o normale di Bernoulli o binomiale di Poisson o dei casi rari.
Teoria dei Sistemi di Trasporto Tematica 4: Elementi minimi di teoria della probabilità.
Transcript della presentazione:

Fondamenti di “sensor fusion” Mariolino De Cecco, Luca Baglivo

Cinematica dei Manipolatori e dei robot mobili Un manipolatore può essere schematizzato da un punto di vista meccanico come una catena cinematica costituita da corpi rigidi (bracci) connessi mediante giunti rotoidali o prismatici. Ad ogni giunto corrisponde un grado di mobilità Nei manipolatori un estremo è vincolato rigidamente ad una base, all’altro estremo è fissato un organo terminale (end effector). Conoscendo la variabile connessa con ogni giunto (variabile di giunto: angolo per i rotoidali, posizione relativa per i prismatici) la posizione ed orientazione (posa o postura) dell’organo terminale sono univocamente determinati Nel caso dei robot mobili non si hanno vincoli rigidi che ne vincolano la posizione in maniera univoca, bensì ruote (generalmente) che determinano un vincolo di velocità Conoscendo la variabile connessa con ogni giunto (angolo complessivo di rotazione della ruota) non si ha nessuna informazione circa la posa del veicolo Cinematica dei Manipolatori e dei robot mobili

La navigazione autonoma è intesa come l’insieme delle tecniche per mezzo delle quali si rende un sistema in grado di spostarsi con un certo livello di autonomia in diverse tipologie di ambiente: terrestre, aereo, subacqueo, spaziale, etc. I problemi che nel campo della navigazione autonoma vengono affrontati riguardano innanzitutto la localizzazione del sistema rispetto all’ambiente, la pianificazione del proprio compito e il controllo del moto Un’interessante categoria di sistemi a cui si applica lo studio della navigazione autonoma è quella dei sistemi AGV (Autonomous Guided Vehicles). Essi trovano ormai largo impiego in industrie, porti, aeroporti, ospedali, etc, tuttavia misurare la posizione e l’assetto di un veicolo è ancora un problema di consistente interesse

Il sensor fusion è il processo che combina le informazioni provenienti da un certo numero di sorgenti differenti per fornire una descrizione completa e robusta (misura) di un insieme di variabili di interesse. Il sensor fusion è di particolare utilità in ogni applicazione in cui molte misure devono essere combinate assieme, fuse e ottimizzate allo scopo di ottenere informazioni robuste, di qualità e integrità atte allo scopo dell’applicazione. Le tecniche di sensor fusion trovano applicazione in molti sistemi industriali, militari, di monitoraggio, di sorveglianza civile, in processi di controllo e in sistemi informatici. Il problema della localizzazione dei veicoli autonomi, in cui nella quasi totalità dei casi i singoli trasduttori si rilevano insufficienti nel costituire un sistema di localizzazione completo e robusto per la navigazione autonoma, richiede l’impiego di tecniche di sensor fusion. Caso Robot Mobili

Vantaggi Svantaggi Caso Robot Mobili Le tecniche di sensor fusion trovano applicazione nel campo della navigazione autonoma, in cui è necessario ottenere una stima di posizione e assetto (posa) di un robot mobile Vantaggi Svantaggi Misura incrementale (encoders, inerziale, dead rockoning) auto-contenuti relativamente semplici, elevata frequenza di aggiornamento, assenza di rumore ad alta frequenza integrano incrementi relativi e quindi deriva Misura riferita all’ambiente (laser, ultrasuoni, cavo annegato) misura riferita all’ambiente quindi assenza di deriva bassa ripetibilità, bassa frequenza di aggiornamento della misura Caso Robot Mobili

Esempio di localizzazione ottenuta con soli dati incrementali

Esempio di localizzazione ottenuta con Sensor Fusion

Modelli probabilistici La norma ISO definisce la misura come un insieme di elementi: - un valore - un livello di confidenza che definisce la probabilità che la misura si trovi all’interno dell’intervallo indicato - un intervallo di valori ad associato al livello di confidenza stabilito(ottenuto mediante integrazione sulla funzione densità di probabilità) - un’unità di misura Per il Sensor Fusion non bastano le informazioni di cui sopra, ma è necessaria anche la funzione densità di probabilità associata alla misura Ad esempio, se si ipotizza una funzione densità di probabilità di tipo Gaussiano, la misura sarà costituita dal valor medio m e da un intervallo di valori centrato attorno alla media e di ampiezza pari a un certo coefficiente moltiplicato per la deviazione standard s della distribuzione. Modelli probabilistici

p x ( ) .      680 2 950 3 997 p(zi >z) p(zi<z) = F(z) -3 -2 -1 1 2 3 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 z p(zi<z) = F(z) p(zi >z) 5 Valori notevoli: P(x)=0 … perchè? p x ( ) .      680 2 950 3 997 Valori notevoli spiegare il significato di questi valori Modelli probabilistici

Modelli probabilistici Intervallo pari a ±2s x Intervallo pari a ±2s x x0: misura … quindi possiamo dire che la misura è pari a: x0 ± 2s con il 95% di probabilità Ovvero che c’è una probabilità del 95% che il valore vero della variabile da misurare cada all’interno dell’intervallo [x-2s x+2s] Modelli probabilistici

Modello di Stato ed Osservazione I concetti di stato e di osservazione di un sistema sono alla base di varie teorie, tra cui la teoria dei controlli e la teoria del data fusion. Una volta definito un modello fisico della natura di un sistema, più o meno vicino alla realtà, il concetto di stato di un sistema è associato al concetto di valore vero delle variabili di interesse di quel sistema, ossia dei valori che possono assumere le grandezze fisiche o le proprietà in genere che definiscono il modello del sistema. Il valore vero di uno stato è anche detto misurando, ossia grandezza fisica il cui valore è oggetto di indagine nel processo di misurazione rumore derivata dello stato stato ingresso (controllo) Forma standard del modello di osservazione (o modello di misura di un sistema): stato misura rumore Modello di Stato ed Osservazione

Modello di Stato ed Osservazione Il modello di stato, se rispecchiasse esattamente la natura del sistema, fornirebbe una conoscenza completa della sua evoluzione, una volta note le condizioni iniziali e le variabili di controllo Purtroppo, a causa di fattori di incertezza di varia natura, tra cui la stessa inevitabile approssimazione con cui il modello è costruito, spesso la conoscenza delle variabili di interesse derivante dal modello di stato non è sufficiente. Occorre perciò ottenere delle informazioni aggiuntive effettuando delle osservazioni (misure) dello stato. Anch’esse rispondono a un modello più o meno completo che descrive come l’osservazione è legata allo stato da cui dipende e vi si può associare un’incertezza (di tipo probabilistico o di altro tipo) Modello di Stato ed Osservazione

Modelli probabilistici Conseguenza : Il risultato della misura può differire ogni qualvolta si ripete l’operazione di misura stessa, a causa di variazioni nei modelli non controllabili nell’esperimento. Un esperimento che porta a misure differenti anche se la procedura di misura è la stessa ad ogni tempo, è definito RANDOM EXPERIMENT. Il set di tutti i possibili risultati di un random experiment, è definito come SAMPLE SPACE, e può essere: discreto -> numero finito o contabile di possibili risultati continuo -> quando è riferito ad un intervallo di numeri reali Modelli probabilistici

Modelli probabilistici realizzazione di un valore y del processo aleatorio Y y viene anche detta variabile casuale La funzione densità di probabilità P(y), è valida se: Ricordiamo sempre che la probabilità che si manifesti la variabile casuale y  [y0 y1] vale: Modelli probabilistici

La densità di probabilità congiunta P(x, y) è definita nella stessa maniera di P(y) e rappresenta la distribuzione di probabilità del realizzarsi congiuntamente di due variabili casuali La densità di probabilità marginale P(y) è associata alla probabilità congiunta ed è la funzione che per ogni valore di y esprime la probabilità che esso si realizzi congiuntamente a tutti i possibili valori di x: La pdf (Probability Density Function) condizionata P(x | y) è la densità di probabilità associata alla variabile x condizionata al verificarsi precedentemente di un dato valore di y Viene definita nel modo seguente: In generale:

Consideriamo: x e y -> variabili casuali discrete di due processi aleatori X,Y N -> numero totale di osservazioni delle due variabili ci -> # osservazioni con x = xi rj -> # osservazioni con y = yi nij -> # osservazioni con x = xi e y = yi La probabilità P(x) è definita come la probabilità di verificarsi della condizione x = xi ed è pari a: N.B. : nel campo continuo si parla di densità di probabilità, mentre in quello discreto ci si riferisce alla probabilità.

La probabilità congiunta P(x, y) è data dal verificarsi di entrambe le condizioni x = xi e y = yj E’ facile verificare che il numero di osservazioni rj è legato al numero di osservazioni nij nel modo Quindi è facile ricavare la seguente relazione: Si osserva che questa corrisponde alla probabilità marginale P(y). Il nome marginale deriva quindi dal fatto che è ottenuta a partire dalla probabilità congiunta.

La probabilità condizionata P(x|y) è invece chiamata tale poiché esprime la probabilità di verificarsi dell’osservazione x = xi condizionata ad un valore dato di y = yj Quindi la si può definire come già precedentemente visto

Consideriamo: x e y -> variabili casuali discrete di due processi aleatori X,Y N -> numero totale di osservazioni delle due variabili ci -> # osservazioni con x = xi rj -> # osservazioni con y = yi nij -> # osservazioni con x = xi e y = yi

Inoltre si ha:

Dunque, per esprimere una pdf congiunta in termini di densità condizionate e marginali si ha la regola di derivazione delle distribuzioni condizionate : Le variabili x e y possono appartenere allo stesso insieme o a insiemi diversi, ciò che conta ai fini della distribuzione congiunta è se le due variabili sono correlate tra loro o meno Nel caso in cui siano correlate: (esempio dell’estrazione di numeri della tombola) in quanto, dopo che y si è realizzato, se ci sono relazioni tra x e y l’insieme a cui x appartiene risulta modificato e quindi anche la sua probabilità di realizzazione, quindi in generale:

invece se tra x e y non ci sono relazioni, esse risultano scorrelate (o indipendenti) e quindi: Ovvero in quanto, dopo che y si è verificato, nulla è cambiato per il processo aleatorio X La regola di derivazione può essere estesa a un numero qualsiasi di variabili nel modo seguente:

Teorema della probabilità totale: Esso asserisce che la densità di probabilità P(y) (densità marginale) può essere ottenuta considerando i modi in cui y può verificarsi condizionatamente al realizzarsi di uno specifico valore di x, pesata dalla probabilità che ciascuno di questi valori di x si realizzi

Indipendenza condizionata Supponiamo tre variabili: Si dice che x ed y sono indipendenti condizionatamente al verificarsi di z, se la x è indipendente dalla y data la conoscenza di z. in altri termini z contiene tutte le informazioni contenute nella y riguardo a x E quindi si ha: NOTA: che due variabili x ed y siano indipendenti condizionatamente al verificarsi di z, non vuol dire che sono indipendenti! Indipendenza condizionata

Indipendenza condizionata NOTA: che due variabili x ed y siano indipendenti condizionatamente al verificarsi di z, non vuol dire che sono indipendenti: Questi non sono uguali! Mentre, se fossero indipendenti: Indipendenza condizionata

Indipendenza condizionata Il concetto di indipendenza condizionale sta alla base di molti algoritmi di data fusion Un esempio: consideriamo lo stato x di un sistema e due osservazioni z1 e z2 Le due osservazioni non sono indipendenti tra loro (in quanto dipendono entrambe dallo stato x del sistema): Per contro, è ragionevole assumere che la sola cosa che le due osservazioni hanno in comune è lo stato del sistema, perciò le osservazioni saranno indipendenti una volta che lo stato si è realizzato, ossia si può scrivere che Questo si realizza ad esempio nel caso di due misure della stessa grandezza in presenza di rumore bianco Indipendenza condizionata

Indipendenza condizionata - Esempio Laser rangefinder x: distanza carrello-laser La misura del laser è affetta da rumore bianco La densità di probabilità è triangolare in quanto maggiore al centro che rappresenta il punto di maggior passaggio. La probabilità di ottenere una misura z è circa uguale A carrello fermo la densità di probabilità associata ad una misura z condizionata allo stato x è diversa dalla densità del verificarsi semplicemente una misura z (non condizionata a nulla) Indipendenza condizionata - Esempio

Teorema di Bayes Si considerino due variabili casuali x e z Ai fini applicativi del teorema di Bayes al problema del data fusion si attribuisce alla variabile x lo stato di interesse del sistema, o misurando, e a z l’osservazione di quello stato, o misura Esempio: lo stato di interesse può essere la velocità lineare di un veicolo e l’osservazione può essere un valore misurato di velocità angolare delle ruote, che attraverso la frequenza rilevata sull’encoder associato e la conoscenza del raggio delle ruote, porta alla stima della velocità lineare La regola di derivazione della proprietà congiunta a partire dalle probabilità condizionali può essere usata per esprimere la funzione densità nei due modi diversi già visti: Teorema di Bayes

Il teorema di Bayes si ottiene manipolando le probabilità condizionate nel seguente modo: … che esprime la densità di probabilità associata al misurando x una volta ottenuta una misura z Nota questa è proprio l’informazione che lo sperimentatore od il sistema di controllo vuole avere! Teorema di Bayes

Teorema di Bayes Esempio applicativo caso discreto 2 box (B) -> red(r), blue(b) 2 tipi di oggetti (T) -> orange(o), green(g) Probabilità selezionare box rosso 40% Probabilità selezionare box blue 60% P(B=r) = 4/10 P(B=b)= 6/10 1) Quale è la probabilità totale di selezionare un oggetto green? 2) Supponendo che abbiamo scelto un orange, quale è la probabilità che sia selezionato dal box blue? Teorema di Bayes

Quale è la probabilità totale di selezionare un oggetto green? trovare P( T=g ) -> teorema probabilità totale P(T=g) = P(T=g|B=r) P(B=r) + P(T=g|B=b) P(B=b) = 11/20 Teorema di Bayes

Teorema di Bayes P(T=g) = 11/20 2) Supponendo che abbiamo scelto un orange, quale è la probabilità che sia selezionato dal box blue? trovare P( B=b | T=o ) -> teorema di Bayes P(B=b | T=o) = P(T=o|B=b) P(B=b) / P(T=o) P(B=b | O=o) = ( 1/4 * 6/10 ) / (1 - 11/20 ) = 1/3 Teorema di Bayes

Nel teorema di Bayes la distribuzione marginale P(z) serve semplicemente a normalizzare la distribuzione condizionata, anche detta a posteriori (è un termine che non dipende dalla variabile ma dal dato ricavato mediante misurazione che è costante) Grazie alla normalizzazione tramite P(z), la P(x|z) è proprio una funzione densità di probabilità, infatti vale: Il teorema di Bayes fornisce un metodo diretto per combinare le informazioni sullo strumento di misura P(z|x) con la stima della densità di probabilità associata al misurando P(x) per ottenere la densità di probabilità di x (ad esempio precedente) condizionata alla misura z, quindi l’informazione cercata sullo stato Il teorema di Bayes è alla base di numerosi algoritmi di data fusion (come ad esempio il Filtro di Kalman) Teorema di Bayes

Per comprendere a fondo il valore e l’utilità di questa (apparentemente) semplice manipolazione delle funzioni densità di probabilità occorre analizzare il significato di P(x), P(z), P(x|z), P(z|x) La pdf P(x) è la funzione densità di probabilità precedente e quantifica l’incertezza con cui si conosce lo stato, prima della nuova osservazione z Al fine di ottenere maggiori informazioni circa la stato x, si effettua un’osservazione z. Le osservazioni sono modellate dalla funzione di densità di probabilità condizionata P(z|x) che descrive, per ogni fissato stato x, la probabilità che sarà riscontrata l’osservazione z La densità di probabilità condizionata P(z|x) ricopre il ruolo di quello che è chiamato modello del sensore. In tale modello x è il misurando, z è la misura (osservazione dello strumento di misura) Teorema di Bayes

Teorema di Bayes - Taratura La funzione P(z|x) può essere pensata in due modi distinti il primo è riferito alla taratura del sensore in tal caso la distribuzione si ottiene fissando un particolare valore di x = xp e trovando quale risulta la pdf relativa alla variabile z Tale processo coincide con la taratura in cui si determina l’incertezza dello strumento in funzione dell’ingresso In questo caso P(z|xp) è considerata funzione di z Ripetendo più volte le misure della stessa grandezza si ottengono delle funzioni densità di probabilità x=xp z Strumento di Misura P(xp) P(z/x) Teorema di Bayes - Taratura

Teorema di Bayes - Misura il secondo è riferito all’utilizzo del sensore per la misura in tal caso la distribuzione si ottiene rilevando un particolare valore di z = zp e trovando quale risulta la pdf relativa alla variabile x misurando Tale processo coincide con il risultato del processo di misurazione in cui si determina l’incertezza dello strumento in funzione dell’ingresso In questo caso P(zp|x) è considerata funzione di x ed è nota come funzione di verosimiglianza: x=F-1(z) z=zp Strumento di Misura z = F(x) P(x)= P(zp/x) P(zp/x) Teorema di Bayes - Misura

Teorema di Bayes – Esempio Drug Testing Suppose a certain drug test is 99% sensitive and 99% specific that is, the test will correctly identify a drug user as testing positive 99% of the time, and will correctly identify a non-user as testing negative 99% of the time. This would seem to be a relatively accurate test, but Bayes' theorem will reveal a potential flaw. Let's assume a corporation decides to test its employees for use of a particular drug, and 0.5% of the employees actually use the drug (from general statistics about the local population). We want to know the probability that, given a positive drug test, an employee is actually a drug user Teorema di Bayes – Esempio Drug Testing

Teorema di Bayes – Esempio Drug Testing Let "D" be the event of being a drug user "N" indicate being a non-user "+" be the event of a positive drug test Noi vogliamo conoscere la probabilità P(D|+) Abbiamo le seguenti informazioni: Pr(D), or the probability that the employee is a drug user, regardless of any other information. This is 0.005, since 0.5% of the employees are drug users Pr(N), or the probability that the employee is not a drug user. This is 1-Pr(D), 0.995 Pr(+|D), or the probability that the test is positive, given that the employee is a drug user. This is 0.99, since the test is 99% accurate Pr(+|N), or the probability that the test is positive, given that the employee is not a drug user. This is 0.01, since the test will produce a false positive for 1% of non-users Teorema di Bayes – Esempio Drug Testing

Teorema di Bayes – Esempio Drug Testing Pr(+), or the probability of a positive test event, regardless of other information. Pr(+) = P(+|D)·P(D) + P(+|N) ·P(N) = 0.99·0.005 + 0.01·0.995 = 0.0149 This is 0.0149 or 1.49%, found by adding the probability that the test will produce a true positive result in the event of drug use (= 99% x 0.5% = 0.495%) plus the probability that the test will produce a false positive in the event of non-drug use (= 1% x 99.5% = 0.995%) Mediante il teorema di Bayes possiamo adesso calcolare la probabilità che un soggetto sia un consumatore di droghe a fronte di un test risultato positivo, ovvero possiamo calcolare P(D|+): Teorema di Bayes – Esempio Drug Testing

! Teorema di Bayes – Esempio Drug Testing Notare che si tratta di una partizione tra P(+|D)· P(D) e P(+|N)· P(N) ed anche se P(+|D) è molto alta e P(+|N) è molto bassa i contributi dovuti ai casi di positivo P(+|D)· P(D) e quelli di falso positivo P(+|N)· P(N) divengono comparabili in quanto la condizione che si sta cercando è rara (P(D) = 0.005) mentre quella complementare è elevata (P(N) = 0.995) dando vita in generale ad un numero comparabile di test effettivamente positivi e test falsamente positivi Tale condizione è in generale vera per test su condizioni rare anche in presenza di macchinari di rilevazione piuttosto accurati Per questo è necessario effettuare test di verifica soprattutto in tali condizioni! ! If P(+|N)P(N) = 0 it would had been 1 instead ! Teorema di Bayes – Esempio Drug Testing

Teorema di Bayes