Abbiamo visto un esempio di applicazione del teorema, ma a noi interessa l’applicazione del Teorema di Bayes alla combinazione delle informazioni, ovvero.

Slides:



Advertisements
Presentazioni simili
Le distribuzioni di probabilità continue
Advertisements

2. Introduzione alla probabilità
Dipartimento di Economia
Definizione di probabilità, calcolo combinatorio,
Intervalli di confidenza
Capitolo 8 Sistemi lineari.
Autovalori e autovettori
METODI EQUAZIONI DIFFERENZIALI Funzioni che mettono in relazione una variabile indipendente ( es. x), una sua funzione ( es. y = f(x) ) e la.
COORDINATE POLARI Sia P ha coordinate cartesiane
2.VARIABILI CONTINUE A. Federico ENEA; Fondazione Ugo Bordoni Scuola estiva di fonetica forense Soriano al Cimino 17 – 21 settembre 2007.
Algebra delle Matrici.
Elementi di Matematica
Teoria e Tecniche del Riconoscimento
Apprendimento Automatico: Apprendimento Probabilistico Roberto Navigli 1 Apprendimento Automatico: Apprendimento Bayesiano.
Valutazione delle ipotesi
INFERENZA NEL MODELLO DI REGRESSIONE LINEARE MULTIPLA (parte 1)
MODELLO DI REGRESSIONE LINEARE MULTIPLA
CONFRONTO TRA DUE MEDIE:
INTERVALLO DI CONFIDENZA PER UNA PROPORZIONE (1)
DIFFERENZA TRA LE MEDIE
Processi Aleatori : Introduzione – Parte I
Un manipolatore è costituito da un insieme di corpi rigidi (bracci) connessi in cascata tramite coppie cinematiche (giunti) a formare una catena cinematica.
Cinematica differenziale
Inversione differenziale della Cinematica
Matematica e statistica Versione didascalica: parte 8 Sito web del corso Docente: Prof. Sergio Invernizzi, Università di Trieste
8. Reti di Code Nella maggior parte dei processi produttivi risulta troppo restrittivo considerare una sola risorsa. Esempio: linea tandem arrivi 1 v.
Soluzione di equazioni non lineari
Velocità media Abbiamo definito la velocità vettoriale media.
Sistemi di equazioni lineari
Corso di biomatematica lezione 10: test di Student e test F
Corso di biomatematica lezione 4: La funzione di Gauss
Corso di biomatematica lezione 6: la funzione c2
STATISTICA a.a PARAMETRO t DI STUDENT
Stima dei parametri di una distribuzione
Modelli probabilistici
Cenni di teoria degli errori
1 Esempio : Utile per considerare limportanza delle ALTE FREQUENZE nella ricostruzione del segnale, in particolare dei FRONTI di SALITA e di DISCESA (trailing.
Lezione 8 Numerosità del campione
Num / 36 Lezione 9 Numerosità del campione.
Lezione 4 Probabilità.
Corso di Matematica Discreta cont. 2
Lezione 13 Equazione di Klein-Gordon Equazione di Dirac (prima parte)
Equazione di Dirac per la y
Propagazione degli errori
Spazi vettoriali astratti Somma e prodotto di n-ple Struttura di R n.
Daniele Santamaria – Marco Ventura
Unità 6 Test parametrici e non parametrici Test per la verifica della normalità Funzione di ripartizione.
Unità 7 Test parametrici ☐ Test t di Student ☐ Analisi della varianza ad una via ☐ Confronti multipli.
Unità 2 Distribuzioni di probabilità Misure di localizzazione Misure di variabilità Asimmetria e curtosi.
Errori casuali Si dicono casuali tutti quegli errori che possono avvenire, con la stessa probabilità, sia in difetto che in eccesso. Data questa caratteristica,
Vettori dello spazio bidimensionale (R 2)
La verifica d’ipotesi Docente Dott. Nappo Daniela
Lezione B.10 Regressione e inferenza: il modello lineare
Eventi aleatori Un evento è aleatorio (casuale) quando non si può prevedere con certezza se avverrà o meno I fenomeni (eventi) aleatori sono studiati.
Elaborazione statistica di dati
MATEMATICA PER L’ECONOMIA e METODI QUANTITATIVI PER LA FINANZA a. a
TRATTAMENTO STATISTICO DEI DATI ANALITICI
M. De Cecco - Lucidi del corso di Robotica e Sensor Fusion Se i parametri di Denavit-Hartemberg non corrispondono con quelli di progetto a causa di tolleranze.
Pattern Recognition Lez.14: Miscugli di Gaussiane.
La covarianza.
Operazioni di campionamento CAMPIONAMENTO Tutte le operazioni effettuate per ottenere informazioni sul sito /area da monitorare (a parte quelle di analisi)
L’analisi di regressione e correlazione Prof. Luigi Piemontese.
Sistemi di equazioni lineari. Sistemi di primo grado di due equazioni a due incognite Risolvere un sistema significa trovare la coppia di valori x e y.
Lezione n° 10 Algoritmo del Simplesso: - Coefficienti di costo ridotto - Condizioni di ottimalità - Test dei minimi rapporti - Cambio di base Lezioni di.
Definizione di Flusso Il flusso è la misura di quanto materiale o campo passa attraverso una superficie nel tempo. Se si parla di campo elettrico basterà.
La distribuzione normale. Oltre le distribuzioni di frequenza relative a un numero finito di casi si possono utilizzare distribuzioni con un numero di.
Regressione: approccio matriciale Esempio: Su 25 unità sono stati rilevati i seguenti caratteri Y: libbre di vapore utilizzate in un mese X 1: temperatura.
Teoria dei Sistemi di Trasporto Tematica 4: Elementi minimi di teoria della probabilità.
Abbiamo visto un esempio di applicazione del teorema, ma a noi interessa l’applicazione del Teorema di Bayes alla combinazione delle informazioni, ovvero.
Transcript della presentazione:

Abbiamo visto un esempio di applicazione del teorema, ma a noi interessa l’applicazione del Teorema di Bayes alla combinazione delle informazioni, ovvero al SENSOR FUSION! Teorema di Bayes

Teorema di Bayes – Caso Gaussiano scalare Si consideri uno stato x a valori continui, ad esempio la distanza da un target, e un’osservazione z di questo stato La funzione densità di probabilità per la distribuzione delle osservazioni del valor vero dello stato, si supponga Gaussiana (anche detta Distribuzione Normale) in cui le osservazioni sono distribuite con media  e varianza  Si supponga di aver effettuato una misura zp si può ricavare la funzione di verosimiglianza (dalle informazioni circa il sensore): Si voglia adesso combinarla con l’informazione precedente dello stato: Teorema di Bayes – Caso Gaussiano scalare

Teorema di Bayes – Caso Gaussiano scalare Il teorema di Bayes può essere applicato direttamente per combinare questa informazione precedente con l’informazione del sensore E quindi: Dove: Teorema di Bayes – Caso Gaussiano scalare

Teorema di Bayes – Caso Gaussiano scalare Una volta nota la proprietà simmetrica delle distribuzioni Gaussiane ossia che il prodotto di due distribuzioni Gaussiane è ancora una distribuzione Gaussiana con media e varianza espresse dalle precedenti equazioni, non è necessario effettuare ogni volta i calcoli sulle distribuzioni ma è sufficiente utilizzare direttamente le espressioni già note della media e della varianza risultanti. Questo risultato consente il calcolo in tempo reale in un’implementazione di data fusion basata su questi modelli probabilistici. Densità precedente, funzione di verosimiglianza e distribuzione posteriore E’ evidente che la distribuzione posteriore è ancora di tipo Gaussiano, come ci si aspetta, è situata in posizione interposta tra le altre due distribuzioni (rispetto alle rispettive medie) ed è una campana più stretta avendo una varianza minore delle due varianza originarie Teorema di Bayes – Caso Gaussiano scalare

Teorema di Bayes – Caso Gaussiano vettoriale Si consideri il caso in cui lo stato x sia una variabile vettoriale continua e sia tale anche il vettore di osservazione z. La varianza diviene in questo caso una matrice (detta di covarianza): Nell’ipotesi che lo stato segua una distribuzione Normale (Gaussiana) di probabilità, la distribuzione precedente P(x) potrà essere rappresentata con una gaussiana multi-dimensionale del tipo: dove d è la dimensione del vettore e xp il valor medio Teorema di Bayes – Caso Gaussiano vettoriale

Teorema di Bayes – Caso Gaussiano vettoriale Se perciò si ipotizza di effettuare un’osservazione z con un sensore la cui funzione di verosimiglianza relativa abbia matrice di covarianza Cz (matrice che rappresenta la ripetibilità del sensore): E’ infine possibile calcolare la distribuzione posteriore P(x|z), nello stesso modo dell’esempio precedente ma tenendo conto che le distribuzioni sono a valori vettoriali. Pertanto la distribuzione posteriore sarà ancora gaussiana, con matrice di covarianza pari al parallelo delle matrici di covarianza di partenza, ossia: Teorema di Bayes – Caso Gaussiano vettoriale

Teorema di Bayes – Caso Gaussiano vettoriale L’espressione di C si può scrivere anche in modo più efficiente calcolando una sola inversione matriciale: da cui … perfettamente analogo al caso scalare in cui era: e quindi Teorema di Bayes – Caso Gaussiano vettoriale

Teorema di Bayes – Caso Gaussiano vettoriale Mentre la media della distribuzione posteriore risulterà essere: … anche in questo caso perfettamente analogo al caso scalare in cui era: Teorema di Bayes – Caso Gaussiano vettoriale

Teorema di Bayes – Caso Gaussiano vettoriale Graficamente una distribuzione Normale bidimensionale è rappresentata da una campana di Gauss le cui sezioni trasversali sono delle ellissi che rappresentano il luogo dei punti caratterizzati da uguale probabilità. Nella matrice di covarianza sono contenute le informazioni sulle dimensioni degli assi principali delle ellissi (autovalori della matrice) e sulla loro orientazione (autovettori). Un esempio di quello che graficamente corrisponde alle equazioni appena ottenute è riportato in figura Densità precedente, funzione di verosimiglianza e distribuzione posteriore la distribuzione posteriore è ancora gaussiana, è situata in posizione interposta tra le altre due distribuzioni ed è un ellisse più stretto avendo una matrice di covarianza minore Teorema di Bayes – Caso Gaussiano vettoriale

Teorema di Bayes – Caso Gaussiano vettoriale Ellissi di equi-probabilità nel caso in cui l’osservazione ottenuta e la relativa ellisse di incertezza restino sempre le stesse per 20 osservazioni/misure. L’ellisse della distribuzione posteriore converge con il proprio centro verso il valore osservato e va riducendosi sempre di più ad ogni iterazione Teorema di Bayes – Caso Gaussiano vettoriale

Teorema di Bayes – combinazione di misure Il teorema di Bayes si può applicare direttamente alla fusione delle informazioni provenienti da differenti sensori Ciò che si vuole fare è ottenere la distribuzione posteriore dove l’insieme delle osservazioni è definito: La distribuzione posteriore definisce la densità di probabilità dello stato x data l’informazione ottenuta dalle n osservazioni Teorema di Bayes – combinazione di misure

Teorema di Bayes – combinazione di misure In pratica occorre conoscere completamente la distribuzione congiunta e condizionata , cioè la distribuzione congiunta di tutte le possibili combinazioni di osservazioni condizionata allo stato. Generalmente è possibile assumere che una volta definito lo stato x, l’informazione ottenuta dalla i-esima sorgente di informazione sia indipendente dall’informazione delle altre sorgenti, ovvero che i diversi strumenti di misura non interferiscano tra di loro e che quindi valga il principio di indipendenza condizionata: Teorema di Bayes – combinazione di misure

Teorema di Bayes – combinazione di misure Dunque si ottiene: Quindi la distribuzione posteriore su x, ovvero la probabilità aggiornata dello stato, è proporzionale al prodotto della distribuzione di probabilità precedente e delle distribuzioni di probabilità di ciascuna osservazione. La distribuzione marginale di Zn agisce come costante di normalizzazione. Tale relazione fornisce un metodo semplice per la fusione di informazioni da più sensori ed è chiamata gruppo indipendente di probabilità Teorema di Bayes – combinazione di misure

Teorema di Bayes – combinazione di misure L’efficacia di questo metodo è basata sull’ipotesi che le osservazioni siano indipendenti tra loro quando condizionate al valore vero dello stato. Tale assunzione è ragionevole se lo stato a cui le osservazioni si riferiscono è la sola cosa che esse hanno in comune, perciò una volta che lo stato sia stato specificato è ragionevole assumere che le informazioni siano condizionalmente indipendenti. Ciò non sarebbe sicuramente corretto senza la condizionalità, ovvero sarebbe errato dire che le informazioni sono incondizionalmente indipendenti e quindi: Teorema di Bayes – combinazione di misure

Indipendenza condizionata - Esempio L’ipotesi di indipendenza condizionale non è detto che sia sempre ragionevole, ad esempio nel caso in cui un’osservazione può modificare sensibilmente lo stato tale ipotesi non è valida. Un esempio è rappresentato dalla misura con effetto di carico. Analizziamo prima un esempio in cui l’effetto di carico è assente: Si voglia misurare la posizione lineare di un asse mediante due strumenti laser (quindi senza contatto) I due strumenti forniranno due misure condizionalmente indipendenti in quanto la loro misura dipenderà solo dallo stato del sistema e dalle caratteristiche di accuratezza di ogni singolo strumento preso singolarmente x Laser 1 Laser 2 Indipendenza condizionata - Esempio

Indipendenza condizionata - Esempio Supponiamo le misure abbiano una densità di probabilità normale ed effetto sistematico nullo: Dunque verrà fuori che: Indipendenza condizionata - Esempio

Indipendenza condizionata - Esempio Rappresentiamo la probabilità congiunta Nel caso in cui si abbia Come era lecito aspettarsi il valore massimo di probabilità si ottiene per entrambe le misure pari a zero Indipendenza condizionata - Esempio

Dipendenza condizionata - Esempio Analizziamo ora un esempio in cui l’effetto di carico è presente: Si voglia misurare la posizione lineare di un asse mediante uno strumento laser ed un tastatore a riga ottica che pone a contatto il tastatore mediante una molla caricando la mensola connessa con la slitta di cui occorre controllare il moto x Riga ottica a tastatore 2 (encoder lineare con molla per asicurare il contatto) Laser 1 I due strumenti forniranno due misure condizionalmente dipendenti in quanto la loro misura dipenderà dal fatto che entrambi sono connessi in misurazione In particolare sarà: (la misura z1 è riferita al laser, la z2 al tastatore) Dipendenza condizionata - Esempio

Dipendenza condizionata - Esempio Supponiamo le misure abbiano, oltre all’effetto di carico xc, una densità di probabilità normale: Proviamo a valutare cosa succede se (erroneamente!) ipotizziamo indipendenza condizionale: Dipendenza condizionata - Esempio

Indipendenza condizionata - Esempio Rappresentiamo la probabilità congiunta (errata) Nel caso in cui si abbia Dovrebbe essere in [0.5, 0.5] Max in [0, 0.5] Inquadrando dall’alto la densità di probabilità si nota come essa abbia adesso il valore massimo in corrispondenza della coppia di valori [0, 0.5] Tale risultato è palesemente errato in quanto vorrebbe dire che l’evento congiunto [0, 0.5] ha la massima probabilità di verificarsi Sappiamo invece che il massimo si deve avere per: z2 z1 Sappiamo infatti che, se il tastatore è a contatto e la slitta si trova in x=0, il tastatore indurrà effetto di carico pari a 0.5, e di conseguenza il laser misurerà il valore 0.5 con la massima verosimiglianza Indipendenza condizionata - Esempio

Dipendenza condizionata - Esempio Persistiamo nell’errore e valutiamo cosa succede se procediamo con la combinazione delle seguenti informazioni: Supponiamo di sapere che la corsa dell’azionamento è limitata entro [-1 1] ed a ciascun valore assegniamo stesso livello di probabilità, ovvero una funzione rettangolare di densità di probabilità per P(x) Dipendenza condizionata - Esempio

Dipendenza condizionata - Esempio x Dipendenza condizionata - Esempio

Dipendenza condizionata - Esempio Il valore massimo di probabilità per lo stato x condizionato alle misure 0.55 e 0.45 si ha per 0.25!!! (dovrebbe essere invece 0) x Dipendenza condizionata - Esempio

Dipendenza condizionata - Esempio … torniamo indietro e cerchiamo di fare le cose per bene!!! Sappiamo che dobbiamo modellare la probabilità congiunta condizionata in maniera corretta!!! Descriviamola a parole: se lo stato assume un valore x, entrambe le misure assumeranno una massima probabilità in x+xc con deviazione standard pari a szi, e quindi: Il modello matematico sarà: Dipendenza condizionata - Esempio

Dipendenza condizionata - Esempio Il valore massimo di probabilità per lo stato x condizionato alle misure 0.55 e 0.45 adesso vale 0 Il valore stimato mediante fusione è corretto (per questo caso particolare coincide con il valore presunto vero dello stato) x Notare: l’effetto sistematico è stato compensato Dipendenza condizionata - Esempio

Teorema di Bayes – Forma ricorsiva La fusione delle informazioni di più sensori richiederebbe, in linea di principio, di memorizzare tutta l’informazione passata e, all’arrivo di una nuova k-esima informazione nella forma P(zk|x), di ricalcolare la probabilità complessiva aggiornata P(z1 … zk | x) Ma fortunatamente il teorema di Bayes si presta facilmente alla implementazione ricorsiva: Bayes Nel caso in cui valga l’indipendenza condizionale Bayes Teorema di Bayes – Forma ricorsiva

Teorema di Bayes – Forma ricorsiva Costante di normalizzazione Fusione al passo k Funzione di verosimiglianza della nuova informazione al passo k Fusione al passo k-1 Teorema di Bayes – Forma ricorsiva

Forma ricorsiva – caso gaussiano Nel caso le densità di probabilità possano essere modellate mediante distribuzione normale, la forma ricorsiva assume la seguente forma: Filtraggio bayesiano dove: Forma ricorsiva – caso gaussiano