La Classificazione supervisionata

Slides:



Advertisements
Presentazioni simili
Pattern Oggetto o entità definito da un nome: p.es. un neo, un volto, un sintomo, un segnale biomedico, un paziente, un esame clinico, … Rappresenta.
Advertisements

Tema 1: Misura della probabilità di eventi Esempio: Sistema di trasmissione dati Schema di principio di un semplice sistema di trasmissione dati binario.
Tema 4: Sistemi di V.A. Gaussiane
2. Introduzione alla probabilità
Chiara Mocenni – Analisi delle Decisioni a.a Analisi delle Decisioni Probabilita condizionate e Teorema di Bayes Chiara Mocenni.
Processi Aleatori : Introduzione – Parte II
LA VARIABILITA’ IV lezione di Statistica Medica.
2.VARIABILI CONTINUE A. Federico ENEA; Fondazione Ugo Bordoni Scuola estiva di fonetica forense Soriano al Cimino 17 – 21 settembre 2007.
Variabili casuali a più dimensioni
Fondamenti della Misurazione
Standardizzazione. Situazione standardizzata: tutto resta costante Misura standardizzata: il singolo dato empirico è ricondotto a un sistema di riferimento.
Chiara Mocenni – Analisi delle Decisioni – a.a Analisi delle Decisioni Probabilita condizionate Chiara Mocenni.
Riconoscimento di forme
Classificatore bayesiano
Funzione di distribuzione (detta anche cumulativa o di ripartizione)
3. Processi Stocastici Un processo stocastico è una funzione del tempo i cui valori x(t) ad ogni istante di tempo t sono v.a. Notazione: X : insieme di.
Metodi Quantitativi per Economia, Finanza e Management Lezione n° 11.
redditività var. continua classi di redditività ( < 0 ; >= 0)
Apprendimento Automatico: Apprendimento Bayesiano
Apprendimento Automatico: Apprendimento Probabilistico Roberto Navigli 1 Apprendimento Automatico: Apprendimento Bayesiano.
Apprendimento Bayesiano
Apprendimento Automatico: Apprendimento Pigro (Lazy Learning)
Valutazione delle ipotesi
Computational Learning Theory and PAC learning
Apprendimento Bayesiano
Identificabilità a priori: esperimento “ideale”
Intervallo di probabilità di una media
DIFFERENZA TRA LE MEDIE
ANALISI DEI GRUPPI seconda parte
Abbiamo visto un esempio di applicazione del teorema, ma a noi interessa l’applicazione del Teorema di Bayes alla combinazione delle informazioni, ovvero.
Corso di biomatematica lezione 6: la funzione c2
Teoria e Tecniche del Riconoscimento
Apprendimento di movimenti della testa tramite Hidden Markov Model
Stima dei parametri di una distribuzione
VERIFICA DEI RIFLESSI …Tutto ciò che avreste voluto sapere e non avete mai osato chiedere… M. & D.
Modelli probabilistici
PATTERN RECOGNITION.
Popolazione campione Y - variabile casuale y - valori argomentali Frequenza relativa: Estrazione Densità della classe i-esima: Lezione 1.
Pag. 1 A.A A. Mostacci – Confronti fra misure Confronto fra misure 1. Confronto fra misure e valor atteso (previsione teorica, …) 2. Confronto.
Teoria degli errori.
Quale valore dobbiamo assumere come misura di una grandezza?
M regioni Capienza B Capienza minima (gen. B/3) N punti Formulazione della PROB DI SPLIT nelles.: 32 nelles.: 7 nelles.: 6 nelles.: 2.
CAPITOLO 13 Il Riconoscimento di forme e la Classificazione CLASSIFICAZIONE A. Dermanis, L. Biagi.
La Classificazione non supervisionata
CAPITOLO 8 Filtri di Fourier ANALISI DIMMAGINE A. Dermanis, L. Biagi.
Tecniche descrittive Utilizzano modelli matematici per semplificare le relazioni fra le variabili in studio Il fine è la descrizione semplificata del fenomeno.
La modifica degli istogrammi
PROBABILITA : se un EVENTO si verifica in h modi diversi su n possibili (POPOLAZIONE) p = h/n Questa definizione è talvolta applicabile a priori (es. lancio.
E CORREZIONI RADIOMETRICHE
e Indici di Vegetazione
Pag. 1 A.A A. Mostacci – Confronti fra misure Confronto fra misure 1. Confronto fra misure e valor atteso (previsione teorica, …) 2. Confronto.
Probabilità probabilità Probabilità totale
Laurea Ing EO/IN/BIO;TLC D.U. Ing EO 10 PROBABILITA’ E VARIABILI ALEATORIE.
Domande riepilogative per l’esame
Strumenti statistici in Excell
Il residuo nella predizione
Martina Serafini Martina Prandi
Esercizi Determinare la probabilità che, lanciando due dadi da gioco, si abbia: A: somma dei risultati maggiore di 10 B: differenza dei punteggi in valore.
“Teoria e metodi della ricerca sociale e organizzativa”
Assicurazioni vita e mercato del risparmio gestito Lezione 17 Stimatori bayesiani e allocazione del portafoglio.
Analisi discriminante lineare - contesto
ANALISI DEI GRUPPI I. La Cluster analysis è uno strumento di classificazione capace di scomporre una realtà complessa di osservazioni plurime in tipologie.
Intervallo di Confidenza Prof. Ing. Carla Raffaelli A.A:
DATA MINING.
Metodologia della ricerca e analisi dei dati in (psico)linguistica 23 Giugno 2015 Statistica descrittiva
TRATTAMENTO STATISTICO DEI DATI ANALITICI
M. De Cecco - Sensor Fusion: teoria ed applicazione alla percezione di sistemi robotici SLAM Simultanea localizzazione e mappatura di veicoli autonomi.
Pattern Recognition Lez.14: Miscugli di Gaussiane.
Massimi e Minimi Definizione punto di max assoluto punto di max assoluto ( punto di min assoluto ) se.
Teoria dei Sistemi di Trasporto Tematica 4: Elementi minimi di teoria della probabilità.
Transcript della presentazione:

La Classificazione supervisionata CAPITOLO 15 CLASSIFICAZIONE La Classificazione supervisionata A. Dermanis, L.Biagi

  mi = x Ci = (x – mi)(x – mi)T La Classificazione supervisionata I pixel noti in ciascuna classe ω1, ω2, ..., ωK, formano gli “insieme campione” S1, S2, ..., SK con n1, n2, ..., nK pixel ciascuno. Stime per ciascun insieme campione Si, (i = 1, 2, …, K ) : Vettori delle medie: Matrici di covarianza: mi = x  xSi 1 ni  xSi Ci = (x – mi)(x – mi)T 1 ni Metodi di classificazione supervisionata: Parallelepipedi Distanza euclidea Distanza di Mahalanobis Massima verosimiglianza Bayesiano A. Dermanis, L.Biagi

dE(x, x) = || x – x || = (x1 – x1)2 + (x2 – x2)2 + … + (xB – xB)2 La Classificazione con la distanza Euclidea dE(x, x) = || x – x || = (x1 – x1)2 + (x2 – x2)2 + … + (xB – xB)2 (a) Semplice || x – mi || = min || x – mk ||  x i k Assegna ciascun pixel alla classe con centro più vicino. Confini fra le classi: iperpiani perpendicolari nel punto medio al segmento congiungente i centri delle classi. A. Dermanis, L.Biagi

dE(x, x) = || x – x || = (x1 – x1)2 + (x2 – x2)2 + … + (xB – xB)2 La Classificazione con la distanza Euclidea dE(x, x) = || x – x || = (x1 – x1)2 + (x2 – x2)2 + … + (xB – xB)2 (b) Con livello di soglia T || x – mi || = min || x – mk || k  x i || x – mi ||  T Assegna ciascun pixel alla classe con centro più vicino se distanza < livello di soglia || x – mi || > T, i  x 0 Lascia non classificati i pixel (class ω0) la cui distanza da ogni centro è maggiore della soglia. A. Dermanis, L.Biagi

dE(x, x) = || x – x || = (x1 – x1)2 + (x2 – x2)2 + … + (xB – xB)2 La Classificazione con distanza Euclidea dE(x, x) = || x – x || = (x1 – x1)2 + (x2 – x2)2 + … + (xB – xB)2 Giusto Sbagliato Si introduce il ruolo della statistica nella classificazione! A. Dermanis, L.Biagi

 ij = (Ci)jj j = 1, 2, …, B x = [x1 … xj … xB]T  Pj j = 1, 2, …, B La classificazione con il metodo dei parallelepipedi ij = (Ci)jj j = 1, 2, …, B Deviazione standard per ogni banda x = [x1 … xj … xB]T  Pj  mij – k ij  xj  mij + k ij j = 1, 2, …, B Parallelepipedi Pi x  Pj  x  i x  Pi  x  0  i Classificazione: A. Dermanis, L.Biagi

   dM(x, x) = (x – x)T C–1 (x – x) La classificazione con la distanza di Mahalanobis Distanza di Mahalanobis: dM(x, x) = (x – x)T C–1 (x – x) C = (x – mi) (x – mi)T = ni Ci 1 N   i xSi  i (Matrice di covarianza) Classificazione (semplice): dM(x,mi) < dM(x,mk), ki  xi Classificazione con soglia: dM(x,mi) < dM(x,mk), ki dM(x,mi)  T,  xi dM(x,mi) > T, i  x0 A. Dermanis, L.Biagi

li(x) = exp [ – (x – mi)T Ci–1 (x – mi) ] (2)B/2 | Ci |1/2 La classificazione con il metodo di massima verosimiglianza Funzione di distribuzione di probabilità o funzione di verosimiglianza per la classe ωi: 1 2 li(x) = exp [ – (x – mi)T Ci–1 (x – mi) ] (2)B/2 | Ci |1/2 Classificazione: li(x) > lk(x) k  i  xi Equivalente all’uso della funzione di decisione: di(x) = 2 ln[li(x)] + B ln(2) = – ln | Ci | – (x – mi)T Ci–1 (x – mi) di(x) > dk(x) k  i  xi A. Dermanis, L.Biagi

La classificazione mediante approccio Bayesiano N : numero totale di pixel (i.e. per ogni banda) B : numbero di bande, ω1, ω2, …, ωK : le K classi presenti nell’immagine Ni : numero di pixel nella classe ωi (i = 1,2, …, K) nx : numero di pixel con valore x nxi : numero di pixel con valore x in classe ωi A. Dermanis, L.Biagi

La classificazione mediante approccio Bayesiano N : numero totale di pixel (i.e. per ogni banda) B : numbero di bande, ω1, ω2, …, ωK : le K classi presenti nell’immagine Ni : numero di pixel nella classe ωi (i = 1,2, …, K) nx : numero di pixel con valore x nxi : numero di pixel con valore x in classe ωi A. Dermanis, L.Biagi

La classificazione mediante approccio Bayesiano N : numero totale di pixel (i.e. per ogni banda) B : numbero di bande, ω1, ω2, …, ωK : le K classi presenti nell’immagine Ni : numero di pixel nella classe ωi (i = 1,2, …, K) nx : numero di pixel con valore x nxi : numero di pixel con valore x in classe ωi Identità di base: A. Dermanis, L.Biagi

La classificazione mediante approccio Bayesiano N : numero totale di pixel (i.e. per ogni banda) B : numbero di bande, ω1, ω2, …, ωK : le K classi presenti nell’immagine Ni : numero di pixel nella classe ωi (i = 1,2, …, K) nx : numero di pixel con valore x nxi : numero di pixel con valore x in classe ωi Identità di base: A. Dermanis, L.Biagi

La classificazione mediante approccio Bayesiano N : numero totale di pixel (i.e. per ogni banda) B : numbero di bande, ω1, ω2, …, ωK : le K classi presenti nell’immagine Ni : numero di pixel nella classe ωi (i = 1,2, …, K) nx : numero di pixel con valore x nxi : numero di pixel con valore x in classe ωi Identità di base: A. Dermanis, L.Biagi

Ni N p(i) = nx N p(x) = nxi Ni p(x | i) = nxi nx p(i | x) = nxi N probabilità che un pixel appartenga alla classe ωi p(x) = nx N probabilità che un pixel abbia il valore x p(x | i) = nxi Ni probabilità che un pixel della classe ωi abbia valore x (condizionata) p(i | x) = nxi nx probabilità che un pixel con valore x appartenga alla classe ωi (condizionata) p(x, i) = nxi N probabilità che un pixel abbia il valore x e appartenga alla classe ωi (congiunta) A. Dermanis, L.Biagi

Ni N p(i) = nx N p(x) = nxi Ni p(x | i) = nxi nx p(i | x) = nxi N probabilità che un pixel appartenga alla classe ωi p(x) = nx N probabilità che un pixel abbia il valore x p(x | i) = nxi Ni probabilità che un pixel della classe ωi abbia valore x (condizionata) p(i | x) = nxi nx probabilità che un pixel con valore x appartenga alla classe ωi (condizionata) p(x, i) = nxi N probabilità che un pixel abbia il valore x e appartenga alla classe ωi (congiunta) A. Dermanis, L.Biagi

Ni N p(i) = nx N p(x) = nxi Ni p(x | i) = nxi nx p(i | x) = nxi N probabilità che un pixel appartenga alla classe ωi p(x) = nx N probabilità che un pixel abbia il valore x p(x | i) = nxi Ni probabilità che un pixel della classe ωi abbia valore x (condizionata) p(i | x) = nxi nx probabilità che un pixel con valore x appartenga alla classe ωi (condizionata) p(x, i) = nxi N probabilità che un pixel abbia il valore x e appartenga alla classe ωi (congiunta) formula di Bayes A. Dermanis, L.Biagi

Pr(A | B) Pr(B) = Pr(AB) = Pr(B | A) Pr(A) Teorema di Bayes: Pr(A | B) = Pr(AB) Pr(B) Pr(A | B) Pr(B) = Pr(AB) = Pr(B | A) Pr(A) Pr(B | A) = Pr(A | B) Pr(B) Pr(A) evento A = occorrenza del valore x evento B = occorrenza della classe ωi p(x|i) p(i) p(i|x) = p(x) Classificazione: p(i |x) > p(k |x) k i  xi p(x) = non necessaria (fattore comune) Classificazione: p(x |i) p(i) > p(x |k) p(k) k i  xi A. Dermanis, L.Biagi

p(x|i) p(i) = max [p(x|k) p(k)  xi Classificazione: p(x|i) p(i) = max [p(x|k) p(k)  xi k p(x | i) = li(x) = exp{– – (x – mi)T Ci–1 (x – mi) } (2)B/2 | Ci |1/2 1 2 per distribuzione Gaussiana: Anzichè: p(x | i) p(i) = max Equivalente ln[p(x | i) p(i)] = ln[p(x | i) + ln[p(i) = max – – (x – mi)T Ci–1 (x – mi) – – ln[ | Ci | + ln[p(i)] = max 1 2 o, finalmente: (x – mi)T Ci–1 (x – mi) + ln[ | Ci | + ln[p(i)] = min A. Dermanis, L.Biagi

(x – mi)T Ci–1 (x – mi) + ln[ | Ci | + ln[p(i)] = min La Classificazione Bayesiana per una distribuzione Gaussiana: (x – mi)T Ci–1 (x – mi) + ln[ | Ci | + ln[p(i)] = min CASI SPECIALI: p(1) = p(2) = … = p(K)  (x – mi)T Ci–1 (x – mi) + ln[ | Ci | = min Massima Verosimiglianza! p(1) = p(2) = … = p(K) C1 = C2 = … = CK = C  (x – mi)T Ci–1 (x – mi) = min Distanza di Mahalanobis! p(1) = p(2) = … = p(K) C1 = C2 = … = CK = I  (x – mi)T (x – mi) = min Distanza Euclidea! A. Dermanis, L.Biagi