La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

CAPITOLO 15 La Classificazione supervisionata CLASSIFICAZIONE A. Dermanis, L.Biagi.

Presentazioni simili


Presentazione sul tema: "CAPITOLO 15 La Classificazione supervisionata CLASSIFICAZIONE A. Dermanis, L.Biagi."— Transcript della presentazione:

1 CAPITOLO 15 La Classificazione supervisionata CLASSIFICAZIONE A. Dermanis, L.Biagi

2 x S i C i = (x – m i )(x – m i ) T 1ni1ni m i = x x S i 1ni1ni Metodi di classificazione supervisionata: Parallelepipedi Distanza euclidea Distanza di Mahalanobis Massima verosimiglianza Bayesiano Metodi di classificazione supervisionata: Parallelepipedi Distanza euclidea Distanza di Mahalanobis Massima verosimiglianza Bayesiano I pixel noti in ciascuna classe ω 1, ω 2,..., ω K, formano gli insieme campione S 1, S 2,..., S K con n 1, n 2,..., n K pixel ciascuno. I pixel noti in ciascuna classe ω 1, ω 2,..., ω K, formano gli insieme campione S 1, S 2,..., S K con n 1, n 2,..., n K pixel ciascuno. Stime per ciascun insieme campione S i, (i = 1, 2, …, K ) : Vettori delle medie:Matrici di covarianza: La Classificazione supervisionata A. Dermanis, L.Biagi

3 || x – m i || = min || x – m k || x i k d E (x, x ) = || x – x || = (x 1 – x 1 ) 2 + (x 2 – x 2 ) 2 + … + (x B – x B ) 2 (a) Semplice Assegna ciascun pixel alla classe con centro più vicino. Confini fra le classi: iperpiani perpendicolari nel punto medio al segmento congiungente i centri delle classi. La Classificazione con la distanza Euclidea A. Dermanis, L.Biagi

4 || x – m i || > T, i x 0 || x – m i || = min || x – m k || k x i || x – m i || T (b) Con livello di soglia T Assegna ciascun pixel alla classe con centro più vicino se distanza < livello di soglia Lascia non classificati i pixel (class ω 0 ) la cui distanza da ogni centro è maggiore della soglia. d E (x, x ) = || x – x || = (x 1 – x 1 ) 2 + (x 2 – x 2 ) 2 + … + (x B – x B ) 2 La Classificazione con la distanza Euclidea A. Dermanis, L.Biagi

5 Si introduce il ruolo della statistica nella classificazione! La Classificazione con distanza Euclidea Giusto Sbagliato d E (x, x ) = || x – x || = (x 1 – x 1 ) 2 + (x 2 – x 2 ) 2 + … + (x B – x B ) 2 A. Dermanis, L.Biagi

6 i j = (C i ) jj j = 1, 2, …, B Deviazione standard per ogni banda La classificazione con il metodo dei parallelepipedi x P j x i x P i x 0 ii Classificazione: x = [x 1 … x j … x B ] T P j m i j – k i j x j m i j + k i j j = 1, 2, …, B Parallelepipedi P i A. Dermanis, L.Biagi

7 d M (x,m i ) > T, i x 0 d M (x,m i ) < d M (x,m k ), k i d M (x,m i ) T, x i C = (x – m i ) (x – m i ) T = n i C i 1N1N i x S i 1N1N i d M (x, x ) = (x – x ) T C –1 (x – x ) Distanza di Mahalanobis: Classificazione (semplice): Classificazione con soglia: La classificazione con la distanza di Mahalanobis (Matrice di covarianza) d M (x,m i ) < d M (x,m k ), k i x i A. Dermanis, L.Biagi

8 d i (x) > d k (x) k i x i d i (x) = 2 ln[l i (x)] + B ln(2 ) = – ln | C i | – (x – m i ) T C i –1 (x – m i ) l i (x) > l k (x) k i x i 1212 l i (x) = exp [ – (x – m i ) T C i –1 (x – m i ) ] (2 ) B/2 | C i | 1/2 1 Funzione di distribuzione di probabilità o funzione di verosimiglianza per la classe ω i : Classificazione: Equivalente alluso della funzione di decisione: La classificazione con il metodo di massima verosimiglianza A. Dermanis, L.Biagi

9 N : numero totale di pixel (i.e. per ogni banda) B : numbero di bande, ω 1, ω 2, …, ω K : le K classi presenti nellimmagine N i : numero di pixel nella classe ω i (i = 1,2, …, K) n x : numero di pixel con valore x n xi : numero di pixel con valore x in classe ω i La classificazione mediante approccio Bayesiano A. Dermanis, L.Biagi

10 La classificazione mediante approccio Bayesiano N : numero totale di pixel (i.e. per ogni banda) B : numbero di bande, ω 1, ω 2, …, ω K : le K classi presenti nellimmagine N i : numero di pixel nella classe ω i (i = 1,2, …, K) n x : numero di pixel con valore x n xi : numero di pixel con valore x in classe ω i A. Dermanis, L.Biagi

11 Identità di base: La classificazione mediante approccio Bayesiano N : numero totale di pixel (i.e. per ogni banda) B : numbero di bande, ω 1, ω 2, …, ω K : le K classi presenti nellimmagine N i : numero di pixel nella classe ω i (i = 1,2, …, K) n x : numero di pixel con valore x n xi : numero di pixel con valore x in classe ω i A. Dermanis, L.Biagi

12 La classificazione mediante approccio Bayesiano N : numero totale di pixel (i.e. per ogni banda) B : numbero di bande, ω 1, ω 2, …, ω K : le K classi presenti nellimmagine N i : numero di pixel nella classe ω i (i = 1,2, …, K) n x : numero di pixel con valore x n xi : numero di pixel con valore x in classe ω i Identità di base: A. Dermanis, L.Biagi

13 La classificazione mediante approccio Bayesiano N : numero totale di pixel (i.e. per ogni banda) B : numbero di bande, ω 1, ω 2, …, ω K : le K classi presenti nellimmagine N i : numero di pixel nella classe ω i (i = 1,2, …, K) n x : numero di pixel con valore x n xi : numero di pixel con valore x in classe ω i Identità di base: A. Dermanis, L.Biagi

14 p( i ) = NiNNiN p(x) = nxNnxN p(x | i ) = nxiNinxiNi p(x, i ) = nxiNnxiN p( i | x) = nxinxnxinx probabilità che un pixel appartenga alla classe ω i probabilità che un pixel abbia il valore x probabilità che un pixel della classe ω i abbia valore x (condizionata) probabilità che un pixel con valore x appartenga alla classe ω i (condizionata) probabilità che un pixel abbia il valore x e appartenga alla classe ω i (congiunta) A. Dermanis, L.Biagi

15 p( i ) = NiNNiN p(x) = nxNnxN p(x | i ) = nxiNinxiNi p(x, i ) = nxiNnxiN p( i | x) = nxinxnxinx probabilità che un pixel appartenga alla classe ω i probabilità che un pixel abbia il valore x probabilità che un pixel della classe ω i abbia valore x (condizionata) probabilità che un pixel con valore x appartenga alla classe ω i (condizionata) probabilità che un pixel abbia il valore x e appartenga alla classe ω i (congiunta) A. Dermanis, L.Biagi

16 p( i ) = NiNNiN p(x) = nxNnxN p(x | i ) = nxiNinxiNi p(x, i ) = nxiNnxiN p( i | x) = nxinxnxinx probabilità che un pixel appartenga alla classe ω i probabilità che un pixel abbia il valore x probabilità che un pixel della classe ω i abbia valore x (condizionata) probabilità che un pixel con valore x appartenga alla classe ω i (condizionata) probabilità che un pixel abbia il valore x e appartenga alla classe ω i (congiunta) formula di Bayes A. Dermanis, L.Biagi

17 p(x| i ) p( i ) p( i |x) = p(x)p(x) Pr(B | A) = Pr(A | B) Pr(B) Pr(A) Pr(A | B) = Pr(A B) Pr(B) Pr(A | B) Pr(B) = Pr(A B) = Pr(B | A) Pr(A) p(x | i ) p( i ) > p(x | k ) p( k ) k i x i p( i |x) > p( k |x) k i x i p(x) = non necessaria (fattore comune) Teorema di Bayes: evento A = occorrenza del valore x evento B = occorrenza della classe ω i Classificazione: A. Dermanis, L.Biagi

18 (x – m i ) T C i –1 (x – m i ) + ln[ | C i | + ln[p( i )] = min p(x | i ) p( i ) = max ln[p(x | i ) p( i )] = ln[p(x | i ) + ln[p( i ) = max p(x | i ) = l i (x) = exp { – – (x – m i ) T C i –1 (x – m i ) } (2 ) B/2 | C i | 1/ Anzichè: Equivalente Classificazione: per distribuzione Gaussiana: o, finalmente: p(x| i ) p( i ) = max [p(x| k ) p( k ) x i k – – (x – m i ) T C i –1 (x – m i ) – – ln[ | C i | + ln[p( i )] = max A. Dermanis, L.Biagi

19 p( 1 ) = p( 2 ) = … = p( K ) C 1 = C 2 = … = C K = C p( 1 ) = p( 2 ) = … = p( K ) C 1 = C 2 = … = C K = I p( 1 ) = p( 2 ) = … = p( K ) (x – m i ) T (x – m i ) = min (x – m i ) T C i –1 (x – m i ) = min (x – m i ) T C i –1 (x – m i ) + ln[ | C i | = min (x – m i ) T C i –1 (x – m i ) + ln[ | C i | + ln[p( i )] = min La Classificazione Bayesiana per una distribuzione Gaussiana: CASI SPECIALI: Massima Verosimiglianza! Distanza di Mahalanobis! Distanza Euclidea! A. Dermanis, L.Biagi


Scaricare ppt "CAPITOLO 15 La Classificazione supervisionata CLASSIFICAZIONE A. Dermanis, L.Biagi."

Presentazioni simili


Annunci Google