Scaricare la presentazione
1
La Classificazione non supervisionata
CAPITOLO 14 CLASSIFICAZIONE La Clusterizzazione e La Classificazione non supervisionata A. Dermanis, L. Biagi
2
Clusterizzazione = divisione di N pixel in K classi ω1, ω2, …, ωK
matrice di dispersione della classe ωi : media della classe ωi : xi Si = (x – mi)(x – mi)T mi = x xi 1 ni matrice di covarianza della classe ωi : Ci = Si 1 ni matrice di dispersione totale: media globale i xi ST = (x – m)(x – m)T m = x 1 N i xi matrice di covarianza totale: CT = ST 1 N A. Dermanis, L. Biagi
3
Sin = Si = (x – mi)(x – mi)T Sex = ni (mi – m)(mi – m)T
Criteri di clusterizzazione indice di coerenza delle classi matrice di dispersione interna i xi Sin = Si = (x – mi)(x – mi)T i indice di distanza fra le classi matrice di dispersione esterna Sex = ni (mi – m)(mi – m)T i ST = Sin + Sex = costante Algoritmo ottimale: Sin = min e Sex = max contemporaneamente Problema: Quanti cluster ? (K = ?) Scelta estrema: K = N (una classe per ogni pixel) k = {xk} mk = xk, Sk = 0, Sin = Sk = 0 = min, Sex = ST =max k Scelta estrema: K = 1 (un’unica classe) Sin = ST, Sex = 0 A. Dermanis, L. Biagi
4
Clusterizzazione gerarchica
1 2 3 4 5 6 A Agglomerativa: Ad ogni passo vengono uniti i due cluster più vicini B AGGLOMERATIVE DIVISIVE C D Divisiva: Ad ogni passo il cluster più disperso viene diviso in due nuovi cluster E F Sono necesssari: Criteri di unione. Criteri di divisione. A. Dermanis, L. Biagi
5
Clusterizzazione gerarchica
1 2 3 4 5 6 1 2 3 4 5 6 A B AGGLOMERATIVE DIVISIVE C D E F A B C D E F A. Dermanis, L. Biagi
6
Distanza fra due cluster (alternative):
distanza media: distanza minima: distanza massima: Utilizzate nella clusterizzazione gerarchica A. Dermanis, L. Biagi
7
L’algoritmo K-means (o delle medie mobili)
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 A. Dermanis, L. Biagi
8
L’algoritmo K-means (o delle medie mobili)
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 Passo 0: Selezione di K = 3 pixel come posizioni iniziali delle medie A. Dermanis, L. Biagi
9
L’algoritmo K-means (o delle medie mobili)
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 Passo 1: Assegnazione di ogni altro pixel al cluster con la media più vicina. Ricalcolo delle nuove medie per ogni cluster. A. Dermanis, L. Biagi
10
L’algoritmo K-means (o delle medie mobili)
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 Passo 2: Riassegnazione di ogni pixel al cluster con la media più vicina. Ricalcolo delle nuove medie per ogni cluster. A. Dermanis, L. Biagi
11
L’algoritmo K-means (o delle medie mobili)
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 Passo 3: Riassegnazione di ogni pixel al cluster con la media più vicina. Ricalcolo delle nuove medie per ogni cluster. A. Dermanis, L. Biagi
12
L’algoritmo K-means (o delle medie mobili)
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 Passo 4: Riassegnazione di ogni pixel al cluster con la media più vicina. Tutti i pixel rimangono nella classe in cui erano. Le medie non cambiano. Fine della clusterizzazione ! A. Dermanis, L. Biagi
13
Una variante di quello K means.
L’algoritmo Isodata Una variante di quello K means. Ad ogni passo una delle 3 seguenti procedure: 1. ELIMINAZIONE Elimina cluster con pochi pixel 2. UNIONE Unisci coppie di cluster reciprocamente vicini 3. DIVISIONE Dividi cluster dispersi in due nuovi cluster A. Dermanis, L. Biagi
14
L’algoritmo Isodata 1. ELIMINAZIONE Elimina cluster con pochi pixel
A. Dermanis, L. Biagi
15
Unisci coppie di cluster reciprocamente vicini
L’algoritmo Isodata 2. UNIONE Unisci coppie di cluster reciprocamente vicini A. Dermanis, L. Biagi
16
L’algoritmo Isodata 3. DIVISIONE Dividi cluster dispersi in due nuovi
A. Dermanis, L. Biagi
17
m2+kσ2 m2 m2–kσ2 m1 L’algoritmo Isodata Il processo di unione
Il processo di divisione m2+kσ2 m2–kσ2 m2 m1 A. Dermanis, L. Biagi
18
Esempi di classificazione: l’algoritmo K-means K-means: 3 classi
A. Dermanis, L. Biagi
19
Esempi di classificazione: l’algoritmo ISODATA ISODATA : 3 classi
A. Dermanis, L. Biagi
Presentazioni simili
© 2024 SlidePlayer.it Inc.
All rights reserved.