La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Lez.13: Unsupervised classification: clustering gerarchico

Presentazioni simili


Presentazione sul tema: "Lez.13: Unsupervised classification: clustering gerarchico"— Transcript della presentazione:

1 Lez.13: Unsupervised classification: clustering gerarchico
Pattern Recognition Lez.13: Unsupervised classification: clustering gerarchico

2 Clustering per “dicotomie successive”
Quando una popolazione va divisa in sottogruppi? Quando al suo interno non c’è sufficiente omogeneità. Questa idea è alla base di un altro approccio al clustering, detto clustering gerarchico. L’idea si concretizza in un paio di algoritmi abbastanza facili da descrivere e implementare.

3 La popolazione e la matrice delle distanze
Possiamo didatticamente presentare il clustering gerarchico assumendo che siano date una popolazione di N record da ripartire e una matrice D, di N x N elementi in cui ciascun elemento Dij riporta la “distanza” tra il record i-esimo e il record j-esimo. Attenzione non sempre nelle reali implementazioni tale matrice è calcolata per intero (per ragioni di efficienza o di limiti di memoria).

4 Un esempio “saccheggiato” da Internet
BA FI MI NA RM TO 662 877 255 412 996 295 468 268 400 754 564 138 219 869 669 Distanze in chilometri tra città italiane

5 Struttura di ogni algoritmo di clustering gerarchico
Passo 0: ogni record è l’unico rappresentante di una classe che lo contiene. Ci sono quinid all’inizio N classi ciascuna con un solo elemento. Passo 1: fondere assieme le due classi che sono le più vicine possibili secondo la tabella delle distanze. Passo 2: ri-calcolare le distanze tra la nuova classe, nata dalla fusione, e le altre classi. I passi 1 e 2 vanno ripetuti alternativamente fino a che tutti i record non sono stati fusi in una unica mega classe onnicomprensiva.

6 Un unico “punto sottile”: passo 2
Se le distanze iniziali tra record sono ben definite cosa sono le distanze tra “classi”? Non esiste un unico approccio alla distanza tra “cluster” e nel contesto del clustering gerarchico si parla di due approcci: Single-linkage; Complete-linkage; Average-linkage;

7 Single-linkage (metodo della connessione o della minima distanza)
La distanza tra due gruppi di record è definita come la minima distanza osservata tra tutte le coppie formate da un elemento del primo gruppo e un elemento del secondo gruppo. La distanza è posta eguale alla distanza tra la coppia di record più vicini

8 Complete-linkage (metodo del diametro o della massima distanza)
La distanza tra due gruppi di record è definita come la massima distanza osservata tra tutte le coppie formate da un elemento del primo gruppo e un elemento del secondo gruppo. La distanza è posta eguale alla distanza tra la coppia di record più lontani

9 Average-linkage (metodo della distanza media)
La distanza tra due gruppi di record è definita come la distanza media osservata tra tutte le coppie formate da un elemento del primo gruppo e un elemento del secondo gruppo. Variante: considerare la mediana invece della media.

10 Simuliamo il single-linkage sulle città italiane
BA FI MI/TO NA RM 662 877 255 412 295 468 268 754 564 219 Prima fusione

11 Simuliamo il single-linkage sulle città italiane
BA FI MI/TO NA/RM 662 877 255 295 268 564 Seconda fusione

12 Simuliamo il single-linkage sulle città italiane
BA/NA/RM FI MI/TO 268 564 295 Terza fusione

13 Simuliamo il single-linkage sulle città italiane
BA/NA/RM FI MI/TO 268 564 295 Quarta fusione

14 Simuliamo il single-linkage sulle città italiane
BA/FI/NA/RM MI/TO 295 Quinta fusione La sesta fusione ovviamente forma un unico blocco

15 La sequenza L’”albero” delle fusioni è una guida alla “partizione” in classi. Tagliando l’albero a vari livelli si possono ottenere classi più fini o più generali.

16 Pro e Contro PRO Algoritmo facile e non richiede analisi matematica complessa per la convergenza e per la ottimizzazione; L’albero “spiega” le relazioni tra cluster ed è facile per un esperto (in generale) interpretare i risultati dell’algoritmo; CONTRO Quale livello di “taglio” scegliere per formare le classi? Forte dipendenza dalla misura di similarità. Impossibile gestire le similarità “fuzzy”. Complessità elevata (la matrice iniziale e le successive matrici richiedono O(N2) passi per il loro aggiornamento. (Antipole?)


Scaricare ppt "Lez.13: Unsupervised classification: clustering gerarchico"

Presentazioni simili


Annunci Google