La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Pattern Recognition Lez.13: Unsupervised classification: clustering gerarchico.

Presentazioni simili


Presentazione sul tema: "Pattern Recognition Lez.13: Unsupervised classification: clustering gerarchico."— Transcript della presentazione:

1 Pattern Recognition Lez.13: Unsupervised classification: clustering gerarchico

2 Clustering per “dicotomie successive” Quando una popolazione va divisa in sottogruppi? Quando al suo interno non c’è sufficiente omogeneità. Questa idea è alla base di un altro approccio al clustering, detto clustering gerarchico. L’idea si concretizza in un paio di algoritmi abbastanza facili da descrivere e implementare.

3 La popolazione e la matrice delle distanze Possiamo didatticamente presentare il clustering gerarchico assumendo che siano date una popolazione di N record da ripartire e una matrice D, di N x N elementi in cui ciascun elemento D ij riporta la “distanza” tra il record i- esimo e il record j-esimo. Attenzione non sempre nelle reali implementazioni tale matrice è calcolata per intero (per ragioni di efficienza o di limiti di memoria).

4 Un esempio “saccheggiato” da Internet BAFIMINARMTO BA FI MI NA RM TO Distanze in chilometri tra città italiane

5 Struttura di ogni algoritmo di clustering gerarchico Passo 0: ogni record è l’unico rappresentante di una classe che lo contiene. Ci sono quinid all’inizio N classi ciascuna con un solo elemento. Passo 1: fondere assieme le due classi che sono le più vicine possibili secondo la tabella delle distanze. Passo 2: ri-calcolare le distanze tra la nuova classe, nata dalla fusione, e le altre classi. I passi 1 e 2 vanno ripetuti alternativamente fino a che tutti i record non sono stati fusi in una unica mega classe onnicomprensiva.

6 Un unico “punto sottile”: passo 2 Se le distanze iniziali tra record sono ben definite cosa sono le distanze tra “classi”? Non esiste un unico approccio alla distanza tra “cluster” e nel contesto del clustering gerarchico si parla di due approcci: –Single-linkage; –Complete-linkage; –Average-linkage;

7 Single-linkage (metodo della connessione o della minima distanza) La distanza tra due gruppi di record è definita come la minima distanza osservata tra tutte le coppie formate da un elemento del primo gruppo e un elemento del secondo gruppo. La distanza è posta eguale alla distanza tra la coppia di record più vicini

8 Complete-linkage (metodo del diametro o della massima distanza) La distanza tra due gruppi di record è definita come la massima distanza osservata tra tutte le coppie formate da un elemento del primo gruppo e un elemento del secondo gruppo. La distanza è posta eguale alla distanza tra la coppia di record più lontani

9 Average-linkage (metodo della distanza media) La distanza tra due gruppi di record è definita come la distanza media osservata tra tutte le coppie formate da un elemento del primo gruppo e un elemento del secondo gruppo. Variante: considerare la mediana invece della media.

10 Simuliamo il single-linkage sulle città italiane BAFI MI/T O NARM BA FI MI/T O NA RM Prima fusione

11 Simuliamo il single-linkage sulle città italiane Seconda fusione BAFI MI/T O NA/ RM BA FI MI/T O NA/ RM

12 Simuliamo il single-linkage sulle città italiane Terza fusione BA/N A/RM FI MI/T O BA/N A/RM FI MI/T O

13 Simuliamo il single-linkage sulle città italiane Quarta fusione BA/N A/RM FI MI/T O BA/N A/RM FI MI/T O

14 Simuliamo il single-linkage sulle città italiane Quinta fusione BA/FI/N A/RM MI/TO BA/FI/N A/RM 0295 MI/TO2950 La sesta fusione ovviamente forma un unico blocco

15 La sequenza L’”albero” delle fusioni è una guida alla “partizione” in classi. Tagliando l’albero a vari livelli si possono ottenere classi più fini o più generali.

16 Pro e Contro PRO –Algoritmo facile e non richiede analisi matematica complessa per la convergenza e per la ottimizzazione; –L’albero “spiega” le relazioni tra cluster ed è facile per un esperto (in generale) interpretare i risultati dell’algoritmo; CONTRO –Quale livello di “taglio” scegliere per formare le classi? –Forte dipendenza dalla misura di similarità. –Impossibile gestire le similarità “fuzzy”. –Complessità elevata (la matrice iniziale e le successive matrici richiedono O(N 2 ) passi per il loro aggiornamento. –(Antipole?)


Scaricare ppt "Pattern Recognition Lez.13: Unsupervised classification: clustering gerarchico."

Presentazioni simili


Annunci Google