La Classificazione non supervisionata

Slides:



Advertisements
Presentazioni simili
Flusso Massimo Applicazione di algoritmi
Advertisements

ERREsoft1 Basi matematiche del sistema RSA Pierluigi Ridolfi Università di Roma La Sapienza marzo 2000.
SCOPO: Determinare condizioni locali di equilibrio al fine di ottenere quello globale del sistema Problema: Flussi uscenti dalla cella centrale verso le.
ANALISI DEI CLUSTER (metodo kmeans)
Selezione delle caratteristiche - Principal Component Analysis
UNIVERSITA’ DI MILANO-BICOCCA LAUREA MAGISTRALE IN BIOINFORMATICA
CLUSTER ANALYSIS Insieme di tecniche con l’obiettivo di unire le unità di un insieme statistico in un numero finito di classi o gruppi i quali devono.
1 Istruzioni, algoritmi, linguaggi. 2 Algoritmo per il calcolo delle radici reali di unequazione di 2 o grado Data lequazione ax 2 +bx+c=0, quali sono.
Esercitazioni su circuiti combinatori
Apprendimento Automatico: Apprendimento Non Supervisionato
Apprendimento Non Supervisionato
Algoritmi Paralleli e Distribuiti a.a. 2008/09 Lezione del 05/05/2009 Prof. ssa ROSSELLA PETRESCHI a cura del Dott. SAVERIO CAMINITI.
ANALISI DEI GRUPPI seconda parte
Camil Demetrescu, Irene Finocchi, Giuseppe F. ItalianoAlgoritmi e strutture dati Capitolo 12 Minimo albero ricoprente: Algoritmi di Prim e di Borůvka Algoritmi.
Camil Demetrescu, Irene Finocchi, Giuseppe F. ItalianoAlgoritmi e strutture dati Capitolo 4 Ordinamento: Heapsort Algoritmi e Strutture Dati.
Capitolo 4 Ordinamento: Selection e Insertion Sort Algoritmi e Strutture Dati.
Camil Demetrescu, Irene Finocchi, Giuseppe F. ItalianoAlgoritmi e strutture dati Capitolo 12 Minimo albero ricoprente: Algoritmi di Prim e di Borůvka Algoritmi.
Capitolo 4 Ordinamento: Selection e Insertion Sort Algoritmi e Strutture Dati.
Capitolo 4 Ordinamento: Selection e Insertion Sort Algoritmi e Strutture Dati.
Flusso Massimo Applicazione di algoritmi
Flusso Massimo Applicazione Algoritmi Esercizio 1 Sia dato la seguente rete di flusso, in cui la sorgente è il nodo 1 e la destinazione è il nodo 6. I.
Costruzione di Interfacce Lezione 8 Rasterizzazione
1 Corso di Laurea in Biotecnologie Informatica (Programmazione) Problemi e algoritmi Anno Accademico 2009/2010.
Seminario su clustering dei dati – Parte II
Seminario su clustering dei dati – Parte II
Il linguaggio Fortran 90: 4. Array: Vettori e Matrici
Modelli e Algoritmi della Logistica
APPUNTI SUL LINGUAGGIO C
CONTROLLO DI SUPPLY CHAIN MEDIANTE TECNICHE H-INFINITO E NEGOZIAZIONE
Algoritmi e Strutture Dati
Analisi dei gruppi – Cluster Analisys
Lezione 16. Le scelte di organizzazione (2)
Massimi e minimi assoluti vincolati
Chapter 14, Hastie , Tibshirani and Friedman
Clustering Mercoledì, 24 novembre 2004 Giuseppe Manco Readings: Chapter 8, Han and Kamber Chapter 14, Hastie, Tibshirani and Friedman Density-Based Clustering.
Clustering Martedì, 30 novembre 2004 Giuseppe Manco Readings: Chapter 8, Han and Kamber Chapter 14, Hastie, Tibshirani and Friedman Clustering Lecture.
Strutture di controllo in C -- Flow Chart --
Elaborato di Teoria dello Sviluppo dei Processi Chimici
La Classificazione supervisionata
Reti di Telecomunicazione Lezione 16 Corso di reti per le telecomunicazioni.
Motion capture distribuito
CAPITOLO 13 Il Riconoscimento di forme e la Classificazione CLASSIFICAZIONE A. Dermanis, L. Biagi.
Il Telerilevamento: Utilizzo di dati da sensori remoti per l’informazione territoriale I dati Immagini digitali multispettrali: sensori che registrano.
PARTE SECONDA: Reti Senza Fili
Tecniche descrittive Utilizzano modelli matematici per semplificare le relazioni fra le variabili in studio Il fine è la descrizione semplificata del fenomeno.
La modifica degli istogrammi
E CORREZIONI RADIOMETRICHE
CLUSTERING WITH WEKA Branca Stefano Dosi Clio Gnudi Edward William.
STATISTICA PER LE DECISIONI DI MARKETING
e Indici di Vegetazione
Camil Demetrescu, Irene Finocchi, Giuseppe F. ItalianoAlgoritmi e strutture dati Capitolo 12 Minimo albero ricoprente: Algoritmi di Prim e di Borůvka Algoritmi.
La frazione come operatore
Progressioni aritmetiche descrizione elementare
Superfici nascoste Daniele Marini.
UNIVERSITÀ DI PISA FACOLTÀ DI INGEGNERIA CORSO DI LAUREA SPECIALISTICA IN INGEGNERIA INFORMATICA PER LA GESTIONE D’AZIENDA Tesi di laurea: Progettazione.
Classificazione (aka Cluster Analysis)
Pippo.
Lez. 3 - Gli Indici di VARIABILITA’
MATRICI.
Lez.13: Unsupervised classification: clustering gerarchico
Sistemi di visione per la navigazione autonoma Relatore: ch.mo prof. Ruggero FREZZA Laureando: Andrea ROSSETTI Padova, 11 aprile 2005.
MS PROJECT 2000 ATTIVITA’.
ANALISI DEI DATI STATISTICI
Algoritmi di classificazione e reti neurali Seminario su clustering dei dati Università Sapienza di Roma Dipartimento di ingegneria Informatica, Automatica.
1 Gestione della Memoria Capitolo Introduzione alla gestione della memoria 4.2 Swapping 4.3 Memoria virtuale 4.4 Implementazione 4.5 Algoritmi di.
Capitolo 13 Cammini minimi: Bellman e Ford Algoritmi e Strutture Dati.
CURE: AN EFFICIENT CLUSTERING ALGORITHM FOR LARGE DATABASES GRUPPO 12 Filippo Bindi Massimiliano Ceccarini Andrea Giuliodori PRESENTAZIONE Sistemi Informativi.
Polaris office su Asus Eee
Self-Organizing Map (SOM Kohonen, 1981) è una tecnica di visualizzazione dei dati multidimensionali SOM è una mappa mono- (bi-)dimensionale che rappresenta.
UNIVERSITA’ DI MILANO-BICOCCA LAUREA MAGISTRALE IN INFORMATICA Corso di APPRENDIMENTO AUTOMATICO Prof. Giancarlo Mauri Lezione Clustering.
Transcript della presentazione:

La Classificazione non supervisionata CAPITOLO 14 CLASSIFICAZIONE La Clusterizzazione e La Classificazione non supervisionata A. Dermanis, L. Biagi

Clusterizzazione = divisione di N pixel in K classi ω1, ω2, …, ωK matrice di dispersione della classe ωi : media della classe ωi :  xi Si = (x – mi)(x – mi)T mi = x  xi 1 ni matrice di covarianza della classe ωi : Ci = Si 1 ni matrice di dispersione totale: media globale   i xi ST = (x – m)(x – m)T m = x 1 N   i xi matrice di covarianza totale: CT = ST 1 N A. Dermanis, L. Biagi

     Sin = Si = (x – mi)(x – mi)T Sex = ni (mi – m)(mi – m)T Criteri di clusterizzazione indice di coerenza delle classi  matrice di dispersione interna   i xi Sin = Si = (x – mi)(x – mi)T  i indice di distanza fra le classi  matrice di dispersione esterna Sex = ni (mi – m)(mi – m)T  i ST = Sin + Sex = costante Algoritmo ottimale: Sin = min e Sex = max contemporaneamente Problema: Quanti cluster ? (K = ?) Scelta estrema: K = N (una classe per ogni pixel) k = {xk} mk = xk, Sk = 0, Sin = Sk = 0 = min, Sex = ST =max  k Scelta estrema: K = 1 (un’unica classe) Sin = ST, Sex = 0 A. Dermanis, L. Biagi

Clusterizzazione gerarchica 1 2 3 4 5 6 A Agglomerativa: Ad ogni passo vengono uniti i due cluster più vicini B AGGLOMERATIVE DIVISIVE C D Divisiva: Ad ogni passo il cluster più disperso viene diviso in due nuovi cluster E F Sono necesssari: Criteri di unione. Criteri di divisione. A. Dermanis, L. Biagi

Clusterizzazione gerarchica 1 2 3 4 5 6 1 2 3 4 5 6 A B AGGLOMERATIVE DIVISIVE C D E F A B C D E F A. Dermanis, L. Biagi

Distanza fra due cluster (alternative): distanza media: distanza minima: distanza massima: Utilizzate nella clusterizzazione gerarchica A. Dermanis, L. Biagi

L’algoritmo K-means (o delle medie mobili) 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 A. Dermanis, L. Biagi

L’algoritmo K-means (o delle medie mobili) 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 Passo 0: Selezione di K = 3 pixel come posizioni iniziali delle medie A. Dermanis, L. Biagi

L’algoritmo K-means (o delle medie mobili) 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 Passo 1: Assegnazione di ogni altro pixel al cluster con la media più vicina. Ricalcolo delle nuove medie per ogni cluster. A. Dermanis, L. Biagi

L’algoritmo K-means (o delle medie mobili) 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 Passo 2: Riassegnazione di ogni pixel al cluster con la media più vicina. Ricalcolo delle nuove medie per ogni cluster. A. Dermanis, L. Biagi

L’algoritmo K-means (o delle medie mobili) 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 Passo 3: Riassegnazione di ogni pixel al cluster con la media più vicina. Ricalcolo delle nuove medie per ogni cluster. A. Dermanis, L. Biagi

L’algoritmo K-means (o delle medie mobili) 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 Passo 4: Riassegnazione di ogni pixel al cluster con la media più vicina. Tutti i pixel rimangono nella classe in cui erano. Le medie non cambiano. Fine della clusterizzazione ! A. Dermanis, L. Biagi

Una variante di quello K means. L’algoritmo Isodata Una variante di quello K means. Ad ogni passo una delle 3 seguenti procedure: 1. ELIMINAZIONE Elimina cluster con pochi pixel 2. UNIONE Unisci coppie di cluster reciprocamente vicini 3. DIVISIONE Dividi cluster dispersi in due nuovi cluster A. Dermanis, L. Biagi

L’algoritmo Isodata 1. ELIMINAZIONE Elimina cluster con pochi pixel A. Dermanis, L. Biagi

Unisci coppie di cluster reciprocamente vicini L’algoritmo Isodata 2. UNIONE Unisci coppie di cluster reciprocamente vicini A. Dermanis, L. Biagi

L’algoritmo Isodata 3. DIVISIONE Dividi cluster dispersi in due nuovi A. Dermanis, L. Biagi

m2+kσ2 m2 m2–kσ2 m1 L’algoritmo Isodata Il processo di unione Il processo di divisione m2+kσ2 m2–kσ2 m2 m1 A. Dermanis, L. Biagi

Esempi di classificazione: l’algoritmo K-means K-means: 3 classi A. Dermanis, L. Biagi

Esempi di classificazione: l’algoritmo ISODATA ISODATA : 3 classi A. Dermanis, L. Biagi