Istituto Nazionale di Fisica della Materia, unita’ di Genova

Slides:



Advertisements
Presentazioni simili
LE FUNZIONI REALI DI VARIABILE REALE
Advertisements

Materiale di supporto all’insegnamento di ELABORAZIONI IMMAGINI 1
Andrea Zandatutoraggio strutture dati STRUTTURE DATI e LABORATORIO II ESERCITAZIONE N°14 albero di ricerca binario.
Macchine di Percezione
8) GLI INTERVALLI DI CONFIDENZA
Corso di Percezione Robotica (PRo) A. A. 99/00 B
Lez 411 Marzo La macchina Dispositivi di input/output Architettura.
Sistemi di Classificazione usando NCD
Attività cerebrale = correnti neurali localizzate
SVILUPPO DI UN METODO DI CALIBRAZIONE DI UN SISTEMA STEREOSCOPICO PER LA MISURA DELLA LARGHEZZA DI PRODOTTI PIANI LAMINATI A CALDO Laureando: MASSIMO DAL.
Bologna 5 e 6 luglio Il collegio sindacale delle banche nella riforma del diritto delle società Lettura esegetica condotta da G. La Rocca.
Sistemi di supporto alle decisioni 2. Features space
Pielectasia e idroureteronefrosi nella patologia da reflusso
Metodi Quantitativi per Economia, Finanza e Management Lezione n°5
Computational Learning Theory and PAC learning
Support Vector Machines
Support Vector Machines
Processi Aleatori : Introduzione – Parte I
Appunti di inferenza per farmacisti
Ricerca della Legge di Controllo
Scene Modelling, Recognition and Tracking
“Riconoscimento di Facce”
Modelli simulativi per le Scienze Cognitive
PATTERN RECOGNITION.
Riconoscimento automatico di oggetti in immagini digitali
Analisi delle corrispondenze
Analisi dei gruppi – Cluster Analisys
Intelligenza Artificiale
Elaborazione (digitale) delle immagini
Modello E-R Generalizzazioni
Modello E-R Generalizzazioni
Analisi di Immagini e Dati Biologici
PAPERT ED IL SENSO DEL LOGO
COMUNICAZIONE VISIVA.
14 lezione 3 Maggio IL DESIGN DELLINTERAZIONE.
Modelli del rapporto uomo-macchina
VALUTAZIONI DI USABILITA. 10 Lezione 5 Aprile
Progettazione dell’ interazione
Lezione Aprile Altri paradigmi di interazione uomo-computer.
APPLICAZIONI DI INTELLIGENZA ARTIFICIALE ALLA MEDICINA
Trasformazioni di intensità Filtraggio spaziale
Strutture periodiche discrete: introduzione del vincolo di periodicità e studio della ricostruzione da due proiezioni. A. Del Lungo, A. Frosini, M.Nivat,
Elementi di Informatica di base
Il nuovo quadro regolamentare per le comunicazioni elettroniche: il pacchetto delle direttive UE e la disciplina nazionale di recepimento Avv. Maurizio.
© Permanent Mission of Italy to UN - Andrea Cavallari LE NAZIONI UNITE E I DIRITTI UMANI.
Donna:Professione Ingegnere
Radix-Sort(A,d) // A[i] = cd...c2c1
Le distribuzioni campionarie
Tecniche descrittive Utilizzano modelli matematici per semplificare le relazioni fra le variabili in studio Il fine è la descrizione semplificata del fenomeno.
Algoritmi e Strutture Dati
Presentazione Attività di Ricerca Secondo periodo – Aprile-Settembre Ottobre 2008.
SPAZI TOPOLOGICI: topologia locale (a cui siamo interessati)
Multimedia information retrieval. Problematica Materiale multimediale: non solo testo, ma audio (speech, musica..) immagini, video Retrieval basato su.
Approssimazione di derivate
Università degli Studi di Cagliari
CENNI PER L’INQUADRAMENTO DELLA MATERIA. gennaio Sinonimi? computer science EDP –Electronic Data Processing informatica information technology (IT)
Ing. Maurizio Bassani LOGISTICA - Capitolo 3 - Modulo 1
IL CAMPIONE.
Analisi di Immagini e Dati Biologici Edge detection and sharpening L7 38.
A proposito di spazio scala e di altre features locali... Elisabetta Delponte
Trasformata di Hough.
Intelligenza Artificiale Reti Neurali
Analisi della similarità tra immagini.
NB: La lettura delle slide è solo un supporto allo studio che non sostituisce i testi di esame Metodi e tecniche della ricerca sociale - Prof. Flavio Ceravolo.
Esempio di riconoscimento biometrico
TRATTAMENTO STATISTICO DEI DATI ANALITICI
STATISTICA P IA F ONDAZIONE DI C ULTO E R ELIGIONE C ARD. G. P ANICO Azienda Ospedaliera CORSO DI LAUREA IN INFERMIERISTICA Sr. Margherita Bramato.
Operazioni di campionamento CAMPIONAMENTO Tutte le operazioni effettuate per ottenere informazioni sul sito /area da monitorare (a parte quelle di analisi)
Grass-meeting Trento Implementazione di una procedura di estrazione dell’urbanizzato basata su classificazione multispettrale e morfologia matematica.
Campionamento procedimento attraverso il quale si estrae, da un insieme di unità (popolazione) costituenti l’oggetto delle studio, un numero ridotto di.
Transcript della presentazione:

Istituto Nazionale di Fisica della Materia, unita’ di Genova Immagini ed apprendimento statistico, ovvero il computer puo' imparare a vedere? Francesca Odone Istituto Nazionale di Fisica della Materia, unita’ di Genova il lavoro presentato e’ svolto in collaborazione con Annalisa Barla, Emanuele Franceschi, Fabrizio Smeraldi, Alessandro Verri

Breve presentazione Da alcuni anni sono un membro dello che opera presso il DISI dell’Univ. di Genova ci occupiamo di: studiare metodi matematicamente fondati per risolvere problemi di classificazione sviluppare tecniche per estrarre informazione visiva da immagini digitali e sequenze di immagini Ferrara, 26 febbraio 2004

Contesto l’image understanding, uno dei problemi centrali dell’intelligenza artificiale, è ben lontano dall’essere risolto La capacità innata nell’uomo di interpretare immediatamente il contenuto del segnale visivo non è stata trasmessa ai calcolatori i quali, talvolta, falliscono anche nello svolgere compiti molto semplici Ferrara, 26 febbraio 2004

Contesto Anni di ricerca nel mondo della visione artificiale, dell’image processing e discipline affini non sono stati sufficienti ad aggredire il problema in modo significativo L’apprendimento statistico introdotto nell’ultimo decennio sembra fornire interessanti spunti di ricerca e mette a disposizione un nuovo modo di trattare problemi difficilmente modellabili Ferrara, 26 febbraio 2004

Sommario motivazioni formalizzazione del problema elementi di visione artificiale apprendimento statistico costruire classificatori per immagini applicazioni stato dei lavori Ferrara, 26 febbraio 2004

Obiettivi data una qualunque immagine digitale descriverne il contenuto inserisci immagine di esempio con esempio di risposta ideale Ferrara, 26 febbraio 2004

Obiettivi Obiettivo “semplificato”: data una qualunque immagine digitale rispondere ad un numero finito di domande che potrebbero aiutare a descriverne il contenuto: contiene oggetti di una certa classe nota? contiene roba di un certo tipo? e’ caratterizzata da proprieta’ di un certo tipo? Ferrara, 26 febbraio 2004

Obiettivi cosa e’ cambiato? data una qualunque immagine digitale descriverne il contenuto data una qualunque immagine digitale rispondere ad un numero finito di domande che potrebbero aiutare a descriverne il contenuto... il problema e’ stato ridimensionato: descriviamo alcuni possibili aspetti di un’immagine Ferrara, 26 febbraio 2004

Obiettivi Esempi di “domande”: oggetti: volti umani, pedoni, auto, animali, ... roba (oggetti diffusi): cielo, mare, neve, prati,... proprieta’ globali: immagine di interni o esterni, diurna o notturna, citta’ o campagna, panorama o primopiano, ... sostituire con immagini e disegni Ferrara, 26 febbraio 2004

Formalizzazione del problema Per rispondere ad una domanda del tipo visto sopra occorre: rappresentare l’immagine in modo opportuno utilizzare un algoritmo di classificazione che ci aiuti a classificare immagini mai viste prima Per rappresentare le immagini usiamo algoritmi di visione “low level” Per la classificazione algoritmi di apprendimento da esempi Ferrara, 26 febbraio 2004

Formalizzazione del problema Domanda Rappresentazione (estrazione di feature) Kernel Engineering (confronto tra feature) Risposta Classificazione Ferrara, 26 febbraio 2004

Le immagini digitali FOTO – INGRANDIMENTO – MAPPA DI NUMERI – LIVELLO DI GRIGIO – MAPPA DI NUMERI! Ferrara, 26 febbraio 2004

Estrazione di feature low level Scopo: mettere in evidenza dettagli o proprietà di un’immagine Metodi utili e general purpose: statistiche del primo e del secondo ordine filtri e banchi di filtri rilevatori di feature: contorni, punti angolosi, linee, ... Ferrara, 26 febbraio 2004

Un esempio di feature utile: gli edge Gli edge (contorni) sono pixel posizionati in zone di intensa variazione di luminosita’ Per rilevare i punti di edge solitamente si studia il gradiente dell’intensita’ luminosa: Ferrara, 26 febbraio 2004

gli istogrammi Dato un segnale definito su un dominio D suddiviso intervalli limitati, un istogramma rappresenta la frequenza con cui il segnale assume valori in ognuno degli intervalli. Un istogramma di un immagine a 256 livelli di grigio: il dominio e’ l’insieme di valori [0,255] il dominio e’ solitamente diviso in intervalli detti bin l’istogramma e’ calcolato contando quanti pixel dell’immagine cadono in ogni bin Ferrara, 26 febbraio 2004

gli istogrammi gli istogrammi di immagini sono utili: quando le proprieta’ di correlazione tra pixel contigui in un’immagine possono essere ignorate quando siamo interessati alla distribuzione e non alla geometria di una feature si possono calcolare istogrammi sull’immagine originale (sui grigi/luminosita’, sui colori, ...) oppure su feature (sui moduli o le direzioni dei gradienti o degli edge, ...) Ferrara, 26 febbraio 2004

gli istogrammi Ferrara, 26 febbraio 2004

Esempio: valutare proprieta’ di orientazione utilizzando gli edge Il metodo Rilevare i punti di edge in un’immagine calcolare un istogramma della mappa delle direzioni degli edge Eo(i,j)=arctan(Jy/Jx) Ferrara, 26 febbraio 2004

Classificazione a due classi Oggetti: x X, X Rn Classi: y Y, Y={-1, 1} Dati: Dl {(xi, yi)  XY}, i=1,…,l Estratti da XY secondo P(X,Y) ignota. Obiettivo: f0 : X Y che consenta la separazione delle due classi Dati: esempi su cui alleno il sistema: training set Vediamo prima di tutto di introdurre brevemente un problema classico dell'apprendimento da esempi: la classificazione binaria. Il motivo per cui ritengo importante accennare, se pure brevemente, a questo problema è perché ha fortemente ispirato quanto svolto… Ferrara, 26 febbraio 2004

Classificazione a due classi Ferrara, 26 febbraio 2004

Classificazione a due classi Ferrara, 26 febbraio 2004

Classificazione a due classi Ferrara, 26 febbraio 2004

Classificazione a due classi Ferrara, 26 febbraio 2004

Support Vector Machines (SVM) (Vapnik, 1995) Dato un insieme di punti i.i.d. estratti da una distribuzione di probabilita’ fissata ma ignota, il problema consiste nel trovare una funzione f che minimizzi il funzionale Given , drawn i.i.d. from a fixed but unknown probability distribution, the problem is to find a function minimizing the functional Primo termine errore basso rispetto al training set secondo termine si aggiunge per avere un buon comportamento di generalizzazione: Prima:dire che il problema che risolviamo e’ il problema di minimo Secondo: dire che la soluzione è la funzione sotto Terzo: dire che K è proprio il prodotto scalare e che x questo possiamo parlare di norma Ferrara, 26 febbraio 2004

Support Vector Machines (Vapnik, 1995) La soluzione (il miglior compromesso tra l’errore empirico e il termine di regolarizzazione) e’ del tipo The solution (optimal trade-off between the data term – or empirical error, and the prior – or regularization term) takes the form where the coefficients are determined by the examples and are bounded by the inverse of the regularization parameter Ferrara, 26 febbraio 2004

Caratterizzazione dei kernel Una funzione K, per essere un kernel, deve essere: Simmetrica Definita positiva Ferrara, 26 febbraio 2004

Caratterizzazione dei kernel Una funzione K: X  X  R è definita positiva se per ogni intero n, per ogni x1, …, xn  X, e per ogni a1, …, an  R,   ai aj K(xi, xj)  0. Questo assicura che K si comporti come un prodotto scalare in un qualche spazio delle feature opportunamente definito: j(xi) • j(xj) = K(xi, xj ) Riscrivere meglio le proprietà di K Ferrara, 26 febbraio 2004

Scelta dei kernel e conoscenza a priori La conoscenza a priori del problema di classificazione considerato puo’ (e dovrebbe) essere utilizzata per progettare funzioni kernel ad hoc: questo permette di apprendere da un numero minore di esempi e soprattutto di ridurre il preprocessing dei dati We argue that the prior knowledge on the problem domain can (and should) be used for constructing appropriate kernels because It allows for learning from fewer examples and Minimizes the preprocessing requirements Ferrara, 26 febbraio 2004

Kernel per immagini Intuitivamente una funzione kernel e’ una funzione che valuta la similarita’ tra i dati misure di correlazione per immagini misure di similarita’ per istogrammi Ferrara, 26 febbraio 2004

Applicazioni Domanda: Formalizzazione: “questa e’ un’immagine di interno o di esterno?” Formalizzazione: abbiamo raccolto un training set di circa 2500 immagini di interni e 2500 di esterni le immagini sono state rappresentate come istogrammi nello spazio di colore HSV abbiamo allenato una SVM a due classi sui dati cosi’ rappresentati e un kernel adatto ai dati considerati (basato sulla misura di similarita’ intersezione di istogrammi), ottenendo i pesi i per la soluzione una nuova immagine, rappresentata anch’essa come un istogramma di colore, viene classificata utilizzando la funzione Ferrara, 26 febbraio 2004

esempi di interni/esterni Ferrara, 26 febbraio 2004

Risultati Su un validation set di 400 elementi otteniamo percentuali di riconoscimento intorno al 90%. Assunzioni implicite: l’immagine e’ una foto l’immagine non e’ ritoccata l’immagine non e’ un primo piano di un oggetto meglio se l’immagine e’ di qualita’ risultati allo stato dell’arte non tutti i kernel vanno bene Ferrara, 26 febbraio 2004

Non dimentichiamo che... questo e’ quello che il PC usa per rispondere alla domanda relativamente a questa immagine Ferrara, 26 febbraio 2004

Applicazioni Domanda: Formalizzazione: “questa e’ l’immagine di un cityscape?” Formalizzazione: abbiamo raccolto un training set di circa 800 immagini di citta’ e 800 di altro tipo le immagini sono state rappresentate come concatenazione di istogrammi delle direzioni degli edge e istogrammi nello spazio di colore HSV abbiamo allenato una SVM a due classi sui dati cosi’ rappresentati ottenendo i pesi i per la soluzione una nuova immagine, rappresentata anch’essa come un istogramma di colore, viene classificata utilizzando la funzione Ferrara, 26 febbraio 2004

esempi di cityscape Ferrara, 26 febbraio 2004

esempi negativi (non cityscape) Ferrara, 26 febbraio 2004

Risultati Precision 90% (percentuale di cityscape veri tra quelli rilevati dal sistema) Recall 85% (percentuale di cityscape rilevati sul totale di cityscape esistenti nel validation set) non male considerando la rappresentazione.. Ferrara, 26 febbraio 2004

....perche’ funziona...? Ferrara, 26 febbraio 2004

I limiti di questo approccio Fino ad oggi abbiamo portato a termine una decina di classificatori (solo alcuni in modo soddisfaciente) A questo ritmo diventeremo vecchi prima di riuscire a descrivere immagini anche in modo molto elementare I due punti deboli di questa tecnica sono: scegliere la rappresentazione dei dati per un determinato problema raccogliere i training set Ferrara, 26 febbraio 2004

Scelta della rappresentazione Se abbiamo a disposizione un’ampia batteria di rappresentazioni possibili, il problema di scegliere quale rappresentazione usare per un certo problema si traduce in fare selezione di feature questa considerazione ci conduce in una direzione lievemente diversa: tanti dati (meglio se solo positivi perche’ in molti casi sono piu’ facili da raccogliere) tante rappresentazioni veramente basso livello (decine di migliaia) Ferrara, 26 febbraio 2004

Feature selection e classificazione basata su test d’ipotesi assumiamo di avere un buon numero di esempi positivi come procediamo: calcoliamo un grande numero di feature (decine di migliaia) selezioniamo un sottoinsieme di feature buone (migliaia) tra queste ultime identifichiamo un sottoinsieme di feature indipendenti (centinaia) We first compute a large number of features, about 16,000, on the training set images (consisting of positive examples only) qui occorre dire che utilizzando istogrammi, co-occorrenze, wavelet il numero di feature sale velocemente A subset of good features (about 1,000) is then selected Of these, a subset of independent features is considered (ending up with about 100) Multiple statistical tests are then constructed using the training set (one test for each feature) Ferrara, 26 febbraio 2004

Feature selection e classificazione basata su test d’ipotesi A questo punto abbiamo una descrizione calzata sui dati di input e quindi specializzata al problema in esame a partire da una rappresentazione ridondante e multipurpose I dati rappresentati in questo modo possono diventare i vettori di input di un classificatore tipo SVM Abbiamo anche provato ad usarli all’interno di un classificatore monoclasse basato su test statistici multipli We first compute a large number of features, about 16,000, on the training set images (consisting of positive examples only) qui occorre dire che utilizzando istogrammi, co-occorrenze, wavelet il numero di feature sale velocemente A subset of good features (about 1,000) is then selected Of these, a subset of independent features is considered (ending up with about 100) Multiple statistical tests are then constructed using the training set (one test for each feature) Ferrara, 26 febbraio 2004

classificazione basata su test d’ipotesi: un esempio FACE DETECTOR Faces (19x19pixels) Training: 2429 Test: 472 We first compute a large number of features, about 16,000, on the training set images (consisting of positive examples only) qui occorre dire che utilizzando istogrammi, co-occorrenze, wavelet il numero di feature sale velocemente A subset of good features (about 1,000) is then selected Of these, a subset of independent features is considered (ending up with about 100) Multiple statistical tests are then constructed using the training set (one test for each feature) Nonfaces (19x19pixels) Training: 4548 Test: 23573 Ferrara, 26 febbraio 2004

training con test d’ipotesi Calcoliamo circa 16000 feature low level (medie dei grigi, tomografie in varie direzioni, ranklet) sulle immagini positive del training set Estraiamo un sottoinsieme di feature buone e da queste un sottoinsieme di feature indipendenti costruiamo un test statistico per ognuna delle feature sopravissute utilizzando il training set Multiple statistical tests are then constructed using the training set (one test for each feature) Ferrara, 26 febbraio 2004

rilevamento di facce Per tutte le posizioni dell’immagine, un insieme di scale e una soglia t calcoliamo le feature sopravissute effettuiamo tutti i test statistici ad un certo livello di confidenza si rileva un volto in una determinata posizione e scala se almeno t test sono passati Spiego la notaz. È faccio alcuni esempi (riconoscimento testuale, genoma…) Dico che per noi la y ha due valori in gen. Ha valori in R. Ferrara, 26 febbraio 2004

Alcune facce... Ferrara, 26 febbraio 2004

… altre facce … Ferrara, 26 febbraio 2004

… ancora facce … Ferrara, 26 febbraio 2004

Stato dei lavori Feature selection basata su test d’ipotesi per catturare rappresentazioni ad hoc : rilevamento di oggetti dominanti, es. cielo, mare, prati, folla, ... DEMO ONLINE di alcuni nostri classificatori!! http://slipguru.disi.unige.it Ferrara, 26 febbraio 2004

FINE ! Ferrara, 26 febbraio 2004

Un esempio di feature utile: gli edge L’algoritmo (Canny edge detector) filtrare l’immagine per attenuare il rumore di acquisizione calcolare il gradiente e stimarne la direzione eliminare i punti di non massimo applicare una soglia per trattenere solo i punti a contrasto alto Ferrara, 26 febbraio 2004

Quando gli istogrammi non bastano un esempio: le matrici di co-occorrenza rappresentano la distribuzione dei livelli di grigio di coppie di pixel a posizioni relative fissate Ferrara, 26 febbraio 2004