Teoria e Tecniche del Riconoscimento

Slides:



Advertisements
Presentazioni simili
DISEQUAZIONI DI II GRADO
Advertisements

Teoria e Tecniche del Riconoscimento
Selezione delle caratteristiche - Principal Component Analysis
LA DILATAZIONE DELLA MASSA A. Martini LA DILATAZIONE DELLA MASSA A. Martini.
Corso di Chimica Fisica II 2011 Marina Brustolon
Dipartimento di Economia
Momento di un vettore rispetto ad un polo fisso
Autovalori e autovettori
MATLAB.
MATLAB.
MATLAB.
Geometria analitica dello spazio
COORDINATE POLARI Sia P ha coordinate cartesiane
Dinamica del manipolatore
Fisica 2 18° lezione.
Marina Cobal - Dipt.di Fisica - Universita' di Udine
Algebra delle Matrici.
Università degli Studi di Cagliari
Lezione 3) Cenni di teoria dell’elasticità, sforzi e deformazioni, l’equazione delle onde elastiche.
Cristallografia a raggi X
TEORIA RAPPRESENTAZIONALE DELLA MISURA
Teoria e Tecniche del Riconoscimento
PER FUNZIONI DI PIÙ VARIABILI - 2.
CALCOLO DIFFERENZIALE PER FUNZIONI DI PIÙ VARIABILI. ESTREMI VINCOLATI, ESEMPI.
Costruzione di Interfacce Lezione 4 Nozioni di geometria per la grafica
MATLAB.
MATLAB.
MATLAB. …oggi… Programmare in Matlab Programmare in Matlab Funzioni Funzioni Cicli Cicli Operatori relazionali Operatori relazionali Indipendenza lineare,
Teoria e Tecniche del Riconoscimento
Teoria e Tecniche del Riconoscimento
BIOINGEGNERIA S. Salinari Lezione 3.
BIOINGEGNERIA S. Salinari Lezione 8. RETI AD APPRENDIMENTO NON SUPERVISIONATO Le reti ad apprendimento non supervisionato debbono essere in grado di determinare.
PROFESSORESSA STUDENTI F. Pirri D. G. Ferriero V. Virili TUTOR M. Pizzoli RICOSTRUZIONE METRICA 3D DI UN OGGETTO RIPRESO DA PIÙ VISTE CON LA STESSA TELECAMERA.
Valutazione della stima: gli intervalli di confidenza
Teoria e Tecniche del Riconoscimento
Marco CristaniTeorie e Tecniche del Riconoscimento1 Notizie preliminari Introduzione Facoltà di Scienze MM. FF. NN. Università di Verona A.A
Corso di Chimica Fisica II 2013 Marina Brustolon
Analisi delle corrispondenze
UNIVERSITÀ DEGLI STUDI DI PERUGIA Dipartimento di Ingegneria Industriale Prof. Francesco Castellani Corso di Meccanica Applicata A.A.
INTERPOLAZIONE Si parla di processo di interpolazione quando, conoscendo una serie di dati, sperimentali o statistici, riguardo ad un evento, si vuole.
Lezione 13 Equazione di Klein-Gordon Equazione di Dirac (prima parte)
Assicurazioni vita e mercato del risparmio gestito
Infomatica Grafica a.a DICGIM – University of Palermo Dipartimento di Ingegneria Chimica, Gestionale, Informatica e Meccanica Environment Mapping.
SCOMPOSIZIONE DI UN VETTORE
MOMENTI DI SECONDO ORDINE
Daniele Santamaria – Marco Ventura
ANALISI FATTORIALE. Cosè lanalisi fattoriale? Statistica descrittiva Rappresentazione delle variabili in studio. Statistica confermativa vs Confermare,
F. Gay, Università IUAV di Venezia, Corso di Laurea in Scienze dellArchitettura - Modulo coordinato di rappresentazione 1 – aa Dalla prospettività
UNIVERSITÀ DI PISA FACOLTÀ DI INGEGNERIA CORSO DI LAUREA SPECIALISTICA IN INGEGNERIA INFORMATICA PER LA GESTIONE D’AZIENDA Tesi di laurea: Progettazione.
FACOLTA DI SCIENZE FF MM NN – TECNICHE SEPARATIVE – LMC FONDAMENTI DI SCIENZA DELLE SEPARAZIONI Scan lucido.
FACOLTA DI SCIENZE FF MM NN – TECNICHE ANALITICHE SEPARATIVE– LM Chimica FONDAMENTI DI SCIENZA DELLE SEPARAZIONI Scan lucido.
Corso di Programmazione Grafica e Laboratorio Daniele Marini
Intersezioni e distanze Daniele Marini Corso di Programmazione Grafica per il Tempo Reale.
Vettori dello spazio bidimensionale (R 2)
Complessità degli algoritmi (cenni) CORDA – Informatica A. Ferrari.
DISEQUAZIONI INTERE DI 2° GRADO Prof. V. Scaccianoce.
1 Corso di Laurea magistrale in Psicologia Clinica, dello Sviluppo e Neuropsicologia Esame di Analisi Multivariata dei Dati Introduzione all’analisi fattoriale.
Riassumendo: ipotesi per OLS 1.Modello lineare 2.X e Y sono frutto di osservazioni indipendenti 3.X è di rango pieno 4.I residui hanno media = 0 5.I residui.
Assicurazioni vita e mercato del risparmio gestito Lezione 17 Stimatori bayesiani e allocazione del portafoglio.
LA RETTA Assi cartesiani e rette ad essi parallele
Assicurazioni vita e mercato del risparmio gestito Lezione 13 Modelli media varianza con N titoli.
MATEMATICA PER L’ECONOMIA e METODI QUANTITATIVI PER LA FINANZA a. a
Metodi di minimizzazione Ricerca del minimo di dove è l’insieme delle variabili (coordinate)
1 Lezione IX – terza parte Avviare la presentazione col tasto “Invio”
E SPERIMENTI CON L ’ USO DELLO SPECCHIO. ESPERIMENTO 1 Materiale: -1 oggetto (matita) -2 specchi Richiesta: Numero di immagini proiettate nello specchio.
REALIZZAZIONE DI UN SISTEMA DI CLASSIFICAZIONE Prof. Roberto Tagliaferri Studente: Ragognetti Gianmarco Corso di Reti Neurali e Knowledge Discovery A.A.
Riduzione dei Dati. Nelle scienze sociali ci si trova molto spesso di fronte a ricerche in cui vi è una sovrabbondanza di misurazioni nel tentativo di.
Esempio di calcolo dei costi di prodotto per centro produttivo La Beta realizza i componenti A, B e C ciascuno in un unico centro produttivo. Nei 260 gg.
L’Analisi delle Corrispondenze. Obiettivi: Rappresentazione graficaRappresentazione grafica SintesiSintesi della struttura di associazione tra due (o.
Transcript della presentazione:

Teoria e Tecniche del Riconoscimento Facoltà di Scienze MM. FF. NN. Università di Verona A.A. 2011-12 Teoria e Tecniche del Riconoscimento Principal Component Analysis, Metodo di Fisher Marco Cristani Teoria e Tecniche del Riconoscimento

PCA Il dato = un vettore N-dimensionale di valori di pixel Supponiamo N=2  dati = punti 2D Come posso descrivere in modo compatto questi M punti? SOL 1: Con un punto (vettore) solo, che minimizzi la distanza media quadratica con tutti i pti m poco espressivo!!! Problema Soluzione: il vettore media

PCA SOL2: Con una retta di proiezione, che minimizzi la distanza media quadratica con tutti i pti In questo caso useremmo una dimensione per descrivere i dati (la posizione sulla retta)! Alcune vanno bene ... altre no. intuitivamente Supp. una retta di proiezione nello spazio

PCA Per convenienza, imponiamo passaggio dalla media, e specifichiamo quindi i punti della retta come Troviamo quindi i coefficienti che minimizzano la distanza quadratica

PCA Sostituendo in otteniamo , ossia Scatter matrix ≈ mat. di covarianza Minimizzare significa massimizzare tenuto conto che , via moltiplicatori di Lagrange; ossia A conti fatti: e deve essere autovettore; Poiché deve essere massimo Minimizzo;

Esempio La matrice di covarianza è Ottengo 2 autovettori (e autovalori): quale prendo?

Esempio - osservazioni La matrice di covarianza è simmetrica, reale  gli autovettori {e} sono ortogonali, formanti una base per lo spazio N dimensionale  gli autovalori più grandi si hanno nelle direzioni di massima dispersione dei dati

Esempio - osservazioni I coefficienti , per i =1,...,N, sono le componenti del punto per la base trovata Quindi un punto può essere scritto come

Da PCA ad eigenfaces Dato un gruppo di punti, ho trovato la base che descrive lo scattering dei punti Ogni punto puo’ essere mappato tramite i componenti della base (numero componenti = numero dimensioni N) Usare meno componenti (le componenti principali) permette di proiettare i punti in un sottospazio altamente informativo  riduzione della dimensionalità dei punti Ora passiamo alle facce (...punti!)dataset di M facce, N dimensioni N.B.: di solito, M<<N …

Da PCA ad eigenfaces (2) … Preprocessing - Le immagini devono contenere esclusivamente facce (no outliers) Le immagini devono essere ragionevolmente prive di rumore Le facce devono avere la stessa dimensione riscalamento Stesse condizioni di illuminazione, o compensazione Non ci deve essere sfondoritaglia le facce, catturale su sfondo neutro (alternativa: background subtraction) In maniera automatica, utilizzo di un metodo di face detection …

Eigenfaces - proiezioni Dopo aver ricavato gli autovettori {e} (eigenfaces) dalla matrice di covarianza S, calcolo le componenti {a} (o proiezione) per la faccia x ed ho Le ricostruzioni, g, possono avvenire anche nei sottospazi descritti dalle eigenfaces con eigenvalues più grandi – riduzione dimensionalità m + … n. coeff. 10 20 30 50 70 82

Eigenfaces Autovettori {e} (eigenfaces): in pratica?

Eigenfaces - problema Sia pertanto S = AA’ Con un’img 256 x 256 ho : problemi di overflow! Trick: calcolo gli autovettori di , ossia , tenuto conto che di solito si usano 20-30 eigenfaces e che N x M N x N quindi

Eigenfaces - note Gli M autovalori di A’A corrispondono agli M autovalori più grandi di S (così come i corrispondenti autovettori)

Eigenfaces - algoritmo Sottraggo ad ogni immagine x(k) ,k=1...M, la media ottenendo i vettori da cui costruisco la matrice Calcolo M autovettori di formando la matrice Ricavo gli M autovettori più grandi di S = AA’, ossia o in forma matriciale Ricavo i corrispondenti componenti (o coeff. di proiezione)

Proprietà chiave della rappresentazione ad eigenfaces Date 2 immagini usate per costruire l’eigenspace è la proiezione nell’eigenspace dell’img allora, ossia, la distanza nell’eigenspace è approssimativamente uguale alla distanza tra due immagini.

Riconoscimento con le eigenfaces Analizza il database d’immagini etichettato (<volti,identità>) Esegui PCA — calcola le eigenfaces, formo U Calcola i K coefficienti per ogni immagine x(k) k=1,...,M Calcola le M proiezioni nello spazio delle eigenfaces ω(k) k=1,...,M Calcolo la soglia Data una nuova img (da riconoscere) x, Ne sottraggo la media del dataset di training m, ottengo Proietto, ossia calcolo le K componenti Calcolo il set di distanze TRAINING ossia RICONOSCIMENTO

Riconoscimento con le eigenfaces Ricostruisco la faccia usando eigenfaces e componenti Calcolo la distanza tra la faccia di partenza incognita e la ricostruzione Se non è una faccia è una nuova faccia è una faccia conosciuta, la kbest-esima, dove RICONOSCIMENTO

Dettagli pratici Quanti eigenvector usare? Controlla il decadimento degli eigenvalues Dati “buoni” ossia trattabili hanno poche dimensioni ad alta varianza Nel caso in cui tutti gli N autovalori sono stati calcolati per un dataset N-dimensionale vale K M i =

Problemi eigenfaces Illuminazione: stessi soggetti con differente illuminazione risultano lontani nello spazio delle eigenfaces Pose differenti :le componenti di un volto frontale non servono per un riconoscimento con profili Allineamento differente Espressione facciale differente Outlier Sample outliers = non facce Intra-sample outliers = facce affette da rumore

Problemi eigenfaces (2) Funzionale solo per la rappresentazione di dati appartenenti ad un’unica classe Non separano classi differenti