La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Candidato Duccio Picinotti Relatore Prof. Marco Maggini A.A. 2007/2008 Correlatore Dott. Lorenzo Sarti.

Presentazioni simili


Presentazione sul tema: "Candidato Duccio Picinotti Relatore Prof. Marco Maggini A.A. 2007/2008 Correlatore Dott. Lorenzo Sarti."— Transcript della presentazione:

1 Candidato Duccio Picinotti Relatore Prof. Marco Maggini A.A. 2007/2008 Correlatore Dott. Lorenzo Sarti

2 Introduzione Sistemi biometrici per il riconoscimento automatico 1. impronte digitali 2. iride 3. firma autografa 4. faccia Obiettivi 1. maggior livello di sicurezza 2. maggior comodità per gli utenti 3. abbassamento costi di gestione

3 Riconoscimento facciale Pro 1. metodo meno invasivo 2. ha molti più campi applicativi Contro 1. variabilità maggiore a parità di soggetto: il volto di una singola persona può cambiare molto al variare delle espressioni o dellangolo di ripresa 2. necessita di modelli più complessi e pesanti

4 Applicazioni pratiche Applicazioni pratiche del riconoscimento facciale automatico 1. in parallelo ad altre misure biometriche per il riconoscimento sicuro di un individuo 2. apparati di identificazione biometrica al posto di Bancomat e Smartcard 3. eliminazione delle password (rimarrebbero solo in caso di problemi di identificazione) 4. eliminazione delle chiavi di casa o dellauto (rimarrebbero solo in caso di malfunzionamenti) 5. controllo degli accessi in edifici che necessitano sicurezza 6. riconoscimento criminali/terroristi in luoghi pubblici come stazioni ed aeroporti (usato al Super Bowl) 7. nelle investigazioni scientifiche per riconoscimento di criminali schedati 8. alle votazioni per evitare voti multipli 9. uso di apparati più generali di riconoscimento oggetti per robot

5 Sistemi commerciali di riconoscimento Sono in grado di riconoscere i volti anche variando (robustezza): 1. variazione posa: angolazione e distanza dalla videocamera 2. variazione dellintensità e distribuzione dellilluminazione 3. cambiamenti intrinseci del volto: espressioni, capigliatura, invecchiamento, occhi chiusi, presenza o meno di occhiali…. 4. occlusioni parziali del volto Applicazioni commerciali (eseguono sia autenticazione one-to- one sia identificazione one-to-many) TrueFace di Miros: buona efficienza e modesta richiesta di risorse 1. TrueFace Network: per controlli di accesso via protocolli di rete 2. TrueFace ID: specifico per scopi di sorveglianza 3. TrueFace Engine: personalizzabile in base ad esigenze specifiche FaceIt di Visionic: diffuso in ambito governativo e bancario 1. FaceIt Sentinel: prodotto entry-level a basso costo 2. FaceIt Survillance: per la sorveglianza

6 Obiettivi della tesi face recognition e non face detection (si è usato OpenCV per questo) obiettivo principale: implementare più algoritmi di riconoscimento per valutarne laccuratezza, la velocità, vantaggi e svantaggi uso del dataset di foto di volti XM2VTS multi-modale (Centre for Vision, Speech an Signal Processing, CVSSP, University of Surrey, Sussex UK): soggetti 2. 8 differenti posizioni per ogni individuo x 576 pixel ogni immagine suddivisione dataset 6 foto per ogni individuo (75%) -> Training-set 2 foto per ogni individuo (25%) -> Test-set Error rate % come stima della probabilità derrore e quindi dellaccuratezza dellalgoritmo di classificazione script Matlab © per lestrazione features e la classificazione

7 Aspetti problematici Aspetti problematici del riconoscimento facciale automatico 1. estrazione delle features: attributi necessari per eseguire la classificazione 2. trovare un compromesso fra compressione dei dati in ingresso, per diminuire carico computazionale, e lefficacia del classificatore Metodologie di riduzione della dimensionalità Lineari 1. Principal Component Analysis (PCA) 2. Linear Discriminat Analysis o di Fisher (LDA) 3. Singular Value Decomposition (SVD) Non Lineari 1. Kernel PCA 2. Radial Basis Function (RBF) 3. Self-Organizing Map o Mappe di Kohonen (SOM)

8 Tecniche di classificazione Una volta calcolate le features si usano i classificatori automatici: 1. classificatore bayesiano con assunzione gaussiana o con mistura di gaussiane 2. classificatore K-NN con distanza euclidea 3. classificatore K-NN con distanza auto-appresa con SNN 4. classificatore K-NN con distanza dal centroide di ogni soggetto

9 Classificatore bayesiano Classificatore bayesiano (T. di Bayes) ω 1,…, ω c classi x R n features come variabile aleatoria P(ω i |x) probabilità a posteriori (posterior probability) di ω i data losservazione x P(x|ω i ) verosomiglianza (likelihood o class conditional) di x data ω i -> da stimare P(ω i ) probabilità a priori di ω i (prior probability) P(x,ω i ) probabilità congiunta (joint probability) di x e ω i p(x) fattore di normalizzazione chiamato evidenza (può essere tolto poiché indipendente da classe ω i ) Discriminante della classe: si massimizza la posterior probability

10 Stima parametrica supervisionata Stima parametrica supervisionata della verosomiglianza dati n campioni appartenenti ad una data classe Y={y 1,.., y n }, distribuiti i.i.d. secondo una certa funzione di forma nota p(y, θ), stimare un vettore di p-parametri θ=(θ 1,.., θ p ) stima a massima verosomiglianza, si massimizza: se si assume p(y k | θ) gaussiana multivariata poi si sostituisce la verosomiglianza nel T. di Bayes e si trova la posterior probability e quindi il discriminante

11 Stima non-parametrica supervisionata non si fanno assunzioni su forma della distribuzioni di probabilità n campioni i.i.d. x 1,.., x n Parzen Window: stima mediante combinazione lineare di funzioni finestra (kernel), simmetriche rispetto al loro baricentro e volumetricamente normalizzate, mediate negli n campioni a disposizione (si sostituisce verosomiglianza nel T. Bayes) funzione finestra ipercubica (ipercubo centrato in x 0 e di lato h n )

12 Classificatore K-NN classificatore K-Nearest Neighbor (K-NN) sia Y n = {x 1, x 2, …, x n } il campione di training etichettato con le classi di appartenenza e x 0 il pattern da classificare regola di decisione K-NN considera i K pattern di Y n più vicini al punto x 0, a minima distanza euclidea, e assegna x 0 alla classe ω i se e solo se è quella avente frequenza più alta rispetto a tutte le altre in questo sotto-campione di K osservazioni K=1 -> classificatore Nearest Neighbor K elevati -> stima troppo mediata della posterior probability (si allontana troppo da punto x 0 )

13 Reti Neurali di Similarità (SNN) 1/2 MLP con coppie (x, y) in input e output f SNN (x, y) {0,1} simile/dissimile, usato al posto della distanza euclidea in K-NN

14 Reti Neurali di Similarità (SNN) 2/2 Proprietà delle SNN, dato il set di pesi e soglie θ 1. f SNN (x, y, θ) 0 (non negatività, data da funzione attivazione sigmoidale nelloutput layer) 2. f SNN (x, y, θ) = f SNN (y, x, θ) (simmetria, data dallarchitettura doppia e a pesi condivisi della slide precedente) La distanza in uscita non è una metrica, cioè non valgono 1. f SNN (x, y, θ) f SNN (x, z, θ) + f SNN (z, y, θ) (disug. triangolare) 2. f SNN (x, x, θ) = 0 (autosimilarità, può comunque essere appresa dai dati)

15 Estrattori di features 1/2 aspetto più delicato del riconoscimento facciale servono a ridurre la dimensionalità di un problema computazionalmente oneroso -> estrarre dai dati in input, con poche perdite, informazione rilevante ai fini della classificazione metodologie di riduzione della dimensionalità standard lineari/non lineari PCA, LDA, SVD Kernel PCA, SOM, RBF

16 Estrattori di features 2/2 Estrattori di features utilizzati: 1. Active Shape Model (ASM) sfrutta solo i parametri di forma del volto: lineamenti facciali come ovale, bocca, naso, occhi e sopraccigli 2. Active Appearance Model (AAM) sfrutta solo la texture dellimmagine cioè lintera informazione presente nei pixel. Considera solo lellisse del volto (usa ground-truth) 3. Eigenfaces trasforma le immagini in un piccolo set di features chiamato eigenfaces, usate come componenti principali per il training-set. Riconoscimento proiettando nuove immagini nel sotto-spazio degli eigenfaces (chiamato face-space) e comparando la posizione con quella delle facce del training-set

17 Active Shape Model (ASM) 1/3 Active Shape Model (ASM): modello di forma attivo, usato software scritto da Ilaria Castelli n=68 landmark di riferimento ognuno con due coordinate (x i,y i ): occhi, bocca, naso, sopraccigli e ovale calcolo automatico dei landmark nel nuovo volto e successiva classificazione contorno medio calcolato sul training- set partendo da ground-truth 1 a fase: posizionamento shape media considerando il centro del bounding- box trovato con OpenCV 2 a fase: allineamento iterativo shape, spostamento punti in modo da minimizzare le somme delle distanze dalla shape media convergenza quando ce poca differenza fra shape di 2 iterazioni successive

18 Active Shape Model (ASM) 2/3 problema: individuare le nuove posizioni in cui spostare i landmark edge detection: tecniche per individuare brusche variazioni dei livelli di illuminazione (si trovano i contorni degli oggetti): si basano su calcolo derivate prime e seconde dei livelli di grigio ricerca edge principali problema: rumore -> soluzione: filtri vari (Gabor,..) di solito ci si sposta lungo la normale alla shape passante per il punto in esame nel lavoro di Ilaria Castelli si usano delle reti neurali addestrate per spostarsi allinterno di una sezione ellittica nellintorno del punto considerato nella direzione più verosimile

19 Active Shape Model (ASM) 3/3 una volta calcolati i landmark si esegue riduzione di dimensionalità con PCA 1. calcolo shape media dal training-set allineato (s=numero soggetti del training-set) 2. calcolo matrice covarianza S dei dati (2n x 2n) 3. individuare i t modi di variazione in grado di spiegare la maggior parte dellintera varianza λ T, ottenuta come somma degli autovalori di S (in ordine crescente) 4. vogliamo che venga spiegata una certa percentuale f (99%) della varianza e si sceglie t in modo che 5. ogni shape appartenente al training-set può essere approssimata combinando la shape media con una somma pesata dei primi t autovettori dove φ=(φ 1 |..|φ t ) è una matrice 2n x t costituita dai primi t autovettori di S e b è un vettore t-dimensionale contenente i coefficienti di pesatura degli autovettori 6. il vettore b che contiene i parametri del modello deformabile, usato poi per la classificazione, viene calcolato come

20 Active Appearance Model (AAM) 1/4 Active Appearance Model (AAM): modello di apparenza attivo, usato software scritto da Stefano Melacci 1. ricerca landmark con ASM 2. ritaglio del volto tramite i landmark: vengono tolti sfondo, capelli e orecchie 3. normalizzazione alla shape media 4. viene usato approccio statistico simile agli Eigenfaces ridimensionamento immagini a causa di problemi di memoria

21 Active Appearance Model (AAM) 2/4 si campiona lintensità dei livelli di grigio dellimmagine normalizzata e ritagliata per formare un vettore delle texture g im per limitare leffetto di una variazione globale di luce si applica una offset β e un fattore di scala α g=(g im - βI)/α α e β sono scelti in modo da far combaciare g im con quello della media dei dati normalizzati, cioè dove n è il numero degli elementi del vettore di texture g im applicando la PCA ai dati normalizzati si ottiene un modello lineare del tipo dove P g è un insieme di modi di variazione ortogonali e b g è un gruppo di parametri dei livelli di grigio nuove texture dellimmagine possono essere ricavate variando i parametri b g,α e β (processo iterativo) i parametri b g (modi) vengono usati direttamente per la classificazione

22 Active Appearance Model (AAM) 3/4 iterazioni dellalgoritmo AAM: posa della texture media e modifica iterativa della texture fino a ricalcare la texture del nuovo volto aspetto più critico: posizionamento iniziale texture media sul centro degli occhi

23 Active Appearance Model (AAM) 4/4 fino ad ora si è usata la sola Texture ma si può estendere il modello usando lAppearance (Texture + Shape ASM) considerando oltre ai modi b g anche quelli b s dellASM si mette tutto in ununico vettore costruendo la parte dovuta agli ASM nello stesso modo di AAM dove W s è una matrice diagonale con i pesi da applicare ad ogni parametro di forma (di solito W s =rI, con r 2 rapporto fra variazione totale nella texture e la variazione totale nella shape normalizzata) si applica la PCA al vettore combinato b e si arriva al modello dove P c sono gli autovettori e c è un vettore con i parametri di appearance (usati per la classificazione)

24 Eigenfaces 1/4 Eigenfaces : auto-facce, usato mio script Matlab © immagine come vettore bidimensionale di livelli di grigio NxN o come un punto in uno spazio N 2 : le immagini del volto non saranno distribuite in maniera casuale in questo grande spazio -> potrebbero essere rappresentate anche in un sottospazio, chiamato face-space, accoppiando le correlazioni fra immagini mediante PCA ogni vettore che rappresenta un volto viene considerato come combinazione lineare dellimmagine del volto originale i vettori della PCA (che sono gli autovettori della matrice di covarianza) vengono chiamati eigenfaces

25 Eigenfaces 2/4 1. sia Γ 1,.., Γ M il training-set dei volti 2. definiamo la faccia media 3. ogni volto differisce da quello medio del vettore 4. la matrice di covarianza C, N 2 xN 2 è, determina N 2 autovettori ed autovalori, troppo elevato 5. se il numero di immagini è minore della dimensione dello spazio di ogni singola figura (M si trovano M autovettori della matrice, MxM, L=A T A 6. le immagini degli eigenface calcolate dagli autovettori di L formano una base mediante la quale descrivere tutte le immagini dei volti 7. dato che non è richiesta una ricostruzione accurata del volto per la classificazione si usa un valore M

26 Eigenfaces 3/4 8. una volta calcolati gli autovettori una nuova immagine viene trasformata nelle sue componenti eigenfaces (proiettandola nelface-space) mediante loperazione descrive la proiezione delle immagini nel sottospazio definito dagli autovettori principali u k 9. i pesi ω k trovati per la nuova immagine Γ formano un vettore Ω T =[ω 1,.., ω M ] che descrive il contributo di ogni eigenface nel rappresentare la nuova immagine, trattando gli eigenfaces come una base per tutte le immagini di volti 10. Ω T viene usato come features per la classificazione: per trovare il volto più simile alla nuova faccia si trova la classe k che minimizza la distanza euclidea (Ω k è il vettore che descrive la k- ma classe)

27 Eigenfaces 4/4 si possono presentare 4 casi per il vettore Ω 1. vicino sia al face-space sia ad una classe di volti del training-set: individuo riconosciuto ed identificato 2. vicino al face-space ma non ad una classe di volti del training-set: individuo sconosciuto 3. lontano dal face-space ma vicino ad una classe di volti del training- set: falso positivo, scartato in quanto limmagine non rappresenta un volto poiché molto distante dallo spazio in cui ci si aspetterebbe fosse un volto 4. lontano sia dal face-space sia da tutte le classi di volti del training- set: immagine senza nessun volto

28 Mistura di esperti 1/2 1 ipotesi per esperto

29 Mistura di esperti 2/2 2 ipotesi per esperto

30 Risultati sperimentali – Considerazioni 1/4 Inquadrature con parti nascoste o mosse Utilizzate comunque anche se mai riconosciute

31 Risultati sperimentali – Considerazioni 2/4 Localizzazioni ASM errate Uso dei punti di ground-truth

32 Risultati sperimentali – Considerazioni 3/4 Problema in caso di un volto nuovo non presente nel dataset si risolve apprendendo una distanza di soglia (fra features) al di sopra della quale considerare i volti come sconosciuti -> se troppo bassa ho troppi rigetti, se troppo alta potrebbe condurre a riconoscere anche soggetti che non sono presenti nel dataset uso di unulteriore soglia per controllare inizialmente se nellimmagine sia presente effettivamente un volto Problemi maggiori quando il soggetto in esame risulta completamente diverso dai volti della stessa persona appresi nel training-set

33 Risultati sperimentali – Considerazioni 4/4 Esperimenti con K-NN al variare di K (da 1 a 1770) andamenti dellError rate % molto simili: diminuzione fino a minimo assoluto, fluttuazioni in aumento per poi ridiminuire allo stesso valore di K=1 per K=1770. se K=1770 ritorno allo stesso Error rate % del caso K=1 alcune volte saranno riportate solamente le prove per K fino a 10 o 20 perchè in questo range si hanno i risultati migliori Variante del classificatore K-NN con distanza dal centroide invece che da tutti i soggetti (indipendente da K) risultati migliori eccetto che per gli Eigenfaces Variante normalizzando le features -> risultati identici poichè rapporto fra feature massima e minima di soli 2,5 Dove non specificato tutte le prove sono state eseguite solo sui livelli di grigio (conversione da RGB)

34 Risultati sperimentali ASM 1/3 Classificatore parametrico gaussiano con ASM uso 36 parametri b estratti con ASM vedi tabella dell n %: percentuale di volti identificati se si considera riconosciuto un individuo quando compare fra le n classi più probabili scelte dal classificatore n %n 118,01143,1 224,61244,1 328,61345,1 430,81446,6 533,61548,0 634,91648,5 736,61749,2 838,11850,3 939,21950,8 1040,22051,7 risultati scadenti anche aumentando n -> features b insufficienti e molto confuse fra soggetto e soggetto, anche con i ground-truth

35 Risultati sperimentali ASM 2/3 Classificatore parametrico gaussiano con ASM uso le 68 coordinate dei ground-truth vedi tabella dell Error rate %: si variano gli elementi usati occhi meno rappresentativi della bocca naso è meno rappresentativo della bocca ma più degli occhi sopraccigli con varianza troppo alta servono poco ovale molto importante risultati leggermente migliori rispetto ai parametri b Features Elementi non usati nError rate % coordinate nessuno 1100,0 2 occhi sopraccigli 169,0 261,5 bocca sopraccigli 170,5 258,9 sopraccigli 163,7 255,6 Features Elementi usati nError rate % b + coordinate ovale occhi 167,6 258,6 ovale naso 166,3 256,6 ovale bocca 163,9 254,2

36 Risultati sperimentali ASM 3/3 Classificatore parametrico con mistura di gaussiane multivariate e ASM Prove con c=2 e c=6 problemi di inversione delle matrici di covarianza Anche se il metodo è più generale i risultati sono comparabili con quelli precedenti parametri da stimare mixing parameters soluzione iterativa

37 Risultati sperimentali K-NN con ASM 1/3 Classificatore K-NN e ASM KError rate %K 181,72081,4 281,73080,7 381,74082,5 481,75082,4 581,26082,7 681,57082,5 781,08082,9 880,59083,4 981,210083,1 1081,420086,4 1180,330086,4 1280,540085,6 1380,750084,9 1481,060085,4 1581,070085,8 1681,280084,9 1781,090084,1 1880, ,1 1980, ,7 risultati comparabili a quelli del classificatore gaussiano -> parametri b insufficienti versione con distanza da centroide: Error rate 76,6 %

38 Risultati sperimentali K-NN con ASM 2/3 Classificatore K-NN e ASM variando le features K Error rate % coordinateb + coordinate Elementi non usatiElementi usati occhi sopraccigli bocca sopraccigli sopraccigli ovale occhi ovale naso ovale bocca 164,669,360,572,067,365,9 264,669,360,572,067,365,9 363,768,159,771,566,864,7 462,568,159,870,366,664,0 562,967,860,771,066,464,4 663,767,461,371,265,864,1 763,467,861,572,266,164,2 864,068,162,571,566,363,9 964,667,663,670,566,864,6 1065,666,763,672,267,664,1 risultati leggermente migliori

39 Risultati sperimentali K-NN con ASM 3/3 Classificatore K-NN e ASM variando le features (distanza da centroide) risultati leggermente migliori Error rate % coordinateb + coordinate Elementi non usatiElementi usati occhi sopraccigli bocca sopraccigli sopraccigli ovale occhi ovale naso ovale bocca 62,065,658,669,564,965,2

40 Risultati sperimentali K-NN con AAM 1/5 Classificatore K-NN e AAM mh=192 vc=0,97 Texture 775 modi – Appearance 26 modi K K-NNCentroide TextureAppearanceTextureAppearance Error rate % 113,452,97,649,2 213,452,9 315,852,9 417,652,5 520,752,4 621,953,4 724,055,1 826,154,4 926,454,4 1027,854,6 risultati molto buoni

41 Risultati sperimentali K-NN con AAM 2/5 Classificatore K-NN e AAM vc=cost mh dimezzato Error rate % praticamente inalterato con tempi di calcolo però migliori K K-NNCentroide TextureAppearanceTextureAppearance Error rate % 113,952,97,149,2 213,952,9 316,152,9 418,052,5 520,752,4 622,453,4 724,755,1 826,154,4 926,954,4 1028,054,6 mh=96 vc=0,97 Texture 733 modi – Appearance 26 modi

42 Risultati sperimentali K-NN con AAM 3/5 Classificatore K-NN e AAM vc diminuito mh=cost Error rate % migliora nel K-NN standard e peggiora di poco col centroide mh=96 vc=0,93 Texture 443 modi – Appearance 17 modi K K-NNCentroide TextureAppearanceTextureAppearance Error rate % 111,558,88,056,8 211,558,8 314,257,6 415,158,6 517,858,3 619,059,7 720,360,2 822,460,5 924,260,5 1024,760,8

43 Risultati sperimentali K-NN con AAM 4/5 Classificatore K-NN e AAM vc=cost mh dimezzato Error rate %, nonostante i parametri di texture siano diminuiti, peggiora nel K-NN standard e peggiora di poco col centroide mh=48 vc=0,97 Texture 523 modi – Appearance 26 modi K K-NNCentroide TextureAppearanceTextureAppearance Error rate % 114,652,98,049,3 214,652,9 317,152,9 419,052,4 521,452,4 622,953,4 724,655,1 825,853,9 926,854,2 1027,854,4

44 Risultati sperimentali K-NN con AAM 5/5 Classificatore K-NN e AAM Considerazioni generali a parità di vc, cambiando le dimensioni dellimmagine, i risultati usando lappearance sono rimasti identici, dato che anche il numero di modi su cui fare la classificazione rimangono costanti nel caso delluso dellappearance si è visto anche come laccuratezza, a causa dei pochi parametri a disposizione, è sempre risultata molto bassa diminuendo la dimensione dellimmagine, adoperando le texture con il centroide, si sono avuti dei risultati allincirca identici (7÷8 %), ma col vantaggio di una grossa riduzione nel tempo di calcolo in tutti i test eseguiti si può notare come lerrore sia molto minore, praticamente dimezzato in certi casi, usando il classificatore basato sui centroidi, che fra laltro risulta molto più veloce di quello standard

45 Risultati sperimentali K-NN con Eigenfaces 1/2 Classificatore K-NN e Eigenfaces usato il 100 % dei modi K su tutta limmagine Eigenfacesb + Eigenfaces coordinate senza sopraccigli + Eigenfaces YCbCr 133,2 24,7 233,2 24,7 340,3 24,7 447,347,5 26,4 553,7 28,3 659,1 28,5 762,7 28,6 866,4 30,7 967,6 32,0 1069,769,8 31,9 Error rate % aumenta continuamente allaumentare di K Usando tutti i canali di colore risultati leggermente migliori Eigenfaces migliore di ASM ma peggiore di AAM

46 Risultati sperimentali K-NN con Eigenfaces 2/2 Classificatore K-NN e Eigenfaces usato il 100 % dei modi -> risultati migliori ritagliando lovale K sullovale ritagliato Eigenfacesb + Eigenfaces coordinate senza sopraccigli YCbCr 128,6 20,2 228,6 20,2 331,7 20,2 434,234,4 21,9 537,1 23,8 639,5 24,0 741,2 24,1 843,6 26,2 944,7 27,5 1045,345,4 27,4 Error rate % aumenta continuamente allaumentare di K Usando tutti i canali di colore risultati leggermente migliori Eigenfaces migliore di ASM ma peggiore di AAM

47 Risultati sperimentali K-NN con SNN 1/2 Classificatore K-NN e SNN K No ValidazioneValidazione K-NN standard Centroide K-NN standard Centroide Error rate % 195,791,390,786,4 295,790,7 396,191,0 496,391,4 si sono usati i parametri b calcolati con ASM uso distanza calcolata con SNN al posto di quella euclidea dentro il classificatore K-NN addestramento SNN variando numero di neuroni nel layer nascosto, numero di epoche e con o senza validation-set (per evitare overfitting) è stata usata la rete neurale che aveva dato risultati dapprendimento migliori Error rate % disastroso Migliori risultati usando il centroide, comparabili a quelli del classificatore parametrico gaussiano

48 Risultati sperimentali K-NN con SNN 2/2 Classificatore K-NN e SNN Tipo norma (K = 1) solo norma solo SNN norma+SNNnorma*SNN Error rate % 168,590,068,589,0 265,090,065,089,0 76,090,076,589,5 Frobenius65,090,065,089,0 variante che sfrutta sia la distanza auto-appresa con SNN sia quella euclidea Error rate % rimane disastroso Risultati comunque peggiori di quando viene usata la sola norma euclidea

49 Risultati sperimentali K-NN con Mistura di esperti 1/2 Classificatore a mistura di esperti AAM e Eigenfaces Classificatore Centroide mh = 192 vc = 0,97 mh = 96 vc = 0,97 mh = 48 vc = 0,97 Error rate % AAM + Eigenfaces su YCbCr e Gray 15,615,316,3 AAM + Eigenfaces su YCbCr 11,711,212,4 AAM + Eigenfaces su YCb 7,16,87,8 1 ipotesi per esperto classificatore con distanza dal centroide non si hanno grandi miglioramenti rispetto al solo metodo AAM

50 Risultati sperimentali K-NN con Mistura di esperti 2/2 Classificatore a mistura di esperti AAM e Eigenfaces 2 ipotesi per esperto classificatore con distanza dal centroide si hanno dei lievi miglioramenti rispetto al solo metodo AAM Classificatore Centroide mh = 192 vc = 0,97 mh = 96 vc = 0,97 mh = 48 vc = 0,97 Error rate % AAM + Eigenfaces su Gray 6,36,86,9 AAM + Eigenfaces su RGB 3,2 AAM + Eigenfaces su RG 3,4 3,2 AAM + Eigenfaces su R 3,9 4,1 AAM + Eigenfaces su Y 3,9 4,1 AAM + Eigenfaces su Cb 8,5 8,6 AAM + Eigenfaces su Cr 7,56,97,8 AAM + Eigenfaces su YCr 2,2 2,5 AAM + Eigenfaces su CbCr 8,8 9,0

51 Riepilogo test con ASM ClassificatoreFeatures Error rate % Note Gaussiano b82,0 n = 1 coordinate63,7 b + coordinate63,9 K-NN standard b80,3K = 11 coordinate59,7K = 3 b + coordinate63,9K = 8 centroide b80,3 coordinate59,7 b + coordinate63,9

52 Riepilogo test con AAM ClassificatoreFeatures Error rate % NoteClassificatoreFeatures K-NN standard mh = 192 vc = 0,97 AAM Texture13,4K = 1 AAM Appearance52,9K = 1 mh = 96 vc = 0,97 AAM Texture13,9K = 1 AAM Appearance52,9K = 1 mh = 96 vc = 0,93 AAM Texture11,5K = 1 AAM Appearance57,6K = 3 mh = 96 vc = 0,90 AAM Texture10,7K = 1 AAM Appearance65,4K = 5 mh = 48 vc = 0,97 AAM Texture14,6K = 1 AAM Appearance52,4K = 5 centroide mh = 192 vc = 0,97 AAM Texture7,6 AAM Appearance49,2 mh = 96 vc = 0,97 AAM Texture7,1 AAM Appearance49,2 mh = 96 vc = 0,93 AAM Texture8,0 AAM Appearance56,8 mh = 96 vc = 0,90 AAM Texture7,8 AAM Appearance62,9 mh = 48 vc = 0,97 AAM Texture8,0 AAM Appearance49,3

53 Riepilogo test con Eigenface e SNN ClassificatoreFeatures Error rate % NoteClassificatore K-NN non cropped Eigenfaces33,2K = 1 Eigenfaces + b33,2K = 1 Eigenfaces + coordinate33,2K = 1 Eigenfaces + RGB24,9K = 1 Eigenfaces + YCbCr24,7K = 1 cropped Eigenfaces28,6K = 1 Eigenfaces + b28,6K = 1 Eigenfaces + coordinate28,6K = 1 K-NNcentroide SNN90,7 SNN+distanza euclidea65,0

54 Conclusioni Metodi singoli su livelli di grigio (Error rate %) ASM scadenti sia con classificatore gaussiano che con K-NN-> features insufficienti, anche con ground-truth (59 %) Eigenfaces cropped migliore ma ancora deludenti (33 %) AAM e appearance migliore di ASM ma ancora scadente (49 %) AAM e texture migliore come metodo singolo (7 %) SNN risultati pessimi (90 %) Metodi con mistura di esperti, usati spesso nei sistemi commerciali di riconoscimento (Error rate %) AAM su livelli di grigio + Eigenfaces su RGB risultati migliori in assoluto (3 %) -> contro: complessità computazionale e velocità di riconoscimento Risultati soddisfacenti e tali da poter già provare ad implementare il metodo in un sistema reale

55 Sviluppi futuri Miglioramento dellerrore commesso dai classificatori usare altre misure di distanze: DistBoost, MPDK, RCA e Xing uso di autoassociatori per la compressione dati (senza usare PCA o LDA) Velocizzare gli algoritmi: training, riconoscimento vero e proprio, ri-training (quando deve essere riconosciuto un nuovo soggetto) uso di logiche digitali parallele in applicazioni reali Provare altre misture di esperti mettere dei pesi ai singoli metodi usati nella mistura usare tutti e 3 i canali di colore, oltre a quello del grigio, per tutti i metodi usati nella mistura Provare tutti i classificatori su altri dataset come FERET, etc… per vedere se le considerazioni fatte continuano a valere


Scaricare ppt "Candidato Duccio Picinotti Relatore Prof. Marco Maggini A.A. 2007/2008 Correlatore Dott. Lorenzo Sarti."

Presentazioni simili


Annunci Google