55
Candidato Duccio Picinotti UNIVERSITÀ DEGLI STUDI DI SIENA FACOLTÀ DI INGEGNERIA Corso di Laurea Specialistica in Ingegneria Informatica Tesi di Laurea Relatore Prof. Marco Maggini A.A. 2007/2008 Correlatore Dott. Lorenzo Sarti

Candidato Duccio Picinotti Relatore Prof. Marco Maggini A.A. 2007/2008 Correlatore Dott. Lorenzo Sarti

Embed Size (px)

Citation preview

  • Slide 1
  • Candidato Duccio Picinotti Relatore Prof. Marco Maggini A.A. 2007/2008 Correlatore Dott. Lorenzo Sarti
  • Slide 2
  • Introduzione Sistemi biometrici per il riconoscimento automatico 1. impronte digitali 2. iride 3. firma autografa 4. faccia Obiettivi 1. maggior livello di sicurezza 2. maggior comodit per gli utenti 3. abbassamento costi di gestione
  • Slide 3
  • Riconoscimento facciale Pro 1. metodo meno invasivo 2. ha molti pi campi applicativi Contro 1. variabilit maggiore a parit di soggetto: il volto di una singola persona pu cambiare molto al variare delle espressioni o dellangolo di ripresa 2. necessita di modelli pi complessi e pesanti
  • Slide 4
  • Applicazioni pratiche Applicazioni pratiche del riconoscimento facciale automatico 1. in parallelo ad altre misure biometriche per il riconoscimento sicuro di un individuo 2. apparati di identificazione biometrica al posto di Bancomat e Smartcard 3. eliminazione delle password (rimarrebbero solo in caso di problemi di identificazione) 4. eliminazione delle chiavi di casa o dellauto (rimarrebbero solo in caso di malfunzionamenti) 5. controllo degli accessi in edifici che necessitano sicurezza 6. riconoscimento criminali/terroristi in luoghi pubblici come stazioni ed aeroporti (usato al Super Bowl) 7. nelle investigazioni scientifiche per riconoscimento di criminali schedati 8. alle votazioni per evitare voti multipli 9. uso di apparati pi generali di riconoscimento oggetti per robot
  • Slide 5
  • Sistemi commerciali di riconoscimento Sono in grado di riconoscere i volti anche variando (robustezza): 1. variazione posa: angolazione e distanza dalla videocamera 2. variazione dellintensit e distribuzione dellilluminazione 3. cambiamenti intrinseci del volto: espressioni, capigliatura, invecchiamento, occhi chiusi, presenza o meno di occhiali. 4. occlusioni parziali del volto Applicazioni commerciali (eseguono sia autenticazione one-to- one sia identificazione one-to-many) TrueFace di Miros: buona efficienza e modesta richiesta di risorse 1. TrueFace Network: per controlli di accesso via protocolli di rete 2. TrueFace ID: specifico per scopi di sorveglianza 3. TrueFace Engine: personalizzabile in base ad esigenze specifiche FaceIt di Visionic: diffuso in ambito governativo e bancario 1. FaceIt Sentinel: prodotto entry-level a basso costo 2. FaceIt Survillance: per la sorveglianza
  • Slide 6
  • Obiettivi della tesi face recognition e non face detection (si usato OpenCV per questo) obiettivo principale: implementare pi algoritmi di riconoscimento per valutarne laccuratezza, la velocit, vantaggi e svantaggi uso del dataset di foto di volti XM2VTS multi-modale (Centre for Vision, Speech an Signal Processing, CVSSP, University of Surrey, Sussex UK): 1. 295 soggetti 2. 8 differenti posizioni per ogni individuo 3. 720 x 576 pixel ogni immagine suddivisione dataset 6 foto per ogni individuo (75%) -> Training-set 2 foto per ogni individuo (25%) -> Test-set Error rate % come stima della probabilit derrore e quindi dellaccuratezza dellalgoritmo di classificazione script Matlab per lestrazione features e la classificazione
  • Slide 7
  • Aspetti problematici Aspetti problematici del riconoscimento facciale automatico 1. estrazione delle features: attributi necessari per eseguire la classificazione 2. trovare un compromesso fra compressione dei dati in ingresso, per diminuire carico computazionale, e lefficacia del classificatore Metodologie di riduzione della dimensionalit Lineari 1. Principal Component Analysis (PCA) 2. Linear Discriminat Analysis o di Fisher (LDA) 3. Singular Value Decomposition (SVD) Non Lineari 1. Kernel PCA 2. Radial Basis Function (RBF) 3. Self-Organizing Map o Mappe di Kohonen (SOM)
  • Slide 8
  • Tecniche di classificazione Una volta calcolate le features si usano i classificatori automatici: 1. classificatore bayesiano con assunzione gaussiana o con mistura di gaussiane 2. classificatore K-NN con distanza euclidea 3. classificatore K-NN con distanza auto-appresa con SNN 4. classificatore K-NN con distanza dal centroide di ogni soggetto
  • Slide 9
  • Classificatore bayesiano Classificatore bayesiano (T. di Bayes) 1,, c classi x R n features come variabile aleatoria P( i |x) probabilit a posteriori (posterior probability) di i data losservazione x P(x| i ) verosomiglianza (likelihood o class conditional) di x data i -> da stimare P( i ) probabilit a priori di i (prior probability) P(x, i ) probabilit congiunta (joint probability) di x e i p(x) fattore di normalizzazione chiamato evidenza (pu essere tolto poich indipendente da classe i ) Discriminante della classe: si massimizza la posterior probability
  • Slide 10
  • Stima parametrica supervisionata Stima parametrica supervisionata della verosomiglianza dati n campioni appartenenti ad una data classe Y={y 1,.., y n }, distribuiti i.i.d. secondo una certa funzione di forma nota p(y, ), stimare un vettore di p-parametri =( 1,.., p ) stima a massima verosomiglianza, si massimizza: se si assume p(y k | ) gaussiana multivariata poi si sostituisce la verosomiglianza nel T. di Bayes e si trova la posterior probability e quindi il discriminante classificatore Nearest Neighbor K elevati -> stima troppo mediata della posterior probability (si allontana troppo da punto x 0 )">
  • Classificatore K-NN classificatore K-Nearest Neighbor (K-NN) sia Y n = {x 1, x 2, , x n } il campione di training etichettato con le classi di appartenenza e x 0 il pattern da classificare regola di decisione K-NN considera i K pattern di Y n pi vicini al punto x 0, a minima distanza euclidea, e assegna x 0 alla classe i se e solo se quella avente frequenza pi alta rispetto a tutte le altre in questo sotto-campione di K osservazioni K=1 -> classificatore Nearest Neighbor K elevati -> stima troppo mediata della posterior probability (si allontana troppo da punto x 0 )
  • Slide 13
  • Reti Neurali di Similarit (SNN) 1/2 MLP con coppie (x, y) in input e output f SNN (x, y) {0,1} simile/dissimile, usato al posto della distanza euclidea in K-NN
  • Slide 14
  • Reti Neurali di Similarit (SNN) 2/2 Propriet delle SNN, dato il set di pesi e soglie 1. f SNN (x, y, ) 0 (non negativit, data da funzione attivazione sigmoidale nelloutput layer) 2. f SNN (x, y, ) = f SNN (y, x, ) (simmetria, data dallarchitettura doppia e a pesi condivisi della slide precedente) La distanza in uscita non una metrica, cio non valgono 1. f SNN (x, y, ) f SNN (x, z, ) + f SNN (z, y, ) (disug. triangolare) 2. f SNN (x, x, ) = 0 (autosimilarit, pu comunque essere appresa dai dati)
  • Slide 15
  • Estrattori di features 1/2 aspetto pi delicato del riconoscimento facciale servono a ridurre la dimensionalit di un problema computazionalmente oneroso -> estrarre dai dati in input, con poche perdite, informazione rilevante ai fini della classificazione metodologie di riduzione della dimensionalit standard lineari/non lineari PCA, LDA, SVD Kernel PCA, SOM, RBF
  • Slide 16
  • Estrattori di features 2/2 Estrattori di features utilizzati: 1. Active Shape Model (ASM) sfrutta solo i parametri di forma del volto: lineamenti facciali come ovale, bocca, naso, occhi e sopraccigli 2. Active Appearance Model (AAM) sfrutta solo la texture dellimmagine cio lintera informazione presente nei pixel. Considera solo lellisse del volto (usa ground-truth) 3. Eigenfaces trasforma le immagini in un piccolo set di features chiamato eigenfaces, usate come componenti principali per il training-set. Riconoscimento proiettando nuove immagini nel sotto-spazio degli eigenfaces (chiamato face-space) e comparando la posizione con quella delle facce del training-set
  • Slide 17
  • Active Shape Model (ASM) 1/3 Active Shape Model (ASM): modello di forma attivo, usato software scritto da Ilaria Castelli n=68 landmark di riferimento ognuno con due coordinate (x i,y i ): occhi, bocca, naso, sopraccigli e ovale calcolo automatico dei landmark nel nuovo volto e successiva classificazione contorno medio calcolato sul training- set partendo da ground-truth 1 a fase: posizionamento shape media considerando il centro del bounding- box trovato con OpenCV 2 a fase: allineamento iterativo shape, spostamento punti in modo da minimizzare le somme delle distanze dalla shape media convergenza quando ce poca differenza fra shape di 2 iterazioni successive
  • Slide 18
  • Active Shape Model (ASM) 2/3 problema: individuare le nuove posizioni in cui spostare i landmark edge detection: tecniche per individuare brusche variazioni dei livelli di illuminazione (si trovano i contorni degli oggetti): si basano su calcolo derivate prime e seconde dei livelli di grigio ricerca edge principali problema: rumore -> soluzione: filtri vari (Gabor,..) di solito ci si sposta lungo la normale alla shape passante per il punto in esame nel lavoro di Ilaria Castelli si usano delle reti neurali addestrate per spostarsi allinterno di una sezione ellittica nellintorno del punto considerato nella direzione pi verosimile
  • Slide 19
  • Active Shape Model (ASM) 3/3 una volta calcolati i landmark si esegue riduzione di dimensionalit con PCA 1. calcolo shape media dal training-set allineato (s=numero soggetti del training-set) 2. calcolo matrice covarianza S dei dati (2n x 2n) 3. individuare i t modi di variazione in grado di spiegare la maggior parte dellintera varianza T, ottenuta come somma degli autovalori di S (in ordine crescente) 4. vogliamo che venga spiegata una certa percentuale f (99%) della varianza e si sceglie t in modo che 5. ogni shape appartenente al training-set pu essere approssimata combinando la shape media con una somma pesata dei primi t autovettori dove =( 1 |..| t ) una matrice 2n x t costituita dai primi t autovettori di S e b un vettore t-dimensionale contenente i coefficienti di pesatura degli autovettori 6. il vettore b che contiene i parametri del modello deformabile, usato poi per la classificazione, viene calcolato come
  • Slide 20
  • Active Appearance Model (AAM) 1/4 Active Appearance Model (AAM): modello di apparenza attivo, usato software scritto da Stefano Melacci 1. ricerca landmark con ASM 2. ritaglio del volto tramite i landmark: vengono tolti sfondo, capelli e orecchie 3. normalizzazione alla shape media 4. viene usato approccio statistico simile agli Eigenfaces ridimensionamento immagini a causa di problemi di memoria
  • Slide 21
  • Active Appearance Model (AAM) 2/4 si campiona lintensit dei livelli di grigio dellimmagine normalizzata e ritagliata per formare un vettore delle texture g im per limitare leffetto di una variazione globale di luce si applica una offset e un fattore di scala g=(g im - I)/ e sono scelti in modo da far combaciare g im con quello della media dei dati normalizzati, cio dove n il numero degli elementi del vettore di texture g im applicando la PCA ai dati normalizzati si ottiene un modello lineare del tipo dove P g un insieme di modi di variazione ortogonali e b g un gruppo di parametri dei livelli di grigio nuove texture dellimmagine possono essere ricavate variando i parametri b g, e (processo iterativo) i parametri b g (modi) vengono usati direttamente per la classificazione
  • Slide 22
  • Active Appearance Model (AAM) 3/4 iterazioni dellalgoritmo AAM: posa della texture media e modifica iterativa della texture fino a ricalcare la texture del nuovo volto aspetto pi critico: posizionamento iniziale texture media sul centro degli occhi
  • Slide 23
  • Active Appearance Model (AAM) 4/4 fino ad ora si usata la sola Texture ma si pu estendere il modello usando lAppearance (Texture + Shape ASM) considerando oltre ai modi b g anche quelli b s dellASM si mette tutto in ununico vettore costruendo la parte dovuta agli ASM nello stesso modo di AAM dove W s una matrice diagonale con i pesi da applicare ad ogni parametro di forma (di solito W s =rI, con r 2 rapporto fra variazione totale nella texture e la variazione totale nella shape normalizzata) si applica la PCA al vettore combinato b e si arriva al modello dove P c sono gli autovettori e c un vettore con i parametri di appearance (usati per la classificazione)
  • Slide 24
  • Eigenfaces 1/4 Eigenfaces : auto-facce, usato mio script Matlab immagine come vettore bidimensionale di livelli di grigio NxN o come un punto in uno spazio N 2 : le immagini del volto non saranno distribuite in maniera casuale in questo grande spazio -> potrebbero essere rappresentate anche in un sottospazio, chiamato face-space, accoppiando le correlazioni fra immagini mediante PCA ogni vettore che rappresenta un volto viene considerato come combinazione lineare dellimmagine del volto originale i vettori della PCA (che sono gli autovettori della matrice di covarianza) vengono chiamati eigenfaces
  • Slide 25
  • Eigenfaces 2/4 1. sia 1,.., M il training-set dei volti 2. definiamo la faccia media 3. ogni volto differisce da quello medio del vettore 4. la matrice di covarianza C, N 2 xN 2 , determina N 2 autovettori ed autovalori, troppo elevato 5. se il numero di immagini minore della dimensione dello spazio di ogni singola figura (M si trovano M autovettori della matrice, MxM, L=A T A 6. le immagini degli eigenface calcolate dagli autovettori di L formano una base mediante la quale descrivere tutte le immagini dei volti 7. dato che non richiesta una ricostruzione accurata del volto per la classificazione si usa un valore M
  • Risultati sperimentali Considerazioni 3/4 Problema in caso di un volto nuovo non presente nel dataset si risolve apprendendo una distanza di soglia (fra features) al di sopra della quale considerare i volti come sconosciuti -> se troppo bassa ho troppi rigetti, se troppo alta potrebbe condurre a riconoscere anche soggetti che non sono presenti nel dataset uso di unulteriore soglia per controllare inizialmente se nellimmagine sia presente effettivamente un volto Problemi maggiori quando il soggetto in esame risulta completamente diverso dai volti della stessa persona appresi nel training-set
  • Slide 33
  • Risultati sperimentali Considerazioni 4/4 Esperimenti con K-NN al variare di K (da 1 a 1770) andamenti dellError rate % molto simili: diminuzione fino a minimo assoluto, fluttuazioni in aumento per poi ridiminuire allo stesso valore di K=1 per K=1770. se K=1770 ritorno allo stesso Error rate % del caso K=1 alcune volte saranno riportate solamente le prove per K fino a 10 o 20 perch in questo range si hanno i risultati migliori Variante del classificatore K-NN con distanza dal centroide invece che da tutti i soggetti (indipendente da K) risultati migliori eccetto che per gli Eigenfaces Variante normalizzando le features -> risultati identici poich rapporto fra feature massima e minima di soli 2,5 Dove non specificato tutte le prove sono state eseguite solo sui livelli di grigio (conversione da RGB)
  • Slide 34
  • Risultati sperimentali ASM 1/3 Classificatore parametrico gaussiano con ASM uso 36 parametri b estratti con ASM vedi tabella dell Hit @ n %: percentuale di volti identificati se si considera riconosciuto un individuo quando compare fra le n classi pi probabili scelte dal classificatore nHit @ n %n 118,01143,1 224,61244,1 328,61345,1 430,81446,6 533,61548,0 634,91648,5 736,61749,2 838,11850,3 939,21950,8 1040,22051,7 risultati scadenti anche aumentando n -> features b insufficienti e molto confuse fra soggetto e soggetto, anche con i ground-truth
  • Slide 35
  • Risultati sperimentali ASM 2/3 Classificatore parametrico gaussiano con ASM uso le 68 coordinate dei ground-truth vedi tabella dell Error rate %: si variano gli elementi usati occhi meno rappresentativi della bocca naso meno rappresentativo della bocca ma pi degli occhi sopraccigli con varianza troppo alta servono poco ovale molto importante risultati leggermente migliori rispetto ai parametri b Features Elementi non usati nError rate % coordinate nessuno 1100,0 2 occhi sopraccigli 169,0 261,5 bocca sopraccigli 170,5 258,9 sopraccigli 163,7 255,6 Features Elementi usati nError rate % b + coordinate ovale occhi 167,6 258,6 ovale naso 166,3 256,6 ovale bocca 163,9 254,2
  • Slide 36
  • Risultati sperimentali ASM 3/3 Classificatore parametrico con mistura di gaussiane multivariate e ASM Prove con c=2 e c=6 problemi di inversione delle matrici di covarianza Anche se il metodo pi generale i risultati sono comparabili con quelli precedenti parametri da stimare mixing parameters soluzione iterativa
  • Slide 37
  • Risultati sperimentali K-NN con ASM 1/3 Classificatore K-NN e ASM KError rate %K 181,72081,4 281,73080,7 381,74082,5 481,75082,4 581,26082,7 681,57082,5 781,08082,9 880,59083,4 981,210083,1 1081,420086,4 1180,330086,4 1280,540085,6 1380,750084,9 1481,060085,4 1581,070085,8 1681,280084,9 1781,090084,1 1880,5100084,1 1980,5177081,7 risultati comparabili a quelli del classificatore gaussiano -> parametri b insufficienti versione con distanza da centroide: Error rate 76,6 %
  • Slide 38
  • Risultati sperimentali K-NN con ASM 2/3 Classificatore K-NN e ASM variando le features K Error rate % coordinateb + coordinate Elementi non usatiElementi usati occhi sopraccigli bocca sopraccigli sopraccigli ovale occhi ovale naso ovale bocca 164,669,360,572,067,365,9 264,669,360,572,067,365,9 363,768,159,771,566,864,7 462,568,159,870,366,664,0 562,967,860,771,066,464,4 663,767,461,371,265,864,1 763,467,861,572,266,164,2 864,068,162,571,566,363,9 964,667,663,670,566,864,6 1065,666,763,672,267,664,1 risultati leggermente migliori
  • Slide 39
  • Risultati sperimentali K-NN con ASM 3/3 Classificatore K-NN e ASM variando le features (distanza da centroide) risultati leggermente migliori Error rate % coordinateb + coordinate Elementi non usatiElementi usati occhi sopraccigli bocca sopraccigli sopraccigli ovale occhi ovale naso ovale bocca 62,065,658,669,564,965,2
  • Slide 40
  • Risultati sperimentali K-NN con AAM 1/5 Classificatore K-NN e AAM mh=192 vc=0,97 Texture 775 modi Appearance 26 modi K K-NNCentroide TextureAppearanceTextureAppearance Error rate % 113,452,97,649,2 213,452,9 315,852,9 417,652,5 520,752,4 621,953,4 724,055,1 826,154,4 926,454,4 1027,854,6 risultati molto buoni
  • Slide 41
  • Risultati sperimentali K-NN con AAM 2/5 Classificatore K-NN e AAM vc=cost mh dimezzato Error rate % praticamente inalterato con tempi di calcolo per migliori K K-NNCentroide TextureAppearanceTextureAppearance Error rate % 113,952,97,149,2 213,952,9 316,152,9 418,052,5 520,752,4 622,453,4 724,755,1 826,154,4 926,954,4 1028,054,6 mh=96 vc=0,97 Texture 733 modi Appearance 26 modi
  • Slide 42
  • Risultati sperimentali K-NN con AAM 3/5 Classificatore K-NN e AAM vc diminuito mh=cost Error rate % migliora nel K-NN standard e peggiora di poco col centroide mh=96 vc=0,93 Texture 443 modi Appearance 17 modi K K-NNCentroide TextureAppearanceTextureAppearance Error rate % 111,558,88,056,8 211,558,8 314,257,6 415,158,6 517,858,3 619,059,7 720,360,2 822,460,5 924,260,5 1024,760,8
  • Slide 43
  • Risultati sperimentali K-NN con AAM 4/5 Classificatore K-NN e AAM vc=cost mh dimezzato Error rate %, nonostante i parametri di texture siano diminuiti, peggiora nel K-NN standard e peggiora di poco col centroide mh=48 vc=0,97 Texture 523 modi Appearance 26 modi K K-NNCentroide TextureAppearanceTextureAppearance Error rate % 114,652,98,049,3 214,652,9 317,152,9 419,052,4 521,452,4 622,953,4 724,655,1 825,853,9 926,854,2 1027,854,4
  • Slide 44
  • Risultati sperimentali K-NN con AAM 5/5 Classificatore K-NN e AAM Considerazioni generali a parit di vc, cambiando le dimensioni dellimmagine, i risultati usando lappearance sono rimasti identici, dato che anche il numero di modi su cui fare la classificazione rimangono costanti nel caso delluso dellappearance si visto anche come laccuratezza, a causa dei pochi parametri a disposizione, sempre risultata molto bassa diminuendo la dimensione dellimmagine, adoperando le texture con il centroide, si sono avuti dei risultati allincirca identici (78 %), ma col vantaggio di una grossa riduzione nel tempo di calcolo in tutti i test eseguiti si pu notare come lerrore sia molto minore, praticamente dimezzato in certi casi, usando il classificatore basato sui centroidi, che fra laltro risulta molto pi veloce di quello standard
  • Slide 45
  • Risultati sperimentali K-NN con Eigenfaces 1/2 Classificatore K-NN e Eigenfaces usato il 100 % dei modi K su tutta limmagine Eigenfacesb + Eigenfaces coordinate senza sopraccigli + Eigenfaces YCbCr 133,2 24,7 233,2 24,7 340,3 24,7 447,347,5 26,4 553,7 28,3 659,1 28,5 762,7 28,6 866,4 30,7 967,6 32,0 1069,769,8 31,9 Error rate % aumenta continuamente allaumentare di K Usando tutti i canali di colore risultati leggermente migliori Eigenfaces migliore di ASM ma peggiore di AAM
  • Slide 46
  • Risultati sperimentali K-NN con Eigenfaces 2/2 Classificatore K-NN e Eigenfaces usato il 100 % dei modi -> risultati migliori ritagliando lovale K sullovale ritagliato Eigenfacesb + Eigenfaces coordinate senza sopraccigli YCbCr 128,6 20,2 228,6 20,2 331,7 20,2 434,234,4 21,9 537,1 23,8 639,5 24,0 741,2 24,1 843,6 26,2 944,7 27,5 1045,345,4 27,4 Error rate % aumenta continuamente allaumentare di K Usando tutti i canali di colore risultati leggermente migliori Eigenfaces migliore di ASM ma peggiore di AAM
  • Slide 47
  • Risultati sperimentali K-NN con SNN 1/2 Classificatore K-NN e SNN K No ValidazioneValidazione K-NN standard Centroide K-NN standard Centroide Error rate % 195,791,390,786,4 295,790,7 396,191,0 496,391,4 si sono usati i parametri b calcolati con ASM uso distanza calcolata con SNN al posto di quella euclidea dentro il classificatore K-NN addestramento SNN variando numero di neuroni nel layer nascosto, numero di epoche e con o senza validation-set (per evitare overfitting) stata usata la rete neurale che aveva dato risultati dapprendimento migliori Error rate % disastroso Migliori risultati usando il centroide, comparabili a quelli del classificatore parametrico gaussiano
  • Slide 48
  • Risultati sperimentali K-NN con SNN 2/2 Classificatore K-NN e SNN Tipo norma (K = 1) solo norma solo SNN norma+SNNnorma*SNN Error rate % 168,590,068,589,0 265,090,065,089,0 76,090,076,589,5 Frobenius65,090,065,089,0 variante che sfrutta sia la distanza auto-appresa con SNN sia quella euclidea Error rate % rimane disastroso Risultati comunque peggiori di quando viene usata la sola norma euclidea
  • Slide 49
  • Risultati sperimentali K-NN con Mistura di esperti 1/2 Classificatore a mistura di esperti AAM e Eigenfaces Classificatore Centroide mh = 192 vc = 0,97 mh = 96 vc = 0,97 mh = 48 vc = 0,97 Error rate % AAM + Eigenfaces su YCbCr e Gray 15,615,316,3 AAM + Eigenfaces su YCbCr 11,711,212,4 AAM + Eigenfaces su YCb 7,16,87,8 1 ipotesi per esperto classificatore con distanza dal centroide non si hanno grandi miglioramenti rispetto al solo metodo AAM
  • Slide 50
  • Risultati sperimentali K-NN con Mistura di esperti 2/2 Classificatore a mistura di esperti AAM e Eigenfaces 2 ipotesi per esperto classificatore con distanza dal centroide si hanno dei lievi miglioramenti rispetto al solo metodo AAM Classificatore Centroide mh = 192 vc = 0,97 mh = 96 vc = 0,97 mh = 48 vc = 0,97 Error rate % AAM + Eigenfaces su Gray 6,36,86,9 AAM + Eigenfaces su RGB 3,2 AAM + Eigenfaces su RG 3,4 3,2 AAM + Eigenfaces su R 3,9 4,1 AAM + Eigenfaces su Y 3,9 4,1 AAM + Eigenfaces su Cb 8,5 8,6 AAM + Eigenfaces su Cr 7,56,97,8 AAM + Eigenfaces su YCr 2,2 2,5 AAM + Eigenfaces su CbCr 8,8 9,0
  • Slide 51
  • Riepilogo test con ASM ClassificatoreFeatures Error rate % Note Gaussiano b82,0 n = 1 coordinate63,7 b + coordinate63,9 K-NN standard b80,3K = 11 coordinate59,7K = 3 b + coordinate63,9K = 8 centroide b80,3 coordinate59,7 b + coordinate63,9
  • Slide 52
  • Riepilogo test con AAM ClassificatoreFeatures Error rate % NoteClassificatoreFeatures K-NN standard mh = 192 vc = 0,97 AAM Texture13,4K = 1 AAM Appearance52,9K = 1 mh = 96 vc = 0,97 AAM Texture13,9K = 1 AAM Appearance52,9K = 1 mh = 96 vc = 0,93 AAM Texture11,5K = 1 AAM Appearance57,6K = 3 mh = 96 vc = 0,90 AAM Texture10,7K = 1 AAM Appearance65,4K = 5 mh = 48 vc = 0,97 AAM Texture14,6K = 1 AAM Appearance52,4K = 5 centroide mh = 192 vc = 0,97 AAM Texture7,6 AAM Appearance49,2 mh = 96 vc = 0,97 AAM Texture7,1 AAM Appearance49,2 mh = 96 vc = 0,93 AAM Texture8,0 AAM Appearance56,8 mh = 96 vc = 0,90 AAM Texture7,8 AAM Appearance62,9 mh = 48 vc = 0,97 AAM Texture8,0 AAM Appearance49,3
  • Slide 53
  • Riepilogo test con Eigenface e SNN ClassificatoreFeatures Error rate % NoteClassificatore K-NN non cropped Eigenfaces33,2K = 1 Eigenfaces + b33,2K = 1 Eigenfaces + coordinate33,2K = 1 Eigenfaces + RGB24,9K = 1 Eigenfaces + YCbCr24,7K = 1 cropped Eigenfaces28,6K = 1 Eigenfaces + b28,6K = 1 Eigenfaces + coordinate28,6K = 1 K-NNcentroide SNN90,7 SNN+distanza euclidea65,0
  • Slide 54
  • Conclusioni Metodi singoli su livelli di grigio (Error rate %) ASM scadenti sia con classificatore gaussiano che con K-NN-> features insufficienti, anche con ground-truth (59 %) Eigenfaces cropped migliore ma ancora deludenti (33 %) AAM e appearance migliore di ASM ma ancora scadente (49 %) AAM e texture migliore come metodo singolo (7 %) SNN risultati pessimi (90 %) Metodi con mistura di esperti, usati spesso nei sistemi commerciali di riconoscimento (Error rate %) AAM su livelli di grigio + Eigenfaces su RGB risultati migliori in assoluto (3 %) -> contro: complessit computazionale e velocit di riconoscimento Risultati soddisfacenti e tali da poter gi provare ad implementare il metodo in un sistema reale
  • Slide 55
  • Sviluppi futuri Miglioramento dellerrore commesso dai classificatori usare altre misure di distanze: DistBoost, MPDK, RCA e Xing uso di autoassociatori per la compressione dati (senza usare PCA o LDA) Velocizzare gli algoritmi: training, riconoscimento vero e proprio, ri-training (quando deve essere riconosciuto un nuovo soggetto) uso di logiche digitali parallele in applicazioni reali Provare altre misture di esperti mettere dei pesi ai singoli metodi usati nella mistura usare tutti e 3 i canali di colore, oltre a quello del grigio, per tutti i metodi usati nella mistura Provare tutti i classificatori su altri dataset come FERET, etc per vedere se le considerazioni fatte continuano a valere