La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Riconoscimento di forme Docente: Edmondo Trentin

Presentazioni simili


Presentazione sul tema: "Riconoscimento di forme Docente: Edmondo Trentin"— Transcript della presentazione:

1 Riconoscimento di forme Docente: Edmondo Trentin

2 Problemi di classificazione Il cambiamonete Il cambiamonete Riconoscimento del parlato Riconoscimento del parlato Riconoscimento del labiale Riconoscimento del labiale Riconoscimento del parlatore Riconoscimento del parlatore Identificazione per sistemi di sicurezza (iride, impronte digitali) Identificazione per sistemi di sicurezza (iride, impronte digitali) Riconoscimento di caratteri Riconoscimento di caratteri Classificazione di immagini Classificazione di immagini Classificazione in ambito biomedico (ECG) e bioinformatico (genomica funzionale e strutturale) Classificazione in ambito biomedico (ECG) e bioinformatico (genomica funzionale e strutturale)

3 Schema generale del sistema Evento Estrai feature Classifica Classe 1.Nel mondo reale si verifica un EVENTO (es. istanza di un oggetto) 2.Un PROCESSO DI ESTRAZIONE DI FEATURE rappresenta una descrizione digitalizzata dellevento allinterno di uno spazio vettoriale 3.Un PROCESSO DI CLASSIFICAZIONE determina la CLASSE di appartenenza dellevento tra c classi possibili

4 Importanza delle feature Lo stesso problema di classificazione assume difficoltà diversa a seconda delle feature che si hanno a disposizione (es. gender classifier) Lo stesso problema di classificazione assume difficoltà diversa a seconda delle feature che si hanno a disposizione (es. gender classifier) Le feature devono essere il più possibile compatte (dim. ridotta) e informativamente ricche Le feature devono essere il più possibile compatte (dim. ridotta) e informativamente ricche

5 Tipi di feature Numeriche (discrete o continue): numero di pixel neri in una bitmap, frequenza di un suono, angolo di inclinazione di una linea di testo manoscritto, peso e dimensioni di un oggetto, … Numeriche (discrete o continue): numero di pixel neri in una bitmap, frequenza di un suono, angolo di inclinazione di una linea di testo manoscritto, peso e dimensioni di un oggetto, … Simboliche: simboli o stringhe di simboli su un certo alfabeto finito e discreto (es. testi letterari, sequenze aminoacidiche) Simboliche: simboli o stringhe di simboli su un certo alfabeto finito e discreto (es. testi letterari, sequenze aminoacidiche) Qualitative: alto, basso, grosso, piccolo, rosso, blu, buono, cattivo, normale, strano, … Qualitative: alto, basso, grosso, piccolo, rosso, blu, buono, cattivo, normale, strano, … Useremo soprattutto feature numeriche. Quelle qualitative potranno essere codificate con valori numerici.

6 Estrazione di feature: esempio 1

7 Estrazione di feature: esempio 2 Forma donda Coefficenti spettrali

8 Funzione discriminante Sia dato un problema a c classi Sia dato un problema a c classi I pattern x sono vettori d-dimensionali I pattern x sono vettori d-dimensionali Per ogni classe i, i=1,…,c, si cerca di definire una funzione discriminante g(i,x) tale che: g(i,x)>g(j,x) sse x è di classe i Per ogni classe i, i=1,…,c, si cerca di definire una funzione discriminante g(i,x) tale che: g(i,x)>g(j,x) sse x è di classe i Ad ogni nuovo evento, il classificatore si limita dunque a determinarne la classe di appartenenza sulla base della funzione discriminante che ha valore maggiore Ad ogni nuovo evento, il classificatore si limita dunque a determinarne la classe di appartenenza sulla base della funzione discriminante che ha valore maggiore

9 Approccio intuitivo 1: distribuzioni di probabilità delle classi

10 Approccio intuitivo 2: superfici di separazione

11 Programma del corso 1. INTRODUZIONE Esempi di problemi di classificazione. Estrazione di feature e classificatore. Feature numeriche (discrete o continue) e qualitative. Esempi di estrazione di feature. Funzione discriminante. Approcci intuitivi: linea di separazione, superficie di separazione, caratterizzazione statistica della distribuzione. Classificazione su dati statici e dinamici. Richiamo di elemnti di statistica multivariata. La Normale multivariata.

12 2.APPRENDIMENTO SUPERVISIONATO 2.1 Teoria Bayesiana delle decisioni Apprendimento supervisionato. Teorema di Bayes. Rischio Bayesiano, probabilita' di errore, equal error rate. Classificazione: 2-classi vs c-classi. Superfici di separazione. Funzioni discriminanti: il caso notevole della Normale.

13 2.2 Stimatori parametrici Nozione di stimatore parametrico nel caso supervisionato. Stima a massima verosimiglianza (ML). Stima ML per i parametri della Normale. Validazione e generalizzazione: training, validation e test set. Leave-1-out. Many-fold crossvalidation. Bootstrap.

14 2.3 Stimatori nonparametrici Elementi su density estimation e Parzen Window. Tecniche nearest neighbor (NN) e k- NN. Discriminanti lineari (superfici di separazione 2-class/c-class; funzioni discriminanti lineari generalizzate; separabilita' e non-separabilita'; algoritmo di Widrow-Hoff; relazione con i Simple Perceptron); reti neurali artificiali (ANN); universalita'; relazioni tra MLP e classificatori Bayesiani; funzioni a base radiale (RBF); elementi di generalizzazione e regolarizzazione.

15 3. APPRENDIMENTO NON SUPERVISIONATO Misture di densita', identificabilita', stima ML unsuprevised. Stima ML per misture di componenti Gaussiane. Approccio algoritmico: k-means. Clustering: misure di similarita', ottimizzazione iterativa (mse), clustering gerarchico (agglomerativo, partitivo). ANN competitive e loro relazione con k-means; ANN a ML per stima di densita' di probabilita'.

16 4. CLASSIFICAZIONE DI DATI SEQUENZIALI Esempi (OCR e bioinformatica); il problema del riconoscimento del parlato: modello acustico e modello del linguaggio; reti neurali ricorrenti, backpropagation through time, limitazioni. Modelli di Markov nascosti (HMM); i 3 problemi fondamentali, trellis, algoritmi di Baum- Welch e Viterbi, limitazioni. Ibridi ANN/HMM: modello di Rigoll, segmental neural net, approccio di Bengio; uso della rete per stime di probabilita': paradigma di Bourlard&Morgan, paradigma di Trenin&Gori. Applicazioni.

17 5. CENNI ALLA CLASSIFICAZIONE DI DATI STRUTTURATI Dati strutturati e grafi, esempi. ANN ricorsive e encoding net; caso supervisionato e non-supervisionato.


Scaricare ppt "Riconoscimento di forme Docente: Edmondo Trentin"

Presentazioni simili


Annunci Google