La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

PATTERN RECOGNITION. Lobiettivo del Pattern Recognition è quello di progettare un sistema (CLASSIFICATORE) che assegni automaticmente il valore di una.

Presentazioni simili


Presentazione sul tema: "PATTERN RECOGNITION. Lobiettivo del Pattern Recognition è quello di progettare un sistema (CLASSIFICATORE) che assegni automaticmente il valore di una."— Transcript della presentazione:

1 PATTERN RECOGNITION

2 Lobiettivo del Pattern Recognition è quello di progettare un sistema (CLASSIFICATORE) che assegni automaticmente il valore di una misura alla classe corrispondente superfici di decisioneLo spazio degli ingressi è suddiviso in regioni mediante superfici di decisione PR-1 Superficie di decisione Classificazione senza errori (insiemi linearmente separabili) x1x1 x2x2 Superficie di decisione x1x1 x2x2 Classificazione senza errori (insiemi non linearmente separabili) x1x1 x2x2 Superficie di decisione Classificazione con errori (insiemi non linearmente separabili)

3 PR-2 Il problema centrale è quello di definire la forma e la posizione della superficie di decisione in modo da minimare lerrore commesso dal classificatore CODIFICA: La risposta desiderata sarà un insieme di valori (generalmente interi) –Elementi differenti della medesima classe avranno lo stesso valore delluscita desiderata –Molto utilizzata la codifica binaria –Codifica a k cifre sino a 2 k classi Sistema Adattativo Possiamo usare ancora ADALINE e LMS per realizzare un classificatore lineare - Es: ADALINE +1 + LMS y > 0 classe 1 < 0 classe 2 - d (-1,+1) x Buone prestazioni se il problema è linearmente separabile I concetti usati per la regressione possono essere in gran parte riutilizzati nel pattern-recognition

4 PR-3 Formulazione Statistica Un classificatore è ottimo se attribuisce il dato x alla classe C i che massimizza la probabilità a posteriori P(C i |x) cioè Problema:la probabilità a posteriori non può essere misurata direttamente P(C i ):probabilità a priori della classe C i p(x|C i ):verosimiglianza (likelihood) che il dato x sia prodotto dalla classe C i P(x):fattore di normalizzazione NOTA: Questi valori possono essere calcolati partendo dai dati misurati, purché si assuma nota la loro funzione densità di probabilità pdf Spesso si assume una distribuzione Gaussiana e i soli dati occorrenti sono la media e la varianza REGOLA DI BAYES con:

5 PR-4 Assumiamo una distribuzione Gaussiana con: Generalmente si assume una certa probabilità a priori P(C i ). Sarà: Es: P(x|C 1 ) P(C 1 ) P(x|C 2 ) P(C 2 ) soglia prob. a posteriori La soglia corrisponde a valori uguali di probabilità a posteriori La classificazione non è immune da errori Minore è la sovrapposizione migliore è laccuratezza della classificazione

6 PR-5 La teoria statistica prova che è facile costruire un classificatore ottimo a partire dalla conoscenza dei dati, purché si assuma per essi una distribuzione Gaussiana Limiti dellapproccio: –assunzione della pdf dei dati di input –necessità di un numero sufficiente di dati per stimare con sufficiente precisione le funzioni discriminanti Dobbiamo cercare di costruire dei classificatori che non necessitino di alcuna assunzione sulle pdf dei cluster di dati RETE NEURALE ARTIFICIALE è uno dei tipi più interessanti di classificatori


Scaricare ppt "PATTERN RECOGNITION. Lobiettivo del Pattern Recognition è quello di progettare un sistema (CLASSIFICATORE) che assegni automaticmente il valore di una."

Presentazioni simili


Annunci Google