PATTERN RECOGNITION.

Slides:



Advertisements
Presentazioni simili
ESERCITAZIONE 2 Come leggere la tavola della normale e la tavola t di Student. Alcune domande teoriche.
Advertisements

Macchine di Percezione
Corso di esperimentazione di fisica 1 Il metodo dei minimi quadrati
Le distribuzioni di probabilità continue
2. Introduzione alla probabilità
Corso di Sistemi di telecomunicazione
Sistemi di Classificazione usando NCD
Distribuzione Normale o Curva di Gauss
Proprietà degli stimatori
2.VARIABILI CONTINUE A. Federico ENEA; Fondazione Ugo Bordoni Scuola estiva di fonetica forense Soriano al Cimino 17 – 21 settembre 2007.
Campione e campionamento
Riconoscimento di forme
Classificatore bayesiano
Funzione di distribuzione (detta anche cumulativa o di ripartizione)
CAMPIONE E CAMPIONAMENTO
Pattern Recognition con Reti Neurali MLP
Progetto Pilota 2 Lettura e interpretazione dei risultati
Metodi Quantitativi per Economia, Finanza e Management Lezione n°8
Metodi Quantitativi per Economia, Finanza e Management Lezione n° 11.
redditività var. continua classi di redditività ( < 0 ; >= 0)
Metodi Quantitativi per Economia, Finanza e Management Lezione n°8.
Apprendimento Bayesiano
Valutazione delle ipotesi
Apprendimento di funzioni algebriche
Computational Learning Theory and PAC learning
Apprendimento Bayesiano
LA COMPATIBILITA’ tra due misure:
Metodi Quantitativi per Economia, Finanza e Management Lezione n° 9.
Realizzazione e caratterizzazione di una semplice rete neurale per la separazione di due campioni di eventi Vincenzo Izzo.
Corso di biomatematica lezione 5: propagazione degli errori
Corso di biomatematica lezione 4: La funzione di Gauss
Teoria e Tecniche del Riconoscimento
BIOINGEGNERIA S. Salinari Lezione 4.
TECNOLOGIE DEI SISTEMI DI CONTROLLO
BIOINGEGNERIA S. Salinari Lezione 7. RETI CON APPRENDIMENTO SUPERVISIONATO A DISTANZA Nello sviluppo delle reti neurali si è proceduto indebolendo via.
STATISTICA a.a PARAMETRO t DI STUDENT
ISTOGRAMMI E DISTRIBUZIONI : i xixi
Modelli simulativi per le Scienze Cognitive Paolo Bouquet (Università di Trento) Marco Casarotti (Università di Padova)
Modelli probabilistici
Analisi dei gruppi – Cluster Analisys
Determinazione Orbitale di Satelliti Artificiali Lezione 5
Intelligenza Artificiale Algoritmi Genetici
Intelligenza Artificiale
Parte I (introduzione) Taratura degli strumenti (cfr: UNI 4546) Si parla di taratura in regime statico se lo strumento verrà utilizzato soltanto per misurare.
Regressione Logistica
La Classificazione supervisionata
Le distribuzioni campionarie
Modelli predittivi delle agenzie di rating internazionali: il modello MEU evoluto (maximum expected utility) Mattia Ciprian*, Daria Marassi°, Valentino.
Errori casuali Si dicono casuali tutti quegli errori che possono avvenire, con la stessa probabilità, sia in difetto che in eccesso. Data questa caratteristica,
Errori casuali Si dicono casuali tutti quegli errori che possono avvenire, con la stessa probabilità, sia in difetto che in eccesso. Data questa caratteristica,
Università degli Studi di Cagliari
Esercizio Regressione DATI Per un campione casuale di 82 clienti di un'insegna della GDO, sono disponibili le seguenti variabili, riferite ad un mese di.
La verifica d’ipotesi Docente Dott. Nappo Daniela
Domande riepilogative per l’esame
R. Soncini Sessa, MODSS, L 26 Stima degli effetti Calcolo degli obiettivi (Laplace) Rodolfo Soncini Sessa MODSS Copyright 2004 © Rodolfo Soncini.
Strumenti statistici in Excell
Il residuo nella predizione
IL CAMPIONE.
R. Soncini Sessa, MODSS, L21 Accettare la casualità Rodolfo Soncini Sessa MODSS Copyright 2004 © Rodolfo Soncini Sessa.
RETI NEURALI ARTIFICIALI
Analisi discriminante lineare - contesto
Intervallo di Confidenza Prof. Ing. Carla Raffaelli A.A:
“Teoria e metodi della ricerca sociale e organizzativa”
APPROSSIMAZIONE DI FUNZIONI
Elaborazione statistica di dati
TRATTAMENTO STATISTICO DEI DATI ANALITICI
Pattern Recognition Lez.14: Miscugli di Gaussiane.
Operazioni di campionamento CAMPIONAMENTO Tutte le operazioni effettuate per ottenere informazioni sul sito /area da monitorare (a parte quelle di analisi)
Esercitazione N°5 Approssimazione di Funzioni. Esercizio 1 Costruzione di una rete RBF Il metodo più semplice per approssimare una funzione mediante reti.
Scienze tecniche e psicologiche
Transcript della presentazione:

PATTERN RECOGNITION

PR-1 L’obiettivo del Pattern Recognition è quello di progettare un sistema (CLASSIFICATORE) che assegni automaticmente il valore di una misura alla classe corrispondente Lo spazio degli ingressi è suddiviso in regioni mediante superfici di decisione Superficie di decisione Classificazione senza errori (insiemi linearmente separabili) x1 x2 Superficie di decisione x1 x2 Classificazione senza errori (insiemi non linearmente separabili) x1 x2 Superficie di decisione Classificazione con errori (insiemi non linearmente separabili)

PR-2 Il problema centrale è quello di definire la forma e la posizione della superficie di decisione in modo da minimare l’errore commesso dal classificatore CODIFICA: La risposta desiderata sarà un insieme di valori (generalmente interi) Elementi differenti della medesima classe avranno lo stesso valore dell’uscita desiderata Molto utilizzata la codifica binaria Codifica a k cifre  sino a 2k classi Sistema Adattativo Possiamo usare ancora ADALINE e LMS per realizzare un classificatore lineare - Es: ADALINE -1 +1 + LMS y > 0 classe 1 < 0 classe 2 - d (-1,+1) x Buone prestazioni se il problema è linearmente separabile I concetti usati per la regressione possono essere in gran parte riutilizzati nel pattern-recognition

Formulazione Statistica PR-3 Un classificatore è ottimo se attribuisce il dato x alla classe Ci che massimizza la probabilità a posteriori P(Ci|x) cioè Problema: la probabilità a posteriori non può essere misurata direttamente REGOLA DI BAYES con: P(Ci ): probabilità a priori della classe Ci p(x|Ci ): verosimiglianza (likelihood) che il dato x sia prodotto dalla classe Ci P(x): fattore di normalizzazione NOTA: Questi valori possono essere calcolati partendo dai dati misurati, purché si assuma nota la loro funzione densità di probabilità pdf Spesso si assume una distribuzione Gaussiana e i soli dati occorrenti sono la media e la varianza

Assumiamo una distribuzione Gaussiana PR-4 Assumiamo una distribuzione Gaussiana con: Generalmente si assume una certa probabilità a priori P(Ci). Sarà: Es: s1 s2 P(x|C1) P(C1) P(x|C2) P(C2) soglia m1 m2 prob. a posteriori La soglia corrisponde a valori uguali di probabilità a posteriori La classificazione non è immune da errori Minore è la sovrapposizione migliore è l’accuratezza della classificazione

Limiti dell’approccio: assunzione della pdf dei dati di input La teoria statistica prova che è facile costruire un classificatore ottimo a partire dalla conoscenza dei dati, purché si assuma per essi una distribuzione Gaussiana Limiti dell’approccio: assunzione della pdf dei dati di input necessità di un numero sufficiente di dati per stimare con sufficiente precisione le funzioni discriminanti Dobbiamo cercare di costruire dei classificatori che non necessitino di alcuna assunzione sulle pdf dei cluster di dati RETE NEURALE ARTIFICIALE è uno dei tipi più interessanti di classificatori