RETI NEURALI ARTIFICIALI

Slides:



Advertisements
Presentazioni simili
Filtri FIR.
Advertisements

Apprendimento Automatico Apprendimento supervisionato
Capitolo 8 Sistemi lineari.
Integrazione Corso: Analisi Numerica Anno Accademico:
ODE PROBLEMA DI CAUCHY IN 1-D Sia f : I x RR, I  R.
Primo sguardo a metodi multivariati per l'analisi del ttH
Pattern Recognition con Reti Neurali MLP
Metodi Quantitativi per Economia, Finanza e Management Lezione n°8
Metodi Quantitativi per Economia, Finanza e Management Lezione n° 11.
ALGORITMI DI OTTIMIZZAZIONE PER L'ADDESTRAMENTO DI RETI NEURALI
Reti Neurali: studi sull'intelligenza artificiale
Ipotesi e proprietà dello stimatore Ordinary Least Squares (OLS)
Apprendimento di funzioni algebriche
Valutazione delle ipotesi
Apprendimento di funzioni algebriche
Computational Learning Theory and PAC learning
Support Vector Machines
Support Vector Machines
Inversione differenziale della Cinematica
Metodi Quantitativi per Economia, Finanza e Management Lezione n° 9.
Reti neurali naturali ed artificiali
Apprendimento: Regola “Delta”
Realizzazione e caratterizzazione di una semplice rete neurale per la separazione di due campioni di eventi Vincenzo Izzo.
Soluzione di equazioni non lineari
Sistemi di equazioni lineari
Ricerca della Legge di Controllo
INGEGNERIA CLINICA E BIOMEDICA
BIOINGEGNERIA S. Salinari Lezione 4.
TECNOLOGIE DEI SISTEMI DI CONTROLLO
BIOINGEGNERIA S. Salinari Lezione 7. RETI CON APPRENDIMENTO SUPERVISIONATO A DISTANZA Nello sviluppo delle reti neurali si è proceduto indebolendo via.
Modelli simulativi per le Scienze Cognitive Paolo Bouquet (Università di Trento) Marco Casarotti (Università di Padova)
Modelli simulativi per le Scienze Cognitive Paolo Bouquet (Università di Trento) Marco Casarotti (Università di Padova)
Modelli simulativi per le Scienze Cognitive
Modelli probabilistici
Studente Claudia Puzzo
Filtri adattativi.
PATTERN RECOGNITION.
Reti Neurali Ricorrenti
Reti Neurali Mercoledì, 10 Novembre 2004 Giuseppe Manco References: Chapter 4, Mitchell Chapter 1-2,4, Haykin Chapter 1-4, Bishop Reti Neurali Lezione.
Determinazione Orbitale di Satelliti Artificiali Lezione 5
Intelligenza Artificiale
Apprendimento Automatico Apprendimento non supervisionato:
Il calcolo di radiosity
APPLICAZIONI DI INTELLIGENZA ARTIFICIALE ALLA MEDICINA
Propagazione degli errori
Lezioni di Ricerca Operativa Corso di Laurea in Informatica
Tecniche descrittive Utilizzano modelli matematici per semplificare le relazioni fra le variabili in studio Il fine è la descrizione semplificata del fenomeno.
Prof. Cerulli – Dott.ssa Gentili
Perceptron. è la somma effettuata sul nodo i-esimo dello strato j n è il numero di nodi dello strato j-1 è l'output proveniente dal nodo k-esimo dello.
IL CAMPIONE.
RETI NEURALI - 2.
Claudio Arbib Università dell’Aquila Ricerca Operativa Metodo del simplesso per problemi di distribuzione single-commodity.
Intelligenza Artificiale
Intelligenza Artificiale Reti Neurali
APPROSSIMAZIONE DI FUNZIONI
Learning Non Supervisionato
FILTRI ANALOGICI E DIGITALI Modulo del Corso Integrato di: Progetto di Circuiti per il Trattamento dei Segnali.
Flusso di Costo Minimo Applicazione di algoritmi: Cammini Minimi Successivi (SSP) Esercizio 1 Sia data la seguente rete di flusso, in cui i valori riportati.
Microeconomia Introduzione Teoria del consumatore Impresa e produzione
1 Equazioni non lineari Data una funzione consideriamo il problema di determinare i valori x tali che Tali valori sono solitamente chiamati zeri o radici.
REALIZZAZIONE DI UN SISTEMA DI CLASSIFICAZIONE Prof. Roberto Tagliaferri Studente: Ragognetti Gianmarco Corso di Reti Neurali e Knowledge Discovery A.A.
L’analisi di regressione e correlazione Prof. Luigi Piemontese.
FILTRI NUMERICI. Introduzione Nel campo nei segnali (analogici o digitali), un sistema lineare tempo-invariante è in grado di effettuare una discriminazione.
Esercitazione N°5 Approssimazione di Funzioni. Esercizio 1 Costruzione di una rete RBF Il metodo più semplice per approssimare una funzione mediante reti.
Regressione semplice e multipla in forma matriciale Metodo dei minimi quadrati Stima di beta Regressione semplice Regressione multipla con 2 predittori.
Le reti neurali Simona Balbi. Cosa sono le reti neurali Una rete neurale artificiale (A)NN è un paradigma di elaborazione dell’informazione ispirato al.
Lezione n° 6 -Ottimi globali e locali -Risoluzione grafica di un problema di PL -Definizione di Iperpiano e Semispazi. -Insiemi convessi. -Politopi e poliedri.
Lezioni di Ricerca Operativa Corso di Laurea in Informatica
Esercitazione N°2 Data Fitting con Modelli Lineari.
Psicometria modulo 1 Scienze tecniche e psicologiche Prof. Carlo Fantoni Dipartimento di Scienze della Vita Università di Trieste Implementazione.
Transcript della presentazione:

RETI NEURALI ARTIFICIALI

PROCESSORE ELEMENTARE RN-1 Le reti neurali sono “learning machine” generali, adattative, non lineari, distribuite, costituite da molti processori elementari (PE) I segnali che fluiscono attraverso le connessioni sono scalati con opportuni parametri modificabili detti pesi (wij) Il singolo PE somma tutti questi contributi e produce un’uscita che è una funzione non lineare di tale somma PROCESSORE ELEMENTARE f(.) . . . S x1 x2 xD w1 w2 wD y Esempio di RNA: PE x1 x2 w6 w1 w3 w2 w4 w5

La forma della funzione discriminante cambia con la topologia RN-2 La forma della funzione discriminante cambia con la topologia Funzioni discriminanti arbitrarie Classificatori ottimi La posizione delle funzioni discriminanti è regolata dai valori dei pesi I pesi vengono adattati automaticamente durante il training Sui dati disponibili per il training non deve essere fatta alcuna ipotesi sulla pdf S Rete Neurale (wij) - + Il progettista deve stabilire la “topologia” per ottenere il numero e la forma voluti delle funzioni discriminanti

Pocessore Elementare di McCULLOCH - PITTS ( PE di MP o MP-PE ) RN-3 S . . . +1 x1 xD b w1 wD net y = f(net) wi : pesi b: bias funzione segno NOTA: il MP-PE è costituito da un ADALINE seguito da una non-linearità Proprietà per il pattern recognition: può separare due sole classi la funzione discriminante è un iperpiano nello spazio a D dimensioni di equazione: w1x1 + w2x2 + … + wDxD + b = 0 la funzione soglia divide lo spazio in due semi-spazi a cui attribuisce i valori +1 e -1 rispettivamente

Superficie di decisione funzione discriminante Es: Spazio degli ingressi a 2 dimensioni (caso 2D) RN-4 Superficie di decisione g x 1 x 2 g = g(x1 , x2 ) funzione discriminante x 2 g<0 g>0 a g = 0 x 1 La distanza dell’iperpiano dall’origine è: Nel 2-D la funzione discriminante è un piano e la sua intercetta con il piano (x1,x2) è una linea (superficie di decisione) Nel caso a D dimensioni la superficie di decisione è un iperpiano a D-1 dimensioni

FUNZIONI DI ATTIVAZIONE RN-5 Nel MP-PE la funzione di attivazione è la funzione a soglia detta “segno” Possono essere utilizzate altre funzioni non lineari FUNZIONI SIGMOIDALI 1.) Tangente iperbolica: +1 -1 net tanh 2.) Funzione logistica: logistica RNA con funzioni a soglia creano superfici di decisione lineari a tratti RNA con funzioni sigmoidali creano superfici di decisione molto complesse e non-lineari Le funzioni sigmoidali sono smooth ed esiste la derivata della mappa da loro creata (V.I. per il training)

ALGORITMO DI LEARNING PER UN MP-PE In un problema di classificazione la funzione discriminante deve essere spostata in modo da minimizzare gli errori Si deve dotare il sistema di una retroazione governata dall’errore tra l’uscita desiderata e quella di rete Usualmente per RNA si adotta l’MSE Funzione costo: p indice di pattern ALGORITMO DI LEARNING PER UN MP-PE (Rosemblatt 1958) PERCEPTRON ALGORITHM STEP 1. Presentare il campione x  C1 STEP 2. Se l’uscita è corretta non fare niente STEP 3. Se l’uscita non è corretta modificare i pesi e il bias finché l’uscita diventa corretta STEP4. Ripetere l’operazione finché tutti i pattern non siano correttamente classificati In sintesi: h :tasso di learning

Caso a) d = 1 (classe 1) e y = -1 w(n+1) = w(n) + 2 h x Infatti: RN-7 Caso a) d = 1 (classe 1) e y = -1 w(n+1) = w(n) + 2 h x Caso b) d = -1 (classe 2) e y = 1 w(n+1) = w(n) - 2 h x Hp: caso monodimensionale (un unico peso) caso a) caso b) w wb(n) wa(n) Dwa(n) Dwb(n) classificazione corretta classe 2 y = -1 classe 1 y = 1 In entrambi i casi il peso si aggiusta nella giusta direzione Se i pattern sono linearmente separabili si può dimostrare che l’algoritmo converge in un numero finito di passi

CONFRONTO CON LMS PER ADALINE RN-8 CONFRONTO CON LMS PER ADALINE Nel LMS: w(n+1) = w(n) + h e(n) x(n) stessa formulazione Vi sono, però, delle sostanziali differenze di significato non si ha la corrispondenza con la discesa del gradiente  il sistema ha una discontinuità il perceptron algorithm minimizza la differenza tra la risposta del MP-PE e l’uscita desiderata anziché tra l’uscita dell’ADALINE e l’uscita desiderata implicazioni Il MP-PE impara solo quando la sua uscita è errata I risultati finali dei pesi coincidono con quelli trovati per una regressione lineare. Infatti le non linearità sono portate dentro la regola di aggiustamento dei pesi

Hp: - pattern linearmente separabili - bias nullo (per semplicità) Esiste una funzione discriminante lineare che produce zero errori di classificazione w* vettore dei pesi ottimi prodotto dal perceptron algorithm n indice del training-set La soluzione è un iperpiano di equazione : Vantaggi: l’algoritmo converge in un numero finito di passi Svantaggi: la funzione discriminante trovata all’ultimo campione può non andare bene in fase di test l’algoritmo converge solo per classi linearmente separabili, altrimenti la soluzione oscillerà

CHAIN RULE (REGOLA CATENA) RN-10 Consente di calcolare la derivata parziale di una variabile rispetto ad un’altra quando esiste un legame funzionale tra le due Sia y = f(x) con f differenziabile Si può dimostrare che l’LMS è equivalente alla chain rule nel calcolo della “sensitivity” della funzione costo rispetto alle incognite: con: Jp : funzione costo del p-esimo campione yp : wxp Utilizzando la chain-rule: Dalla regola per l’aggiornamento dei pesi: w(k+1) = w(k) - h J(k) (steepest descent) si ha: w(k+1) = w(k) + h ep xp che è lo stesso risultato ottenuto nel LMS

ESTENSIONE DEL LMS AL MP-PE RN-11 Il gradiente dà una misura della “sensitivity” ESTENSIONE DEL LMS AL MP-PE S f(net) . xD xi x1 wi wD y Infatti:

Regola Delta REGOLA DELTA p: indice di pattern i: indice di peso da cui Regola Delta con n: indice di iterazione Estende l’LMS a sistemi non-lineari con non-linearità smooth E’ locale rispetto al pattern ed al peso Fa uso della f ’(.): +1 -1 net tanh=f(net) net f’(net)

cioè uguale alla sensitività di un PE lineare RN-13 Quando net è nella regione di linearità di f(.), la f ’(.) è vicina all’unità e la sensitività: cioè uguale alla sensitività di un PE lineare Quando il punto di funzionamento è vicino alla saturazione, la sensitività del PE non lineare è attenuata rispetto al PE lineare  questo implica effetti benefici sulla stabilità del processo di learning Con PE non lineari la funzione costo non è più quadratica  presenza di minimi locali I metodi basati sul gradiente possono intrappolarsi nei minimi locali o convergere in punti di stazionarietà Con PE non lineari: miglior filtraggio dei dati rispetto alla regressione lineare più efficienti in problemi di classificazione non linearmente separabili

IL PERCEPTRONE (Rosemblatt 1950) RN-14 MP-PE 1 2 M . +1 x1 x2 xD y1 y2 yM b1 b2 bM w11 w12 w1M wDM Lo strato di uscita è costituito da MP-PE Il numero di PE in uscita ( M ) è legato alla codifica adottata per le classi Ciascun neurone risolve il problema di decidere se un pattern appartiene alla classe i-esima oppure no Il perceptrone può essere allenato utilizzando la ben nota regola di aggiustamento dei pesi: w(n+1) = w(n) + h e (n) x(n) per riconoscere pattern linearmente separabili in un numero finito di passi

REGOLA DELTA APPLICATA AL PERCEPTRON errore locale per il PE i-esimo RN-15 Le regioni di decisione di un perceptron sono sempre regioni convesse REGOLA DELTA APPLICATA AL PERCEPTRON Se M = 1 p : indice del pattern Se abbiamo un numero M di PE nello strato di uscita: da cui definendo: errore locale per il PE i-esimo

REGOLA DELTA PER IL PERCEPTRON RN-16 REGOLA DELTA PER IL PERCEPTRON Usa solo quantità locali disponibili ai pesi: il valore xjp che raggiunge wij dall’ingresso l’errore locale dip propagato dalla funzione costo La località fa sì che l’algoritmo prescinda dalla complessità della rete SVANTAGGI: la superficie di decisione è molto vicina all’ultimo pattern classificato correttamente  risultati scadenti in fase di generalizzazione La superficie di decisione dovrebbe essere posta fra le due classi a distanza uguale dai “bordi” delle due classi Si può modificare l’algoritmo introducendo il “margine” tra l’iperpiano < x , w > = b e il set degli esempi S = { ( x 1 , d 1) , . . . , ( x N , d N) }, come: margine

Vapnik ha mostrato che : RN-17 Vapnik ha mostrato che : Si definisce IPERPIANO OTTIMO l’iperpiano che massimizza il margine tra le due classi Per trovare l’iperpiano ottimo occorre trovare i VETTORI DI SUPPORTO vettori di supporto Iperpiano ottimo g

MULTI LAYER PERCEPTRON (MLP) RN-18 LIMITI DEL PERCEPTRON Risolve solo problemi linearmente separabili Es: Problema X-OR (non è linearmente separabile) x2 x1 g(x) A prescindere da dove si piazzi la superficie di decisione si commette un errore di classificazione Soluzione MULTI LAYER PERCEPTRON (MLP) bias 1 2 K +1 x1 x2 xD M y1 y2 yM input layer hidden layer output layer . L’ MLP estende il perceptron aggiungendo strati nascosti (hidden layer) - Es: 1 hidden layer

Hp: i PE hanno funzione di attivazione a soglia +1 3 2 1 x3 x4 w6 w5 b3 b1 b2 w1 w2 w3 w4 x1 x2 RN-19 Es: Problema X-OR +1 Hp: i PE hanno funzione di attivazione a soglia x2 x1 1 y x4 x3 x4 x3 Mappatura totale input/output

Ciascun neurone nascosto crea una funzione discriminante lineare RN-20 Il primo strato di neuroni ha trasformato un problema non linearmente separabile in uno linearmente separabile nello spazio x3,x4 Lo strato d’uscita esegue la desiderata separazione di due insiemi linearmente separabili L’aggiunta dello strato nascosto ha reso possibile la realizzazione di regioni di decisione non più necessariamente convesse In max numero di regioni distinte nello spazio degli ingressi è controllato dal numero di neuroni nascosti (2k per k>>D) Ciascun neurone nascosto crea una funzione discriminante lineare I neuroni d’uscita combinano alcune delle regioni create dai neuroni nascosti creando regioni non necessariamente convesse Esistono differenti combinazioni di pesi che realizzano un particolare adattamento delle regioni di decisione

CAPACITÀ DI MAPPING DELLE MLP CON SINGOLO HIDDEN LAYER RN-21 CAPACITÀ DI MAPPING DELLE MLP CON SINGOLO HIDDEN LAYER BUMP: regione singola, di estensione limitata, di valori “alti” (1), circondata da valori bassi (0) - la funzione discriminante dei valori bassi non può essere convessa e quindi un semplice perceptron non può realizzare un bump - il bump più semplice è triangolare ed è ottenuto con 3 neuroni nascosti Una MLP con 1 strato nascosto può costruire un bump nello spazio degli ingressi Una MLP con 1 strato nascosto può costruire regioni di decisione complesse, non convesse, eventualmente disgiunte (es. X-OR) TEOREMA DI CYBENKO Una MLP con 1 strato nascosto di neuroni con funzioni di attivazione sigmoidale è un mappatore universale, cioè può approssimare arbitrariamente bene qualunque regione di decisione continua, purché il numero di neuroni nascosti sia sufficientemente grande

ALGORITMO ERROR BACK PROPAGATION (EBP) RN-22 ALGORITMO ERROR BACK PROPAGATION (EBP) Si basa sull’uso della CHAIN RULE che consente di propagare sistematicamente la sensitivity attraverso un numero indeterminato di nodi interni (hidden) di una topologia ith PE yi wki kth PE xi yk NOTA: non conosciamo la risposta desiderata dell’i-esimo neurone nascosto Per adattare i pesi wij del neurone nascosto: 1. Si utilizza un errore derivato propagando l’errore nello strato d’uscita (noto) 2. Si calcola la sensitivity usando la chain-rule con Errore locale del nodo i-esimo

ALGORITMO EBP RN-23 Hp: uno strato nascosto, un neurone d’uscita x1 yk k i-th neti yi netk wki wij xj xd x1 Chain rule poiché ma

RN-24 Da cui, utilizzando la regola del gradiente discendente: Regola di aggiornamento dei pesi

RN-25 ESTENSIONE DELL’EBP AL CASO DI M NEURONI DI USCITA k yk i-th neti yi wki wij xj xd x1 M 1 yM y1 Ciascun neurone K di uscita contribuisce in modo additivo al gradiente del costo rispetto all’uscita dell’iesimo neurone nascosto quindi:

RN-26 ESTENSIONE DELL’EBP A RETI CON PIÙ DI UNO STRATO NASCOSTO k yk i-th yi wki wij M 1 yM y1 j-th wMi w1i l l-1 La regola di aggiornamento è: Tornando indietro di strato in strato si può propagare all’indietro l’errore sino all’ingresso

RN-27 IMPLEMENTAZIONE STEP 1: Presentare alla rete il pattern {x1 , d1} STEP 2: FORWARD STEP: Calcolare l’uscita di ciascun neurone dall’input (l = 1) all’output (l = L): Con STEP 3: Calcolare l’errore nello strato d’uscita STEP 4: BACKWARD STEP: Calcolare l’errore locale partendo dallo strato di uscita sino all’ingresso - strato d’uscita: - negli altri strati STEP 5: Ripetere questa procedura per tutti i pattern del training e per il numero di epoche richiesto per la convergenza (randomizzare i pattern tra un’epoca e l’altra) NOTA: n indice di iterazione e anche training set l: indice di strato l=1,…,L ; l=1 input layer ; l=L output layer

EBP RN-28 L’errore locale di un neurone di uscita è: allora wij yi i j allora è l’errore totale propagato all’i-esimo neurone dall’uscita o anche è il contributo che il neurone i-esimo dà all’errore in uscita Se questo passa attraverso la non-linearità dello stesso i-esimo nodo si ottiene: l’errore locale del neurone i-esimo dello strato nascosto Da cui: REGOLA CIASCUN PESO PUÒ ESSERE AGGIORNATO MOLTIPLICANDO L’ERRORE LOCALE PER L’ATTIVAZIONE LOCALE CIOÈ

VALE PER TUTTI I NEURONI DEI VARI STRATI RN-29 Errore locale Attivazione locale VALE PER TUTTI I NEURONI DEI VARI STRATI Da strato a strato quello che si modifica è il modo di calcolare l’errore locale a seconda che il neurone appartenga ad uno strato nascosto o di uscita o se ha una funzione di attivazione lineare o non lineare: CASO 1: NEURONE D’USCITA E LINEARE. Infatti f’(neti(n)) ha un valore costante uguale ad 1 (ritroviamo la regola LMS) CASO 2: NEURONE D’USCITA E NON LINEARE. L’aggiornamento dei pesi viene fatto con la regola delta perché conosciamo l’uscita desiderata CASO 3: NEURONE NASCOSTO E NON LINEARE La formula per l’aggiornamento dei pesi non cambia strutturalmente perché il learning è condotto usando ancora il gradiente discendente

Scelta del numero di neuroni nello strato nascosto RN-30 PROBLEMI APERTI Scelta del numero di neuroni nello strato nascosto Non si è ancora affermata alcuna tecnica per la scelta del numero ottimo di neuroni nascosti In letteratura sono stati proposti algoritmi che trovano soluzioni sub-ottime Spesso la scelta del numero di neuroni nascosti è condotta con tecniche del tipo trial and error

MLP CON DUE STRATI NASCOSTI RN-31 MLP CON DUE STRATI NASCOSTI Funzione discriminante: deriva da tre livelli di composizione Uno strato nascosto crea bump locali nello spazio degli ingressi. Un ulteriore strato può essere pensato come un combinatore di bump in regioni disgiunte dello spazio Teorema: una combinazione lineare di bump localizzati può approssimare qualunque funzione  UNA MLP CON DUE STRATI NASCOSTI È UN APPROSSIMATORE UNIVERSALE (Anche una MLP con 1 strato nascosto lo è) Non esistono teoremi costruttivi Di norma si dovrebbe iniziare a sperimentare con reti con 1 solo strato nascosto perché le MLP con 2 strati hanno una convergenza più lenta a causa dell’attenuazione che subiscono gli errori attraverso le non-linearità

EPB PER MLP CON DUE o PIÙ STRATI RN-32 EPB PER MLP CON DUE o PIÙ STRATI L’algoritmo non subisce alcuna modifica Criterio di Costo ANN 1 Activation forward 3 Error Backward Calcolo dell’errore Risposta Desiderata Input Output 2 1. FOWARD STEP: 2. 3. BACKWARD STEP Regola d’aggiornamento

ANCORA SULL’EPB RN-33 Rete neurale originale Rete duale S wi1 wi2 wij FORWARD STEP S f (net) wi1 wi2 wij yi w1i w2i wki yj i-esimo PE Rete duale BACKWARD STEP S wi1 wi2 wij di w1i w2i wki ek i-esimo PE f ‘(net) ei x Se k è di uscita Se k è nascosto yj yi output wij di wki dk FORWARD BACKWARD errore input i-esimo PE Metodo del gradiente discendente

CLASSIFICATORI OTTIMI RN-34 Un classificatore ottimo è quello che crea funzioni discriminanti arbitrarie che separano cluster di dati secondo le probabilità a posteriori Un classificatore ottimo bayesiano produce uscite che sono le probabilità a posteriori di classi di dati Se il training di una MLP è condotto sotto certe condizioni le uscite possono essere interpretate come stima delle probabilità a posteriori (Bishop) CONDIZIONI MLP allenata per minimizzare l’MSE Numero di neuroni nascosti sufficiente a realizzare il mappaggio richiesto (mappatore universale Funzione di attivazione SOFTMAX che assicura la somma delle uscite pari a 1 e ciascuna uscita compresa tra 0 e 1 SOFTMAX La sommatoria è estesa a tutti i nodi di output La softmax è simile a tanh e logistic eccetto che le uscite sono scalate secondo la totale attivazione dello strato d’uscita così d’assicurare la somma delle uscite pari a 1

probabilità classe 1 = y probabilità classe 2 =1-y Nel caso di due sole classi l’unico neurone d’uscita può avere funzioni logistic RN-35 probabilità classe 1 = y probabilità classe 2 =1-y In generale yk può fornire una stima della probabilità condizionale media: w*: pesi ottimi t: uscite desiderate Per un classificatore dove le uscite desiderate sono 0 e 1 e con tanti nodi d’uscita quante sono le classi: cioè l’uscita k-esima della MLP fornisce la probabilità a posteriori che il pattern x appartenga alla classe Ck Si ha un metodo per la stima della probabilità a posteriori direttamente dai dati senza dover usare la regola di Bayes