La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Sistemi di supporto alle decisioni 3. Classificazione

Presentazioni simili


Presentazione sul tema: "Sistemi di supporto alle decisioni 3. Classificazione"— Transcript della presentazione:

1 Sistemi di supporto alle decisioni 3. Classificazione
Ing. Leonardo Rigutini, Ph.D. Dipartimento di Ingegneria dell’Informazione Università di Siena

2 Sistemi di supporto alle decisioni - Leonardo Rigutini
Classificazione Processo supervisionato in cui un teacher addestra un modello ad assegnare una etichetta ad un pattern Dati: Insieme predefinito di k classi - C = {C1 , C2 ,…, Ck} Learning set = {<xi ,Cj>} con i=1,…, e j=1,…,k Scopo: Dato un pattern mai visto u, assegnarlo ad una delle k classi Sistemi di supporto alle decisioni - Leonardo Rigutini

3 Sistemi di supporto alle decisioni - Leonardo Rigutini
Classificazione Due tipi di classificazione: Mono-classe (binario), in cui ogni patterrn viene assegnato ad una ed una sola classe Multi-classe, in cui un pattern può essere inserito in più di una classe Il secondo caso è più complicato del primo (ovviamente) ma molto più vicino alla realtà Spesso il secondo caso si risolve con k classificatori binari Sistemi di supporto alle decisioni - Leonardo Rigutini

4 Sistemi di supporto alle decisioni - Leonardo Rigutini
Classificatori Diversi tipi di classificatori in base all’approccio utilizzato nello sviluppo del modello: A regole (rule-based) Statistici Profile-based Example-based Neurali Support Vector Machines (SVM) Sistemi di supporto alle decisioni - Leonardo Rigutini

5 Classificatori a regole

6 Alberi di decisione - 1 Wind Rain Outlook Humidity Overcast Sunny Yes
Weak Strong No Normal High Decidere se è la giornata ideale per giocare a tennis... Attributo Valore dell’attributo Esempio: {Outlook=Sunny,Humidity=High,Wind=Strong} Sistemi di supporto alle decisioni - Leonardo Rigutini

7 Sistemi di supporto alle decisioni - Leonardo Rigutini
Alberi di decisione - 2 Costruzione dell’albero di decisione 2 fasi: Fase di build  si costruisce l’albero, partizionando ripetutamente il training set sul valore di un attributo, finché tutti gli esempi, in ogni partizione, appartengono ad una sola classe Fase di pruning  si pota l’albero, eliminando rami dovuti a rumore o a fluttuazioni statistiche Sistemi di supporto alle decisioni - Leonardo Rigutini

8 Case Study: alberi di decisione - 3
In un albero di decisione: Ogni nodo interno effettua un test su un attributo Ogni ramo uscente da un nodo corrisponde ad uno dei possibili valori che l’attributo può assumere Ogni foglia assegna una classificazione Per classificare un’istanza occorre, a partire dalla radice... ...selezionare l’attributo dell’istanza associato al nodo corrente ...seguire il ramo associato al valore assegnato a tale attributo nell’istanza ...quando si raggiunge una foglia, restituire l’etichetta associata alla foglia, altrimenti, a partire dal nodo corrente, ripetere il passo 2) Sistemi di supporto alle decisioni - Leonardo Rigutini

9 Case Study: alberi di decisione - 4
Esempio: {Outlook=Sunny,Humidity=High,Wind=Strong} Wind Rain Outlook Humidity Overcast Sunny Yes Weak Strong No Normal High Sistemi di supporto alle decisioni - Leonardo Rigutini

10 Sistemi di supporto alle decisioni - Leonardo Rigutini
Un altro esempio … Decidere la tariffa assicurativa da applicare, in base alla classe di rischio Età < 26 Tipo auto Basso Alto no sportiva familiare utilitaria ETÀ 40 65 20 25 50 CLASSE RISCHIO basso alto TIPO AUTO Alto Sistemi di supporto alle decisioni - Leonardo Rigutini

11 Classificatori Probabilistici: Naive Bayes

12 Sistemi di supporto alle decisioni - Leonardo Rigutini
Naive Bayes Un classificator Bayesiano, stima la probabilità marginale della classe dato l’esempio: Questa quantità non può essere stimata direttamente ma utilizzando la formula di Bayes possiamo scrivere: Per stimare la quantità viene fatta una forte assunzione di indipendenza delle features (naive) e cioè che: Sistemi di supporto alle decisioni - Leonardo Rigutini

13 Sistemi di supporto alle decisioni - Leonardo Rigutini
Naive Bayes E la stima delle singole probabilità è fatta semplicemente contando la frequenza relativa di una feature all’interno della classe: Le rimanenti due probabilità possono essere considerate costanti (e quindi ignorate) oppure stimate a loro volta dai dati Sistemi di supporto alle decisioni - Leonardo Rigutini

14 Sistemi di supporto alle decisioni - Leonardo Rigutini
Naive Bayes Nel primo caso, la supposizione è la seguente: la probabilità a priori di ogni classe è la stessa per tutte le classi (classi equi-probabili) La probabilità di un esempio è la stessa di tutti gli esempi (esempi equi-probabili) Nel secondo caso, invece si può sfruttare i dati per la stima dei due valori: La probabilità della classe P(Ck) può essere stimata contanto la percentuale di documenti appartenencti alla classe rispetto al numero totale di documenti nel training set La probabilità a priori del dato può essere stimata utilizzando l’ipotesi naive fatta prima: Sistemi di supporto alle decisioni - Leonardo Rigutini

15 Sistemi di supporto alle decisioni - Leonardo Rigutini
Smoothing Problema: cosa accade se = 0? Questo vuol dire che tale feature non viene mai incontrata nella classe k durante l’apprendimento. Tale caso implica Per evitare questo problema vengono utilizzate tecniche di smoothing che restituiscono valori molto piccoli ma non nulli per le features mai osservate in apprendimento Sistemi di supporto alle decisioni - Leonardo Rigutini

16 Sistemi di supporto alle decisioni - Leonardo Rigutini
a) Additive smoothing La formula di stima viene modificata in : con i vincoli che Ottenendo così: Sistemi di supporto alle decisioni - Leonardo Rigutini

17 Sistemi di supporto alle decisioni - Leonardo Rigutini
b) Laplace smoothing Laplace smoothing pone a=1 nella formula precedente, ottenendo così: La formula di ristima delle probabilità diventa: Sistemi di supporto alle decisioni - Leonardo Rigutini

18 Sistemi di supporto alle decisioni - Leonardo Rigutini
c) Good-Turing La tecnica di smoothing Good-Turing (dal nome dei due ricercatori che l’hanno proposta) stima la probabilità di una feature mai vista Essi trovarono che: con p0 la probabilità di una feature mai vista, N1 il numero di features osservate solamente una volta nel training set ed N il numero totale di features L’idea è che le features viste una volta sono casi fortunati di features mai viste Sistemi di supporto alle decisioni - Leonardo Rigutini

19 Classificatori probabilistici: Complement Naive Bayes

20 Complement Naive Bayes
Questo metodo utilizza l’approccio Bayesiano visto per il modello precedente per stimare le probabilità complementari: Questo metodo ha lo stesso problema delle features mai viste e quindi richiede l’utilizzo di tecniche di smoothing Inoltre ha il vantaggio rispetto a NB di avere a disposizione un maggior numero di esempi per ogni classe (o meglio complemento di classe) Sistemi di supporto alle decisioni - Leonardo Rigutini

21 Complement Naive Bayes
Per ogni complemento di classe infatti le statistiche vengono stimate utilizzando tutti i documenti delle classi rimanenti, e cioè che è sicuramente maggiore di dove è l’intero training set e indica la parte del training set contenente esempi della classe k. L’operatore su insiemi |A| infine indica la cardinalità dell’insieme A. Per questo motivo, tale modello è spesso utilizzato nei casi di scarsità di esempi di addestramento Sistemi di supporto alle decisioni - Leonardo Rigutini

22 Classificatori Profile-based

23 Profile Based Classifiers
Questa famiglia di classificatori lavora memorizzando una rappresentazione esplicita delle categorie. Durante il processo di classificazione, il modello computa la similarità dei nuovi patterns con i profili delle classi assegnandoli alla classe con score di similarità maggiore. Ad ogni feature vector sono assegnati dei pesi: I pesi possono essere valori reali propri del pattern oppure assegnati da funzioni di pesatura (ad es. Tf-idf) Sistemi di supporto alle decisioni - Leonardo Rigutini

24 Funzioni di similarità
Una volta creati i profili per le classi, questi modelli utilizzando una funzione per misurare la similarità dei pattern con i profili della classe Esempi di funzioni di similarità Manhattan distance (o City-block) Distanza Euclidea Distanza di Minkowski Sistemi di supporto alle decisioni - Leonardo Rigutini

25 Funzioni di similarità (2)
Distanza del coseno Da notare che alcune funzioni ritornano valori alti per pattern molto simili e bassi per pattern dissimili (es. coseno), altre viceversa si comportano in modo opposto (es. Euclidea) Sistemi di supporto alle decisioni - Leonardo Rigutini

26 Sistemi di supporto alle decisioni - Leonardo Rigutini
1) Algoritmo di Rocchio Questo classificatore profile-based calcola il profilo della classe secondo la seguente formula: dove e Inoltre, indica l’insieme degli esempi positivi per la classe mentre indica l’insieme degli esempi negativi. I parametri beta e gamma pesano rispettivamente gli esempi positivi e negativi nella costruzione del profilo Sistemi di supporto alle decisioni - Leonardo Rigutini

27 Sistemi di supporto alle decisioni - Leonardo Rigutini
1) Algoritmo di Rocchio In realtà questo modello stima il profilo medio tra il profilo generato dagli esempi postivi e quello generato dagli esempi negativi: E’ un classificatore lineare. Sistemi di supporto alle decisioni - Leonardo Rigutini

28 Sistemi di supporto alle decisioni - Leonardo Rigutini
2) Centroids-based Questo classificatore è un caso particolare del modello di Rocchio. Ponendo Beta=0 e quindi Gamma=1 si ottiene: Il profilo (vettore n-dimensionale) cj viene detto centroide e può essere immaginato come un esempio “dummy” (virtuale) che sta nel centro della classe: Generato dalla media degli esempi positivi per la classe Sistemi di supporto alle decisioni - Leonardo Rigutini

29 Classificatori Examples-based

30 Examples-based classifier: kNN
Questo modello è molto simile ai modelli basati su profilo (Rocchio) ed utilizza come essi una funzione di similarità. Questo modello però non costruisce un profilo per la classe, ma mantiene in memoria tutti i pattern assegnati alla classe e li usa ogni qualvolta deve classificare un nuovo esempio In tale situazione le distanze (similarità) tra tutti gli esempi memorizzati ed il nuovo esempio sono calcolate e poi due strategie sono possibili: Assegnare il nuovo pattern alla classe più presente nei k pattern più vicini Assegnare il nuovo pattern alla classe che contiene i primi k pattern più simili Sistemi di supporto alle decisioni - Leonardo Rigutini

31 Examples-based classifier: kNN
Questo metodo è molto costoso È necessario ogni volta calcolare N valori di similarità con N il numero di esempi utilizzati per l’addestramento Elevato costo computazionale Elevato costo di memorizzazione dati Sistemi di supporto alle decisioni - Leonardo Rigutini

32 Le reti neurali artificiali

33 Sistemi di supporto alle decisioni - Leonardo Rigutini
Introduzione  1 Nonostante gli straordinari successi nell’elaborazione automatica dell’informazione, che stanno esercitando un impatto di portata storica nella vita quotidiana, competenze percettive, quali… …localizzare un oggetto in una scena …riconoscere la voce in condizioni reali …prendere decisioni basate sul “senso comune” sono compiti estremamente difficili per i calcolatori elettronici Sistemi di supporto alle decisioni - Leonardo Rigutini

34 Sistemi di supporto alle decisioni - Leonardo Rigutini
Introduzione  2 Infatti, gli odierni sistemi di elaborazione hanno automatizzato perfettamente processi ritenuti, fino a poche decine di anni fa, di pertinenza umana, quali… …svolgere calcoli molto complicati …recuperare informazione in un archivio Con l’Intelligenza Artificiale si sono spinti verso l’automazione del ragionamento simbolico, fino ai sistemi esperti, in grado di modellare e rendere fruibile la conoscenza di esperti in settori specifici Sistemi di supporto alle decisioni - Leonardo Rigutini

35 Sistemi di supporto alle decisioni - Leonardo Rigutini
Introduzione  3 Tuttavia, i calcolatori mostrano un comportamento primitivo nella simulazione della maggior parte dei processi percettivi Le capacità percettive, infatti, sviluppate durante un processo evolutivo di centinaia di migliaia di anni, risultano difficili da replicare usando i modelli di calcolo simbolico, tipici degli elaboratori attuali Sistemi di supporto alle decisioni - Leonardo Rigutini

36 La metafora neurobiologica  1
Attualmente, a differenza delle macchine, l’uomo è un ottimo esempio di “sistema” in grado di elaborare informazione sottosimbolica Tali elaborazioni, come ogni altro processo cognitivo, hanno sede nel cervello, una complessa struttura neurobiologica, oggi accuratamente “decifrata” Il “mattone elementare” dei tessuti cerebrali è il neurone, che è sede dei processi elettrochimici che determinano l’atto percettivo Sistemi di supporto alle decisioni - Leonardo Rigutini

37 La metafora neurobiologica  2
Nel cervello umano sono presenti oltre 100 miliardi (1010) di neuroni, ciascuno interconnesso a circa altre unità (modello di HodgkinHuxley) Nelle interconnessioni ha luogo il processo di sinapsi, un processo elettrochimico atto a rafforzare o ad inibire l’interazione cellulare I segnali rilevabili hanno un potenziale dell’ordine delle decine di mV e si presentano come treni di impulsi con frequenza 100Hz e con opportune modulazioni Sistemi di supporto alle decisioni - Leonardo Rigutini

38 La metafora neurobiologica  3
È opinione condivisa nel mondo delle scienze cognitive che i segnali elettrici presenti nei neuroni siano alla base dell’elaborazione dell’informazione a livello cerebrale Inoltre, c’è evidenza sperimentale per sostenere che la struttura cerebrale e le sinapsi siano influenzate dalla vita degli individui, dalle loro esperienze, dall’apprendimento di compiti specifici È il particolare pattern di interconnessioni, e la forza delle sinapsi, che definiscono le proprietà funzionali di una particolare porzione del cervello Sistemi di supporto alle decisioni - Leonardo Rigutini

39 La metafora neurobiologica  4
È inoltre sperimentalmente provato che le funzioni cognitive risiedono in particolari zone del cervello e che tali funzioni possono essere… ...perdute a seguito della “rottura” dei legami sinaptici ...eventualmente (parzialmente) recuperate con successivi processi di apprendimento atti ad instaurare nuovi pattern di interconnessione sinaptica Sistemi di supporto alle decisioni - Leonardo Rigutini

40 La metafora neurobiologica  5
Poiché la struttura cerebrale e l’attività elettromagnetica delle singole cellule neuronali sono note, si possono operare induzioni sul comportamento collettivo dei neuroni e si può trarre ispirazione per la costruzione di macchine in grado di replicare compiti connotati da una forte componente di elaborazione sottosimbolica Mind no longer goes more ghostly than a ghost: il lavoro di Mcculloch e Pitts (1943) contiene la prima analisi completa di come semplici unità con sinapsi eccitatorie e inibitorie siano in grado, in virtù di un processo collettivo, di rappresentare proposizioni logiche complesse Tuttavia, non è necessaria una perfetta emulazione dei processi neurobiologici per l’emergenza di capacità cognitive Sistemi di supporto alle decisioni - Leonardo Rigutini

41 La metafora neurobiologica  6
Molti modelli connessionistici sono solo ispirati al paradigma biologico a livello di unità neuronale, e si basano sulla struttura fortemente connessa delle cellule cerebrali, dove si eredita il principio che l’attivazione neurale è soggetta ad eccitazioni ed inibizioni ad opera delle unità connesse L’attivazione dell’unità i dipende dall’attivazione della generica unità j, mediante un parametro associato alla connessione fra le due unità, che modella il principio elettrochimico della sinapsi Sistemi di supporto alle decisioni - Leonardo Rigutini

42 Sistemi di supporto alle decisioni - Leonardo Rigutini
What’s new ? Mon June 6, :51 PM GMT LONDRA (Reuters)  IBM si è accordata con un team di scienziati svizzeri per creare il primo modello al mondo di cervello computerizzato, Blue Gene: i ricercatori sperano così di fornire nuove prospettive nella conoscenza del più complesso organo umano L’obiettivo immediato è di riprodurre la trama di circuiti nella neocorteccia, che comprende circa l’85% della massa cerebrale e si ritiene sia responsabile del linguaggio, dell’apprendimento, della memoria e del pensiero articolato Il sistema Blue Gene/L, attualmente in costruzione presso il Department of Energy’s NNSA/Lawrence Livermore National Laboratory in California, avrà una velocità massima di elaborazione di 360 trilioni di operazioni floatingpoint al secondo, ossia 360 teraflops Cinque anni fa, nessun supercomputer al mondo aveva una capacità maggiore di un teraflop Sistemi di supporto alle decisioni - Leonardo Rigutini

43 Softcomputing e reti neurali

44 Sistemi di supporto alle decisioni - Leonardo Rigutini
Emulazione o ispirazione ? I just want to point out that the componentry used in the memory may be entirely different from the one that underlines the basic active organs (John Von Neumann, 1958) Molti modelli connessionistici utilizzati nelle applicazioni sono solo ispirati dal paradigma biologico a livello di unità neuronale… Sistemi di supporto alle decisioni - Leonardo Rigutini

45 Sistemi di supporto alle decisioni - Leonardo Rigutini
Le reti neurali  1 Le neuroscienze hanno permesso di stabilire che la struttura cerebrale è caratterizzata dalla presenza di neuroni specializzati e con pattern di connettività specifici al particolare compito cognitivo Per i modelli artificiali è stata seguita una metafora simile: sono stati studiati diversi tipi di neuroni e diverse architetture, associandovi le modalità di elaborazione concepite per implementare un particolare compito cognitivo Sistemi di supporto alle decisioni - Leonardo Rigutini

46 Sistemi di supporto alle decisioni - Leonardo Rigutini
Le reti neurali  2 Le reti neurali artificiali sono esse stesse costituite da insiemi di unità semplici, i neuroni, densamente interconnesse Ciascuna unità riceve un certo numero di input reali (stimoli esterni o output di altre unità) e produce, in uscita, un valore reale (che potrà costituire l’ingresso per altre unità) Sistemi di supporto alle decisioni - Leonardo Rigutini

47 Sistemi di supporto alle decisioni - Leonardo Rigutini
Le reti neurali  3 Il cervello umano… …contiene una rete di 1011 neuroni; ciascun neurone è connesso, in media, con 104 altre unità …l’attività dei neuroni viene eccitata o inibita dagli stimoli ricevuti dalle unità adiacenti: il tempo di “switch” è 103 sec (alto rispetto a quello del calcolatore, 1010 sec) …una qualsiasi scena può essere “compresa” in 0.1 secondi Utilizzo massivo di calcolo parallelo Le reti neurali artificiali… …dovrebbero “catturare” questa forma di parallelismo, basato sulla rappresentazione distribuita dell’informazione …si discostano dai modelli biologici, di cui non hanno la potenza …realizzano l’apprendimento mediante tecniche automatiche per il “tuning” dei pesi di connessione Sistemi di supporto alle decisioni - Leonardo Rigutini

48 Sistemi di supporto alle decisioni - Leonardo Rigutini
Un po’ di storia  1 La prima era: i modelli di neurone 1956: Dartmouth Summer Research Project on AI (Minsky, McCarty, Rochester, Shannon,…) 1959: ADALINE di WidrowHoff con applicazione al riconoscimento vocale 1962: Perceptron di Rosenblatt 1969: “Perceptrons” e le prime critiche alle reti neurali (Minsky e Papert) ’70: Associatori di Anderson, modelli per apprendimento senza supervisione di Kohonen, studi di Grossberg (ispirati alla neurobiologia) Sistemi di supporto alle decisioni - Leonardo Rigutini

49 Sistemi di supporto alle decisioni - Leonardo Rigutini
Un po’ di storia  2 La seconda era: le reti di neuroni 1982: Reti di Hopfield 1986: Parallel Distributed Processing e Backpropagation 1987: Prima conferenza sulle reti neurali dell’IEEE a San Diego 1989: Primi chip neurali 1990: J. Pollack e le reti neurali che elaborano dati strutturati 1994: Prima conferenza mondiale su Intelligenza Artificiale 1994: Nasce il progetto NeuroCOLT (Computational Learning Theory ) 2001: L’IEEE approva la creazione della Neural Networks Society Sistemi di supporto alle decisioni - Leonardo Rigutini

50 Cos’è il softcomputing ?
Il requisito dell’hardcomputing “trova sempre la soluzione esatta” diviene “trova spesso una soluzione approssimata” L’elaborazione coinvolge informazione sottosimbolica: può non esistere una soluzione algoritmica soddisfacente Definizione di softcomputing di Lofti Zadeh Softcomputing differs from conventional (hard) computing in that, unlike hardcomputing, it is tolerant of imprecision, uncertanty and partial truth. In effect, the role model for softcomputing is the human mind. The guidance principle of softcomputing is: exploit tolerance for imprecision, uncertanty and partial truth to achieve tractability, robustness and low solution cost. Sistemi di supporto alle decisioni - Leonardo Rigutini

51 Le reti neurali singolo strato

52 Sistemi di supporto alle decisioni - Leonardo Rigutini
ADALINE  1 ADALINE (ADAptive LInear NEuron) Modello singleneuron con funzione di attivazione lineare Apprendimento con algoritmo LMS (Least Mean Square), noto anche come WidrowHoff Algorithm Risolve problemi di regressione, ovvero di approssimazione della funzione che definisce la relazione tra input e output calcolando  (x,w) f : n   Sistemi di supporto alle decisioni - Leonardo Rigutini

53 Sistemi di supporto alle decisioni - Leonardo Rigutini
ADALINE  2 Learning rule: Deltarule Adattamento dei pesi in base all’errore che la rete commette rispetto alla risposta desiderata w2 x2 w0 wp xp x1 y t : w1 Sistemi di supporto alle decisioni - Leonardo Rigutini

54 Sistemi di supporto alle decisioni - Leonardo Rigutini
ADALINE  3 L’applicazione iterativa della deltarule comporta la minimizzazione di una funzione errore (costo), che è una misura scalare di quanto la risposta della rete devia dalla risposta desiderata, rispetto all’intero training set Può essere interpretata come un metodo iterativo per determinare i valori ottimi dei parametri di un sistema Sistemi di supporto alle decisioni - Leonardo Rigutini

55 Sistemi di supporto alle decisioni - Leonardo Rigutini
ADALINE  4 Algoritmo Least Mean Square (LMS): basato sulla stima istantanea delle funzioni di correlazione Sistemi di supporto alle decisioni - Leonardo Rigutini

56 Sistemi di supporto alle decisioni - Leonardo Rigutini
Algoritmo LMS  1 Procedura di training: dato il training set L ={(x(m),t(m)) | m=1,2,…,M} I pesi vengono inizializzati con valori casuali Per ogni esempio del training set: Si presenta l’input x alla rete e si calcola la risposta y Si applica la deltarule per modificare i pesi Si ripete il punto 2) fino a quando l’errore quadratico medio scende al di sotto di una soglia prestabilita, o il numero di iterazioni non supera un valore predeterminato Sistemi di supporto alle decisioni - Leonardo Rigutini

57 Sistemi di supporto alle decisioni - Leonardo Rigutini
Algoritmo LMS  2 Sia e = (twTx)T (twTx) Si vuole aggiornare il vettore dei pesi w per ottenere una diminuzione dell’errore e ee = (t(w w)Tx)T (t(w w)Tx) = e(twTx)T(wTx)(wTx)T(twTx) O(wTw) Scegliendo      w =  (twTx)x   e  2 (twTx)T (twTx) < 0 Sistemi di supporto alle decisioni - Leonardo Rigutini

58 Sistemi di supporto alle decisioni - Leonardo Rigutini
Algoritmo LMS  3 Algoritmo LMS (Stocastic Gradient Algorithm) Determina una stima dei valori ottimi dei parametri, scegliendo, localmente, la traiettoria di massima discesa lungo la superficie dell’errore Non richiede la conoscenza delle caratteristiche statistiche dei dati Minimizza l’errore istantaneo al passo n riducendo al minimo la quantità di informazione da mantenere in memoria Sistemi di supporto alle decisioni - Leonardo Rigutini

59 Sistemi di supporto alle decisioni - Leonardo Rigutini
Algoritmo LMS  4 Condizione di convergenza asintotica La stabilità di un sistema con feedback è determinata dalle caratteristiche statistiche del vettore di input x(n) e dal parametro : dato x(n) è necessaria una selezione opportuna di  affinché l’algoritmo converga Convergenza garantita per  strettamente minore di 2 : costante positiva, 0 <  < max, max=2/max max massimo autovalore della matrice di correlazione degli ingressi Sistemi di supporto alle decisioni - Leonardo Rigutini

60 Interpretazione probabilistica  1
Il risultato della rete ADALINE è una combinazione lineare degli ingressi In termini probabilistici, l’algoritmo LMS… …fornisce una tecnica per effettuare la regressione lineare: assegnato un insieme di esempi, individua un vettore peso w* tale che l’iperpiano (w*)T x descrive l’andamento dei dati …è lineare nei coefficienti, cioè nei pesi y=w0+w1x1+w2x2+…+wpxp y x Sistemi di supporto alle decisioni - Leonardo Rigutini

61 Interpretazione probabilistica  2
La trasformazione da x a y può essere polinomiale in x: in tal caso l’algoritmo corrisponde alla tecnica di regressione polinomiale e determina una superficie curva Sviluppando in serie di Taylor una funzione f (x) si ottiene un polinomio in z i cui coefficienti possono essere determinati con l’algoritmo LMS, ponendo z=(xx0) y=w0+w1z+w2z2 w2 z2 w0 1 y w1 z f (x)=f (x0)+f ’(x0)(xx0)+½f ’’(x0)(xx0)2+… Sistemi di supporto alle decisioni - Leonardo Rigutini

62 Sistemi di supporto alle decisioni - Leonardo Rigutini
Perceptron  1 Perceptron Modello singleneuron con funzione di attivazione a soglia Sistemi di supporto alle decisioni - Leonardo Rigutini

63 Sistemi di supporto alle decisioni - Leonardo Rigutini
Perceptron  2 Risolve problemi di classificazione a due classi, C1 e C2, modellando la trasformazione attraverso la funzione  (x,w) f : n {1,1} Sistemi di supporto alle decisioni - Leonardo Rigutini

64 Sistemi di supporto alle decisioni - Leonardo Rigutini
Perceptron  3 Learning rule: Perceptron error correction rule Adattamento dei pesi in base all’errore che la rete commette rispetto alla risposta desiderata, detta target Sistemi di supporto alle decisioni - Leonardo Rigutini

65 Sistemi di supporto alle decisioni - Leonardo Rigutini
Perceptron  4 Rinforzo delle connessioni favorevoli al target ed indebolimento di quelle sfavorevoli Alla nesima iterazione, t(n)={1,1} , y(n)={1,1} y(n) uguale a t (n) pesi invariati y(n) diverso da t (n) pesi modificati Ovvero, per xi(n)>0… y(n)=+1, t (n)=1: decremento del peso e di y(n+1) y(n)=1, t (n)=+1: incremento del peso e di y(n+1) Sistemi di supporto alle decisioni - Leonardo Rigutini

66 Sistemi di supporto alle decisioni - Leonardo Rigutini
Perceptron  5 Procedura di training: dato il training set linearmente separabile L ={(x(m),t(m)) | m=1,2,…,M} Inizializzazione casuale dei pesi Presentazione di un vettore di input x=(x1,…,xp) e della risposta desiderata t Calcolo della risposta attuale y Modifica dei pesi mediante la perceptron error correction rule Ripetizione del passo 2) fino a quando la rete risponde correttamente a tutti gli esempi di training Sistemi di supporto alle decisioni - Leonardo Rigutini

67 Teorema di convergenza  1
Supponiamo che al perceptron vengano presentate le coppie (xi,yi), per 1im (training set) Si utilizzi la seguente versione (semplificata) dell’algoritmo di aggiornamento dei pesi Nota È equivalente all’algoritmo classico, con  =1/2, produce cioè un rinforzo delle connessioni favorevoli al target ed un indebolimento di quelle sfavorevoli Sistemi di supporto alle decisioni - Leonardo Rigutini

68 Teorema di convergenza  2
Per ogni iperpiano separatore u di norma unitaria, cioè tale che yi(uxi)0, per 1im, e avente u =1, si definisce il margine (u) = min1im yi(uxi) come la distanza dall’iperpiano separatore u dell’elemento del training set ad esso più vicino Sistemi di supporto alle decisioni - Leonardo Rigutini

69 Teorema di convergenza  3
(Rosenblatt, Principles of Neurodynamics, 1962) Dato un qualunque training set linearmente separabile con margine (u) rispetto ad un qualunque iperpiano separatore u, l’error correction rule determina un iperpiano separatore w (generalmente diverso da u) dopo al più M passi, con Sistemi di supporto alle decisioni - Leonardo Rigutini

70 Teorema di convergenza  4
Dimostrazione Sia w1=(0,0,…,0) l’ipotesi iniziale. Indichiamo con wT l’ipotesi dopo T1 passi dell’algoritmo, per un qualunque T>1. Sia M il numero di aggiornamenti eseguiti nei T1 passi e siano 1t1…<tMT i passi in cui gli aggiornamenti sono stati effettuati. Dato che wT è stato aggiornato l’ultima volta al passo tM, wT=w  y x . Quindi… tM y (w  x )<0, perché a tM è avvenuto un aggiornamento. tM Sistemi di supporto alle decisioni - Leonardo Rigutini

71 Teorema di convergenza  5
Iterando per M volte si ottiene Viceversa, si consideri un qualunque iperpiano separatore u con u=1 e sia  l’angolo fra u e wT. Per la definizione di (u), si ha: Sistemi di supporto alle decisioni - Leonardo Rigutini

72 Teorema di convergenza  6
Iterando per M volte si ottiene Considerando entrambe le disuguaglianze, infine, si ha che, risolvendo rispetto ad M, dimostra l’asserto. Infatti, dato che (u) è costante, il perceptron esegue sempre un numero di aggiornamenti maggiorato da una costante, e quindi converge ad un iperpiano separatore in un numero di iterazioni pari, al più, a detta costante. Sistemi di supporto alle decisioni - Leonardo Rigutini

73 Sistemi di supporto alle decisioni - Leonardo Rigutini
Ancora sul perceptron... Comportamento del perceptron: cambiamento della pendenza della posizione del contorno di decisione Sistemi di supporto alle decisioni - Leonardo Rigutini

74 Sistemi di supporto alle decisioni - Leonardo Rigutini
Algoritmo Pocket  1 Quando l’insieme di apprendimento non è linearmente separabile, il perceptron non può apprendere in maniera ottima e, in particolare, il training non converge in un numero finito di passi e la dinamica dell’error correction rule può divenire oscillatoria Nei problemi reali, è sufficiente talvolta calcolare la separazione lineare “migliore”, relativamente ad un ambiente di apprendimento non separabile Sistemi di supporto alle decisioni - Leonardo Rigutini

75 Sistemi di supporto alle decisioni - Leonardo Rigutini
Algoritmo Pocket  2 L’algoritmo Pocket è una variante dell’algoritmo di apprendimento del perceptron, proposta da Gallant (1990) Durante l’apprendimento, i pesi “migliori” vengono conservati in una “tasca”  pocket  e aggiornati solo quando viene calcolato un nuovo vettore dei pesi che classifica correttamente un maggior numero di pattern Sistemi di supporto alle decisioni - Leonardo Rigutini

76 Sistemi di supporto alle decisioni - Leonardo Rigutini
Algoritmo Pocket  3 Implementa un meccanismo di ricompensa dei pesi “buoni”, piuttosto che penalizzare (correggere) i pesi a fronte di pattern non classificati correttamente Si definisce il “miglior” insieme dei pesi come quello che fornisce la sequenza più lunga di responsi corretti sui pattern dell’insieme di apprendimento: lo si conserva nel “pocket” con la lunghezza della sequenza di pattern classificati correttamente Per ciascun insieme di pesi nuovo, viene mantenuto un contatore per la lunghezza della sequenza di pattern fino al primo fallimento Se il nuovo insieme dei pesi classifica correttamente una sequenza di lunghezza maggiore, viene spostato nel “pocket” Sistemi di supporto alle decisioni - Leonardo Rigutini

77 Reti neurali a strato singolo
Riassumendo… Deltarule Risolve problemi lineari (nei parametri o pesi) Converge asintoticamente alla soluzione Perceptron error correction rule Risolve problemi linearmente separabili Converge alla soluzione in un numero finito di passi, se esiste la soluzione Altrimenti, per pattern non linearmente separabili, si può usare l’algoritmo Pocket Sistemi di supporto alle decisioni - Leonardo Rigutini

78 Le reti neurali multistrato

79 Parallel distributed processing
Le reti neurali artificiali sono sistemi di calcolo distribuiti e massicciamente paralleli, formati da un elevato numero di processori: molto semplici strutturalmente identici fittamente interconnessi dotati ciascuno di una propria memoria locale eventualmente provvisti di connessioni con l’esterno Nella terminologia delle reti neurali i processori vengono detti neuroni Sistemi di supporto alle decisioni - Leonardo Rigutini

80 Il flusso dell’informazione
Ciascun neurone elabora l’informazione contenuta: nella propria memoria locale negli stimoli provenienti dall’esterno e/o dagli altri neuroni della rete, raccolti tramite le connessioni di ingresso L’elaborazione dà luogo a: uno stato interno, detto attivazione un segnale di risposta, funzione dell’attivazione, il quale viene propagato attraverso le connessioni di uscita per stimolare altri neuroni e/o essere accessibile all’esterno Sistemi di supporto alle decisioni - Leonardo Rigutini

81 La natura distribuita delle reti neurali
I neuroni non hanno alcuna cognizione, né controllo, sulla provenienza degli stimoli, e quindi “ignorano” la struttura della rete di cui fanno parte Effettuano un’elaborazione di tipo locale La mutua influenza fra l’operato dei singoli neuroni e il comportamento globale della rete risiede nella disposizione delle connessioni In breve: i neuroni trasformano gli stimoli in risposte le connessioni distribuiscono le risposte in forma di stimoli Sistemi di supporto alle decisioni - Leonardo Rigutini

82 Sistemi di supporto alle decisioni - Leonardo Rigutini
La memoria locale Il contenuto della memoria locale di ciascun neurone determina la modalità di risposta agli stimoli, e dunque introduce una differenziazione funzionale fra elementi di calcolo strutturalmente identici La memoria locale è costituita dai cosiddetti pesi sinaptici, che modulano il contributo degli stimoli all’attivazione del neurone La maggior parte delle reti neurali sono provviste di meccanismi in grado di alterare il contenuto delle memorie, al fine di modificare il comportamento globale della rete Sistemi di supporto alle decisioni - Leonardo Rigutini

83 Reti neurali: capacità computazionale
L’idea sottesa è quella di “ricostruire una funzione” tramite la composizione di unità elementari, ciascuna delle quali è in grado di eseguire un numero limitato di semplici computazioni Le reti neurali non eseguono istruzioni programmate ma rispondono agli input tramite un procedimento parallelo Non sono sequenziali Forniscono risposte anche in corrispondenza di input mai visti (capacità di generalizzazione) Sono approssimatori universali di funzioni Sono “black box”: incapacità di spiegare i risultati Sistemi di supporto alle decisioni - Leonardo Rigutini

84 Reti feedforward e multistrato  1
Le unità di calcolo sono basate su computazione nel continuo (a, attivazione del neurone) neuroni sigmoidali: y=(a)=(wx) neuroni a base radiale: y=f(a)=f(xw), con n+1,n+1, definita positiva

85 Sistemi di supporto alle decisioni - Leonardo Rigutini
Reti feedforward e multistrato  2 Dal punto di vista architetturale sono rappresentate da grafi aciclici Esiste un ordinamento parziale fra i vertici (neuroni) del grafo Ciascun neurone può essere connesso sia ad altri neuroni che agli ingressi Sistemi di supporto alle decisioni - Leonardo Rigutini

86 Sistemi di supporto alle decisioni - Leonardo Rigutini
Reti feedforward e multistrato  3 Propagazione in avanti Sia S un generico ordinamento topologico dei vertici Per ogni v, siano pa[v] i genitori di v, allora… foreach v  S xv= (zpa[v] wv,z xz) Per reti multistrato lo schema di calcolo si riduce ad una pipe sui livelli Sistemi di supporto alle decisioni - Leonardo Rigutini

87 Sistemi di supporto alle decisioni - Leonardo Rigutini
Reti multistrato Le unità di elaborazione sono di tre tipi Input (ricevono input dall’esterno) Hidden (ricevono input dalle unità di ingresso o da altre unità hidden del sistema) Output (trasmettono segnali all’esterno del sistema) L’attività delle unità hidden non è visibile all’esterno Tutta l’elaborazione della rete neurale è eseguita da semplici unità che si scambiano messaggi ed informazioni attraverso le connessioni segnale Sistemi di supporto alle decisioni - Leonardo Rigutini

88 MultiLayer Perceptron (MLP)
Le unità di uscita combinano i contributi delle diverse regioni +1 o2 x2 x1 o1 1 2 3 4 4 1 2 3 I neuroni nascosti ripartiscono lo spazio in regioni Sistemi di supporto alle decisioni - Leonardo Rigutini

89 Sistemi di supporto alle decisioni - Leonardo Rigutini
L’apprendimento  1 L’apprendimento si riferisce al processo attraverso cui la rete si adatta agli stimoli esterni in modo da essere capace di produrre le risposte desiderate Una “funzione errore”, definita sull’output della rete, o una funzione “energia”, definita sul valore di attivazione di tutte le unità, caratterizza la qualità dell’apprendimento L’apprendimento avviene modificando i pesi sulle connessioni in modo da minimizzare la “funzione errore” o “l’energia” Algoritmi di apprendimento differenti impiegano euristiche diverse per modificare i valori dei pesi L’apprendimento dipende significativamente dalla topologia della rete e dalle funzioni di attivazione dei neuroni Sistemi di supporto alle decisioni - Leonardo Rigutini

90 Sistemi di supporto alle decisioni - Leonardo Rigutini
L’apprendimento  2 L’apprendimento è caratterizzato dal… Grado di supervisione  gli algoritmi di apprendimento sono raggruppati in base al tipo di feedback che possono ricevere (o non ricevere) da un istruttore esterno: Apprendimento supervisionato Apprendimento non supervisionato Determinismo  gli algoritmi di apprendimento sono raggruppati, in base alla natura delle regole che utilizzano, in deterministici o stocastici Sistemi di supporto alle decisioni - Leonardo Rigutini

91 Sistemi di supporto alle decisioni - Leonardo Rigutini
L’apprendimento  3 Le reti neurali implementano “l’apprendimento da esempi”, formalizzato matematicamente come: Sia T={z1,…,zn} l’insieme di “training” La rete tenta di apprendere una certa funzione sui dati Se l’apprendimento è supervisionato zi = (ui,yi), cioè per ogni esempio ui è specificata la rappresentazione simbolica yi corrispondente ad ui Nell’apprendimento non supervisionato, l’insieme di training è specificato dagli esempi ui e nessuna informazione viene data riguardo alla loro corretta interpretazione Sistemi di supporto alle decisioni - Leonardo Rigutini

92 Sistemi di supporto alle decisioni - Leonardo Rigutini
L’apprendimento  4 Apprendimento supervisionato Si basa sul caricamento dei pesi di una rete neurale sulla base di un insieme di apprendimento dotato di target Differenza fondamentale rispetto alla soluzione algoritmica di problemi: il caricamento dei pesi deve garantire la generalizzazione a nuovi esempi Sistemi di supporto alle decisioni - Leonardo Rigutini

93 Apprendimento in reti feedforward
L’apprendimento si basa sulla terna {L, N, E}, con L ={(ui,di)UT, i=1,…,P}, insieme di training N rete feedforward multistrato E “grado di matching” tra dati e risposta della rete dove e(u) è una qualunque metrica che esprime la distanza tra d(u) e x(w,u); per esempio: Sistemi di supporto alle decisioni - Leonardo Rigutini

94 La discesa sul gradiente
L’ottimizzazione (minimizzazione) della funzione errore coinvolge tipicamente molti parametri La discesa sul gradiente risulta la soluzione più verosimile per motivi di efficienza computazionale La traiettoria è attratta dai punti di minimo locale di E(w) Il gradiente viene calcolato mediante l’algoritmo di Backpropagation Sistemi di supporto alle decisioni - Leonardo Rigutini

95 Sistemi di supporto alle decisioni - Leonardo Rigutini
Backpropagation  1 Backpropagation  Bryson & Ho (1969), Werbos (1974), le Cun (1995), Rumelhart, Hinton & Williams (1996) Si sfrutta la struttura grafica della rete Si accumulano i contributi di errore su tutti gli elementi del training set (U insieme degli ingressi) Dall’ipotesi di architettura a grafo aciclico, segue la fattorizzazione Sistemi di supporto alle decisioni - Leonardo Rigutini

96 Sistemi di supporto alle decisioni - Leonardo Rigutini
Backpropagation  2 L’errore si propaga in direzione contraria rispetto al segnale, cioè dalle uscite verso gli strati hidden In particolare… Se iO (uscite), allora Altrimenti segnale errore Sistemi di supporto alle decisioni - Leonardo Rigutini

97 Quale potenza computazionale ?  1
Una rete a due livelli con sigmoidi (o simili) su tutte le unità, può rappresentare qualunque funzione booleana Ogni funzione reale nm limitata e continua, può essere approssimata con errore arbitrariamente piccolo da una rete a due livelli con sigmoidi sulle unità nascoste e unità lineari sull’uscita L’apprendimento ottimo viene conseguito con un numero di neuroni nascosti pari, al più, alla cardinalità dell’ambiente di apprendimento Sistemi di supporto alle decisioni - Leonardo Rigutini

98 Quale potenza computazionale ?  2
Sistemi di supporto alle decisioni - Leonardo Rigutini

99 Ancora sull’apprendimento  1
Analogamente a quanto accade nei sistemi biologici, l’addestramento delle reti neurali artificiali si fonda su due presupposti essenziali: La disponibilità a priori di un congruo repertorio di “comportamenti” possibili L’esistenza di un meccanismo atto a selezionare da tale repertorio, verosimilmente per tentativi ed errori, i “comportamenti” più rispondenti alle sollecitazioni provenienti dall’ambiente (stimoli ed obiettivi) Sistemi di supporto alle decisioni - Leonardo Rigutini

100 Ancora sull’apprendimento  2
La rete neurale viene addestrata su un learning set Ogni esempio viene passato alla rete, calcolandone l’errore, che verrà accumulato e successivamente usato per modificare i pesi Il learning set viene presentato alla rete un certo numero di volte; la presentazione dell’intero insieme costituisce un’epoca di apprendimento L’errore medio diminuisce progressivamente Troppe epoche possono causare overfitting (eccessiva specializzazione sulle istanze contenute nel learning set) Sistemi di supporto alle decisioni - Leonardo Rigutini

101 Sistemi di supporto alle decisioni - Leonardo Rigutini
Ancora sull’apprendimento  3 L’addestramento delle reti neurali si basa sulla constatazione che se l’errore cambia al variare dei pesi allora può essere inteso come una funzione dei pesi stessi, E(W) E(W) avrà dei punti di minimo (corrispondenti a particolari configurazioni dei pesi) Tali punti possono pertanto essere calcolati con le tecniche di ricerca del minimo di una funzione, che si basano sullo studio della sua derivata Ad ogni iterazione i pesi vengono modificati di una percentuale  (learning rate);  piccolo comporta un apprendimento più lento ma spesso più accurato Sistemi di supporto alle decisioni - Leonardo Rigutini

102 Sistemi di supporto alle decisioni - Leonardo Rigutini
Ancora sull’apprendimento  4 Il fatto di muoversi nella direzione indicata dal gradiente non significa necessariamente raggiungere il minimo della funzione! Se il learning rate è troppo grande si può saltare lontano dal minimo (eventualmente fuori dal suo bacino di attrazione) Oltre al minimo globale, la superficie di errore, per problemi significativi, è solitamente costellata da minimi locali, che sono attrattori per la dinamica di discesa del gradiente Sistemi di supporto alle decisioni - Leonardo Rigutini

103 Ancora sull’apprendimento  5
Problemi legati al dominio Maggiore la cardinalità dello spazio degli ingressi maggiore la possibilità di lineare separabilità dei dati, ma anche la difficoltà nel discernere le feature significative Esempio: x1 può variare fra 0.05 e 0.02, mentre x2 può variare fra 100 e 10000; numericamente x2 pesa più di x1, ma x1 potrebbe essere più rilevante nel definire il comportamento della funzione Problemi legati ai dati Possono essere costosi da ottenere Possono essere poco rappresentativi, perché concentrati in particolari aree del dominio Possono essere affetti da errore Sistemi di supporto alle decisioni - Leonardo Rigutini

104 Ancora sull’apprendimento  6
Backpropagation è un algoritmo ottimo nel senso della teoria della complessità: O(W ) invece di O(W 2) La discesa del gradiente può rimanere intrappolata in minimi locali della funzione errore Una volta caricati i pesi per l’insieme di apprendimento, non c’è garanzia di un buon apprendimento del concetto... Sistemi di supporto alle decisioni - Leonardo Rigutini

105 Ancora sull’apprendimento  7
Dalla teoria del PAC (Probably Approximately Correct) learning: per ottenere un errore non superiore a  sul test set… …si apprende il training set fino ad un errore inferiore a /2 …si usano almeno pattern per l’apprendimento, dove W è il numero dei pesi ed M il numero totale di unità nascoste (E. Baum, Neural Computation, 1989) 32M 32W ln Sistemi di supporto alle decisioni - Leonardo Rigutini

106 Backpropagation con momento  1
La presenza del termine momento garantisce che la rete non reagisca solo alle variazioni locali del gradiente, ma tenga anche conto della storia recente di tali variazioni Agendo da filtro passabasso, il momento assicura inoltre che il comportamento della rete non risenta delle piccole oscillazioni della superficie d’errore Senza il momento, l’apprendimento può venire intrappolato in un minimo locale “poco profondo”, mentre in presenza del momento i piccoli bacini di attrazione possono essere “saltati” Sistemi di supporto alle decisioni - Leonardo Rigutini

107 Backpropagation con momento  2
L’aggiornamento dei pesi viene modificato aggiungendo un termine relativo all’aggiornamento al passo precedente: normalmente, i termini relativi al contributo locale del gradiente ed al momento vengono composti a formare una combinazione lineare convessa (01) w(t+1) =  (E(t+1)) + (1)w(t) Sistemi di supporto alle decisioni - Leonardo Rigutini

108 Resilient Propagation  1
Gli MLP utilizzano, di solito, funzioni di trasferimento sigmoidali nello strato hidden Tali funzioni vengono anche dette “squashing”, data la loro capacità di comprimere input infiniti in un intervallo limitato di output Le funzioni sigmoidali sono caratterizzate da una derivata che approssima zero al tendere di x a ; questo causa problemi quando si utilizzano tecniche di discesa lungo il gradiente per l’apprendimento, dato che il gradiente può assumere valori molto piccoli nelle zone di “saturazione” della sigmoide, non garantendo aggiornamenti significativi di pesi e soglie, anche per valori lontani dall’ottimo Sistemi di supporto alle decisioni - Leonardo Rigutini

109 Resilient Propagation  2
Nell’algoritmo di Resilient Propagation viene utilizzata soltanto l’informazione sul segno del gradiente per determinare la “direzione” di aggiornamento dei pesi, mentre la norma del gradiente non ha nessun effetto sull’apprendimento Sistemi di supporto alle decisioni - Leonardo Rigutini

110 Resilient Propagation  3
Il tasso di apprendimento viene determinato ed adattato singolarmente per ogni peso i viene incrementato ogni volta che la derivata della funzione costo, relativamente a quel peso, mantiene il segno per due iterazioni successive i viene decrementato se la derivata cambia segno Il valore di i rimane costante se il gradiente è nullo in quella direzione Tutte le volte che i pesi mostrano un andamento oscillante, il tasso di apprendimento viene ridotto, ed aumentato se, viceversa, il cambiamento avviene sempre nella stessa direzione Sistemi di supporto alle decisioni - Leonardo Rigutini

111 Sistemi di supporto alle decisioni - Leonardo Rigutini
Quante unità nascoste ? Usando un numero arbitrariamente grande di unità nascoste si può approssimare qualunque funzione finita in un dominio finito Non c’è regola a priori per determinarne il numero degli hidden Il numero di unità nascoste definisce il numero di possibili suddivisioni dello spazio degli ingressi Se si ha conoscenza a priori sul problema da risolvere, si possono fare stime grossolane sulla dimensione dello strato interno (stati da codificare), altrimenti la selezione architetturale viene fatta per mezzo di tecniche di tipo trialanderror Suggerimento: selezionare, inizialmente, architetture “piccole” (ad es., log2(Nin+Nout) neuroni nascosti) ed aumentare la complessità della rete (e la sua capacità computazionale) solo se necessario Sistemi di supporto alle decisioni - Leonardo Rigutini

112 Sistemi di supporto alle decisioni - Leonardo Rigutini
Overfitting Il problema dell’overfitting è in parte legato al problema del dimensionamento dell’architettura della rete per uno specifico compito L’architettura della rete è troppo complessa per il problema in esame L’architettura della rete è troppo semplice per il problema in esame La rete perde la capacità di generalizzare Sistemi di supporto alle decisioni - Leonardo Rigutini

113 Come prevenire l’overfitting
Apprendimento incrementale: la rete aggiunge nodi alla sua struttura durante l’apprendimento (growing ) Apprendimento competitivo: le unità hidden sono forzate a rispondere ad un dato input in tempi diversi Strategie evoluzionistiche: la rete modifica la sua struttura parametrica durante l’apprendimento Fermare il processo di training in anticipo (tecniche di crossvalidation per early stopping) Aggiungere rumore ai dati Soluzioni che controllano il valore assunto dai parametri Sistemi di supporto alle decisioni - Leonardo Rigutini

114 Sistemi di supporto alle decisioni - Leonardo Rigutini
Crossvalidation L’addestramento di una rete è un processo iterativo in cui i parametri della rete vengono modificati con l’obiettivo di minimizzare l’errore commesso La crossvalidation è il processo attraverso il quale si controlla l’andamento dell’errore su dati non noti alla rete (sui quali non è stata addestrata) per fermare il training quando l’errore su tali dati comincia a crescere Sistemi di supporto alle decisioni - Leonardo Rigutini

115 Addestramento con dati rumorosi
Per ogni pattern x dell’insieme di training, alla rete viene presentato il pattern (x), dove  è un vettore di rumore casuale: ogni nuova presentazione di x alla rete risulterà alterata da un diverso rumore L’introduzione di rumore riduce la possibilità che la rete si specializzi troppo sui dati di training È stato provato che addestrare le reti con dati affetti da rumore migliora la loro capacità di generalizzazione (Sietsma e Dow, 1991) Un altro modo per introdurre rumore nel processo di training consiste nell’aggiornare i pesi dopo ogni presentazione e riordinare gli esempi casualmente alla fine di ogni iterazione (online learning) Sistemi di supporto alle decisioni - Leonardo Rigutini

116 Cambiando il modello neuronale…
Reti Radial Basis Function (RBF) Architettura composita per problemi di classificazione ed approssimazione funzionale Modello a due strati hidden layer: neuroni con funzione di attivazione che simula un campo recettivo localizzato output layer: neuroni con funzione di attivazione lineare o sigmoidale MLP e RBF: modelli equivalenti da un punto di vista funzionale Sistemi di supporto alle decisioni - Leonardo Rigutini

117 Sistemi di supporto alle decisioni - Leonardo Rigutini
Non solo rette! RBF è una rete neurale in grado di riconoscere pattern “clusterizzati”: molti problemi di classificazione presentano dati in ingresso concentrati attorno ad un insieme di “centroidi” Rete neurale di tipo Radial Basis Function (RBF) Sistemi di supporto alle decisioni - Leonardo Rigutini

118 Sistemi di supporto alle decisioni - Leonardo Rigutini
Reti neurali RBF  1 La rete neurale è un MLP, con neuroni nascosti a base radiale; il modello di neurone a base radiale presuppone il calcolo dell’attivazione secondo la formula a(w1, u0) = w1 u0/ mentre la funzione di uscita è o(a) = ea con la classica forma a campana La rete feedforward può essere addestrata tramite Backpropagation (tutte le funzioni coinvolte sono differenziabili) 2 Sistemi di supporto alle decisioni - Leonardo Rigutini

119 Sistemi di supporto alle decisioni - Leonardo Rigutini
Reti neurali RBF  2 Si dimostra che un siffato MLP (con neuroni di output sigmoidali o lineari, in dipendenza dal problema) e con un numero sufficiente di neuroni hidden RBF, è in grado di modellare in maniera ottima insiemi di apprendimento separabili per ipersfere (iperellissoidi) Dopo l’apprendimento, i pesi w1 approssimano le posizioni dei centroidi, mentre  approssima il raggio dell’ipersfera minima contenente la classe Le reti neurali con neuroni a base radiale nello strato hidden e neuroni lineari nello strato di uscita sono approssimatori universali, così come gli MLP, se dotate di un numero sufficiente di neuroni hidden: qualsiasi funzione continua può essere approssimata con un qualsiasi grado di accuratezza Sistemi di supporto alle decisioni - Leonardo Rigutini

120 Sistemi di supporto alle decisioni - Leonardo Rigutini
Gli autoassociatori  1 Un autoassociatore neurale è una rete multistrato con un numero di uscite pari al numero degli ingressi L’autoassociatore viene addestrato in modo da riprodurre sulle uscite il vettore di ingresso, minimizzando la norma quadratica del vettore differenza Se il numero di neuroni nascosti è inferiore alle componenti di input, l’attivazione dei neuroni nascosti realizza una rappresentazione compressa della informazione in ingresso; in particolare… …i pesi dagli ingressi ai neuroni nascosti rappresentano i parametri di compressione …i pesi dai neuroni nascosti alle uscite definiscono la decompressione della rappresentazione contenuta nello strato nascosto Sistemi di supporto alle decisioni - Leonardo Rigutini

121 Sistemi di supporto alle decisioni - Leonardo Rigutini
Gli autoassociatori  2 La rappresentazione nello strato nascosto è ricavata ottimizzando l’errore di ricostruzione su un insieme di dati di esempio In tal senso, gli autoassociatori neurali realizzano un algoritmo di estrazione delle componenti principali non lineare Gli autoassociatori possono inoltre essere utilizzati come classificatori, in base al principio secondo il quale riescono ad associare bene solo vettori provenienti dalla distribuzione dei dati con cui sono stati addestrati Sistemi di supporto alle decisioni - Leonardo Rigutini

122 Sistemi di supporto alle decisioni - Leonardo Rigutini
Gli autoassociatori  3 In altre parole, una volta addestrato con dati estratti da una certa distribuzione, l’autoassociatore rappresenta un prototipo per tale classe Si può verificare se un vettore appartiene ad una classe di cui l’autoassociatore è il modello (o prototipo) calcolando la distanza fra il vettore di ingresso e l’uscita prodotta Sistemi di supporto alle decisioni - Leonardo Rigutini

123 Sistemi di supporto alle decisioni - Leonardo Rigutini
Gli autoassociatori  4 Un classificatore per più classi può essere costruito in modo modulare definendo un autoassociatore (prototipo) per ogni classe Un vettore di ingresso viene classificato presentandolo in parallelo a tutti gli autoassociatori e attribuendolo alla classe corrispondente all’autoassociatore per il quale la distanza fra ingresso e uscita è minima Si può anche introdurre una soglia di reiezione, considerando non classificati quei vettori per i quali la distanza è superiore a tale soglia o per i quali la differenza di distanza fra due o più autoassociatori è inferiore alla soglia L’apprendimento di ogni autoassociatore può essere effettuato utilizzando solo esempi della classe a cui corrisponde Sistemi di supporto alle decisioni - Leonardo Rigutini

124 Sistemi di supporto alle decisioni - Leonardo Rigutini
Gli autoassociatori  5 Per migliorare le prestazioni possono essere introdotti nell’insieme dei dati usati per l’apprendimento anche esempi negativi, in genere appartenenti a quelle classi che più si confondono con quella che si deve riconoscere Apprendimento e superfici di decisione per un autoassociatore addestrato con e senza esempi negativi Sistemi di supporto alle decisioni - Leonardo Rigutini

125 Support Vector Machine

126 Sistemi di supporto alle decisioni - Leonardo Rigutini
Introduzione  1 Le Support Vector Machine (SVM) sono state sviluppate presso gli AT&T Bell Laboratories, a partire dai primi anni `90, da Vapnik e colleghi (Boser et al., 1992, Guyon et al., 1993, Cortes e Vapnik, 1995, Schölkopf et al., 1995, Vapnik et al., 1997) Dato il contesto industriale, la ricerca sulle SVM ha finora avuto una decisa inclinazione applicativa Sistemi di supporto alle decisioni - Leonardo Rigutini

127 Sistemi di supporto alle decisioni - Leonardo Rigutini
Introduzione  2 Primi lavori relativi a: OCR (Optical Character Recognition, dove in breve le SVM divennero competitive con i metodi migliori) Riconoscimento di oggetti (Blanz et al., 1996) Identificazione di oratori (Schmidt, 1996) Identificazione di volti in immagini (Osuna, et al. 1997) Classificazione di testi (Joachims, 1997) Bioinformatica: classificazione di sequenze di proteine, gene expression, informazioni filogenetiche Sistemi di supporto alle decisioni - Leonardo Rigutini

128 Sistemi di supporto alle decisioni - Leonardo Rigutini
Introduzione  3 L’algoritmo Support Vector, alla base delle SVM, …è una generalizzazione dell’algoritmo Generalized Portrait, sviluppato in Russia nei primi anni `60 (Vapnik e Lerner, 1963, Vapnik e Chervonenkis, 1964) …appartiene alla categoria degli algoritmi di statistical learning theory, la teoria di VapnikChervonenkis (Vapnik, Chervonenkis 1974, Vapnik 1982, 1995) Essenzialmente, la teoria VC caratterizza le proprietà degli algoritmi di apprendimento che permettono loro di “estendere la conoscenza” a dati nuovi, in base ad elementi appresi in precedenza Sistemi di supporto alle decisioni - Leonardo Rigutini

129 Sistemi di supporto alle decisioni - Leonardo Rigutini
Introduzione  4 Una SVM è un classificatore binario che apprende il confine fra esempi appartenenti a due diverse classi Funziona proiettando gli esempi in uno spazio multidimensionale e cercando un iperpiano di separazione in questo spazio L’iperpiano di separazione massimizza la sua distanza (il “margine”) dagli esempi di training più vicini Proprietà generali delle SVM: improbabile l’overfitting capacità di gestire dati con molte feature estrazione dell’informazione “più significativa” contenuta nel data set in input Sistemi di supporto alle decisioni - Leonardo Rigutini

130 Sistemi di supporto alle decisioni - Leonardo Rigutini
Classificazione Nel caso della classificazione di dati appartenenti a due sole classi, il processo di apprendimento può essere formulato come segue: dato un insieme di funzioni di soglia dove  è un insieme di parametri reali, e dato un insieme di esempi preclassificati (x1,y1),…,(xm,ym), xiN, yi{1,1}, presi da una distribuzione sconosciuta P(x,y), si vuole calcolare una funzione f che minimizzi l’errore teorico: Sistemi di supporto alle decisioni - Leonardo Rigutini

131 Sistemi di supporto alle decisioni - Leonardo Rigutini
Errore teorico L’insieme di parametri reali  genera una macchina in grado di risolvere un particolare problema (ad esempio  può corrispondere ai pesi delle sinapsi di una rete neurale) Le funzioni f sono le ipotesi, e l’insieme {f(x): } è lo spazio H delle ipotesi L’errore teorico rappresenta una misura di quanto sia buona un’ipotesi nel predire la classe yi di un punto x L’insieme delle funzioni può essere realizzato da un MLP classico o con neuroni RBF, con un numero opportuno di unità nascoste Sistemi di supporto alle decisioni - Leonardo Rigutini

132 Sistemi di supporto alle decisioni - Leonardo Rigutini
Errore empirico La distribuzione di probabilità P(x,y) non è nota, quindi non è possibile calcolare l’errore teorico R(); tuttavia è disponibile un campione di P(x,y): il training set si può calcolare un’approssimazione di R(), l’errore empirico Remp(): La legge dei grandi numeri garantisce che l’errore empirico converge in probabilità all’errore teorico Sistemi di supporto alle decisioni - Leonardo Rigutini

133 Sistemi di supporto alle decisioni - Leonardo Rigutini
VCdimension La VCdimension dello spazio di ipotesi H (o del classificatore f) è un numero naturale che corrisponde al più grande numero di punti che possono essere separati in tutti i modi possibili dall’insieme di funzioni f In altre parole, dato un insieme di l punti, se per ognuna delle 2l possibili classificazioni (1,1) esiste una funzione in {f} che assegna correttamente le classi, allora si dice che l’insieme di punti viene separato dall’insieme di funzioni La VCdimension è una misura della complessità dell’insieme H Sistemi di supporto alle decisioni - Leonardo Rigutini

134 Sistemi di supporto alle decisioni - Leonardo Rigutini
VCdimension ottima La teoria della convergenza uniforme in probabilità, sviluppata da Vapnik e Chervonenkis, fornisce anche un limite alla deviazione dell’errore empirico dall’errore teorico Fissato , con 0 1, vale la disuguaglianza: dove h è la VCdimension di f Sistemi di supporto alle decisioni - Leonardo Rigutini

135 Minimizzazione dell’errore teorico
Per ottenere l’errore teorico minimo, occorre minimizzare sia l’errore empirico sia il rapporto tra la VCdimension ed il numero di punti (h/l ) L’errore empirico è solitamente una funzione decrescente di h, quindi, per ogni dato numero di punti, esiste un valore ottimale della VCdimension (tradeoff Remp e h/l ) L’algoritmo SVM risolve efficacemente questo problema minimizzando contemporaneamente la VCdimension ed il numero di errori sul training set Sistemi di supporto alle decisioni - Leonardo Rigutini

136 Caso 1: dati linearmente separabili

137 Classificatore lineare su dati linearmente separabili  1
Ipotesi: insieme di dati linearmente separabili; si vuole calcolare il miglior iperpiano separatore Un insieme di dati è linearmente separabile quando esiste una coppia (w,b) tale che wxi+b  per xiC1 wxi+b < per xiC2 Sistemi di supporto alle decisioni - Leonardo Rigutini

138 Classificatore lineare su dati linearmente separabili  2
Lo spazio delle ipotesi in questo caso è formato dall’insieme di funzioni (sign, discriminatore binario: +/, 0/1, vero/falso, etc.) Sistemi di supporto alle decisioni - Leonardo Rigutini

139 Separazione lineare (es. perceptron)
Sistemi di supporto alle decisioni - Leonardo Rigutini

140 Sistemi di supporto alle decisioni - Leonardo Rigutini
Separatori lineari Quale separatore è ottimo? Sistemi di supporto alle decisioni - Leonardo Rigutini

141 Iperpiani di separazione  1
La distanza tra un punto x e l’iperpiano associato alla coppia (w,b) è: Se l’iperpiano wxb=0 separa il training set D, si definisce margine la quantità (w,D) Sistemi di supporto alle decisioni - Leonardo Rigutini

142 Iperpiani di separazione  2
Come scegliere la parametrizzazione? Un iperpiano separatore è parametrizzato dai coefficienti w e b, ma la scelta non è unica: moltiplicando i parametri per una costante positiva si ottiene lo stesso iperpiano Occorre fissare w Prima soluzione: si fissa w=1, nel qual caso dw(x)=wxb e (w,D)=mini yi(wxib) Altrimenti… si fissa w in modo tale che (w,D)=1/w, cioè si impone mini yi(wxib)=1 è una parametrizzazione datadependent Sistemi di supporto alle decisioni - Leonardo Rigutini

143 Iperpiani di separazione  3
Più in generale, la distanza tra l’iperpiano (w,b) e il più vicino punto dell’insieme dei dati è funzione di 1/w Se si impone wA, la distanza dell’iperpiano dal punto più vicino deve essere maggiore di 1/A Si considerano solo gli iperpiani che non intersecano nessuna delle sfere di raggio 1/A centrate sui punti dell’insieme di dati Sistemi di supporto alle decisioni - Leonardo Rigutini

144 Iperpiani di separazione  4
Se i dati sono linearmente separabili, lo scopo della SVM è quello di trovare, tra tutti gli iperpiani che classificano correttamente il training set, l’iperpiano che ha norma minima (w minima), cioè margine massimo rispetto ai punti del training set Le classi dei cerchi e dei quadrati sono separate dal piano tratteggiato, con un margine piccolo (a), o grande (b) Nel caso (b) ci si aspetta un minor rischio di overfitting, ovvero una maggiore capacità di generalizzazione (b) (a) Sistemi di supporto alle decisioni - Leonardo Rigutini

145 Sistemi di supporto alle decisioni - Leonardo Rigutini
Massimo margine L’iperpiano ottimo è quello che massimizza il margine, cioè la distanza tra se stesso e i punti più vicini dell’insieme di dati Per costruire l’iperpiano ottimo, occorre classificare correttamente i punti del training set nelle due classi yi{1,1} minimizzando la norma di w Il problema può essere formulato come segue: Sistemi di supporto alle decisioni - Leonardo Rigutini

146 Sistemi di supporto alle decisioni - Leonardo Rigutini
Lagrangiana  1 Questo problema si può risolvere con la tecnica dei moltiplicatori di Lagrange in cui si introduce un moltiplicatore per ogni vincolo La lagrangiana del problema è: in cui =(1,…,l) è il vettore dei moltiplicatori di Lagrange i Sistemi di supporto alle decisioni - Leonardo Rigutini

147 Sistemi di supporto alle decisioni - Leonardo Rigutini
Lagrangiana  2 La lagrangiana deve essere minimizzata rispetto a w e b e contemporaneamente massimizzata rispetto a ≥0: si cerca un punto di sella Differenziando rispetto a w e b si ottiene… Sistemi di supporto alle decisioni - Leonardo Rigutini

148 Lagrangiana  3 w* può essere scritto come una combinazione lineare dei vettori xi del training set: w* = i i *yi xi  f(x) = w*x + b = i i *yi xi  x + b I dati appaiono solo all’interno di prodotti scalari Sostituendo il valore calcolato w* nella lagrangiana si può riformulare il problema in una forma duale più semplice Nella formulazione duale, la funzione da ottimizzare è una funzione quadratica nei i Sistemi di supporto alle decisioni - Leonardo Rigutini

149 Sistemi di supporto alle decisioni - Leonardo Rigutini
Lagrangiana  4 Sistemi di supporto alle decisioni - Leonardo Rigutini

150 Sistemi di supporto alle decisioni - Leonardo Rigutini
Lagrangiana  5 Nel nuovo problema i vincoli originali sono sostituiti da vincoli sui moltiplicatori ed i vettori del training set appaiono solo sotto forma di prodotti scalari La complessità del problema duale non dipende dalla dimensione degli ingressi, ma dalla cardinalità del training set Sistemi di supporto alle decisioni - Leonardo Rigutini

151 Sistemi di supporto alle decisioni - Leonardo Rigutini
Support vector  1 La soluzione del nuovo problema fornisce i moltiplicatori di Lagrange L’iperpiano ottimo si ricava… …dall’espressione di w*, dopo la sostituzione dei moltiplicatori calcolati …mentre il valore di b* deriva dall’applicazione delle condizioni KuhnTucker, i*(yi(w*xb*)1)=0 Il classificatore è dato da per ogni vettore x * Sistemi di supporto alle decisioni - Leonardo Rigutini

152 Sistemi di supporto alle decisioni - Leonardo Rigutini
Support vector  2 Nella soluzione, tutti i punti xi per cui il corrispondente moltiplicatore i è strettamente maggiore di zero vengono detti support vector e si trovano su uno dei due iperpiani H1, H2 equidistanti dall’iperpiano ottimo e ad esso paralleli (per le condizioni di KuhnTucker) Tutti gli altri punti del training set hanno il corrispondente i uguale a zero e non influenzano il classificatore I support vector sono i punti critici del training set e sono i più vicini all’iperpiano di separazione; se tutti gli altri punti venissero rimossi o spostati senza oltrepassare i piani H1 e H2 e l’algoritmo di apprendimento venisse ripetuto, darebbe esattamente lo stesso risultato Sistemi di supporto alle decisioni - Leonardo Rigutini

153 Sistemi di supporto alle decisioni - Leonardo Rigutini
Da notare… L’iperpiano ottimo di separazione è determinato solo in base ai support vector che, in generale, sono in numero esiguo rispetto alla cardinalità l del training set Tutta l’informazione contenuta nel training set è concentrata nei soli vettori di supporto, che sono gli unici dati sui quali si effettua l’apprendimento r Sistemi di supporto alle decisioni - Leonardo Rigutini

154 Caso 2: classificatore lineare su dati non linearmente separabili

155 Classificatore lineare su dati non linearmente separabili  1
Per come è stato definito, il classificatore a supporto vettoriale lineare non è in grado gestire casi in cui le classi non siano linearmente separabili Come risolvere il problema? Rilassare i vincoli di corretta classificazione, tollerando un certo numero di errori Realizzare altre superfici di separazione oltre l’iperpiano Sistemi di supporto alle decisioni - Leonardo Rigutini

156 Classificatore lineare su dati non linearmente separabili  2
Piano separatore per un insieme di punti non linearmente separabili; il piano ha distanza b/w dall’origine e viene determinato dai support vector (i punti cerchiati) Il punto in posizione anomala dista /w  dalla sua classe Sistemi di supporto alle decisioni - Leonardo Rigutini

157 Dati non linearmente separabili  1
Generalizzazione dell’iperpiano ottimo Nella fase di ottimizzazione si rilassa il vincolo di esatta classificazione dei campioni del training set (soft margin), introducendo delle variabili slack i I vincoli diventano: wxib  1  i per yi= 1 wxib  1  i per yi= 1 con i  0, per ogni i Sistemi di supporto alle decisioni - Leonardo Rigutini

158 Dati non linearmente separabili  2
In base al valore assunto dalla corrispondente variabile di slack, i punti del training set saranno: disposti al di là degli iperpiani H1 e H2 e correttamente classificati (i=0) posti tra gli iperpiani H1 e H2 e correttamente classificati (0<i<1) erroneamente classificati (i >1) Sistemi di supporto alle decisioni - Leonardo Rigutini

159 Dati non linearmente separabili  3
Il problema può essere formulato come dove C e k sono parametri che devono essere determinati a priori: ad un alto valore di C corrisponde un’alta penalità dovuta agli errori Sistemi di supporto alle decisioni - Leonardo Rigutini

160 Dati non linearmente separabili  4
Le variabili di slack si introducono per rilassare il vincolo di separabilità i  0  xi ha margine <w1 In pratica, l’algoritmo SVM cerca di minimizzare w e di separare i punti dati commettendo il numero minimo di errori possibile La soluzione al problema di ottimizzazione si trova in modo analogo al caso linearmente separabile Sistemi di supporto alle decisioni - Leonardo Rigutini

161 Dati non linearmente separabili  5
La lagrangiana del problema è: in cui i moltiplicatori =(1,…,l), =(1,…,l) sono associati ai vincoli L deve essere minimizzata rispetto a w, b e =[1,…,l] e massimizzata rispetto a ≥0 e ≥0 Sistemi di supporto alle decisioni - Leonardo Rigutini

162 Dati non linearmente separabili  6
Supponendo k=1 per semplificare i calcoli, si arriva ad una riformulazione duale del problema simile ancora al caso linearmente separabile Sistemi di supporto alle decisioni - Leonardo Rigutini

163 Dati non linearmente separabili  7
La soluzione del problema è identica a quella del caso separabile tranne per il vincolo sui moltiplicatori, che adesso sono limitati superiormente da C Il classificatore è: Sistemi di supporto alle decisioni - Leonardo Rigutini

164 Caso 3: classificatore non lineare

165 Classificatore non lineare  1
Alternativamente, nel caso di dati non linearmente separabili, si introduce un mapping (x) verso uno spazio di dimensione “molto più grande”, in cui gli esempi che compongono l’insieme degli ingressi siano linearmente separabili Invece di aumentare la complessità del classificatore (che resta un iperpiano) si aumenta la dimensione dello spazio delle feature In dipendenza della dimensione dello spazio in cui è formulato il problema originale, il mapping può portare a spazi “trasformati” a dimensione molto elevata (fino a 106) Sistemi di supporto alle decisioni - Leonardo Rigutini

166 Classificatore non lineare  2
Le due classi rappresentate dai cerchi e dai quadrati nello spazio di input non sono linearmente separabili, ma attraverso la funzione  i punti vengono mappati in uno spazio in cui divengono linearmente separabili Sistemi di supporto alle decisioni - Leonardo Rigutini

167 Esempio: le due spirali  1
Esiste un iperpiano nello spazio delle feature per cui i dati sono linearmente separabili Sistemi di supporto alle decisioni - Leonardo Rigutini

168 Esempio: le due spirali  2
Sistemi di supporto alle decisioni - Leonardo Rigutini

169 Un’altra situazione possibile…
: x (x) Sistemi di supporto alle decisioni - Leonardo Rigutini

170 Sistemi di supporto alle decisioni - Leonardo Rigutini
Funzioni kernel Supponiamo di mappare i dati iniziali non linearmente separabili in uno spazio di dimensione superiore in cui essi siano linearmente separabili, usando una funzione di mapping : dH Uno spazio di dimensione maggiore causa però seri problemi di calcolo, perché l’algoritmo di apprendimento deve lavorare con vettori di grandi dimensioni (con molte componenti) Tuttavia, in questa situazione, l’algoritmo di apprendimento dipende dai dati solamente tramite il prodotto delle loro immagini attraverso  in H, cioè tramite funzioni della forma (xi)·(xj) Sistemi di supporto alle decisioni - Leonardo Rigutini

171 Sistemi di supporto alle decisioni - Leonardo Rigutini
Kernel Per ovviare al problema dell’aumento della dimensione dei vettori di feature si introduce quindi una funzione kernel che restituisce il prodotto delle immagini, attraverso , dei suoi due argomenti: K(xi,xj)= (xi)(xj)  è possibile evitare di eseguire il prodotto esplicito tra le immagini dei vettori, è sufficiente conoscerne la “forma funzionale” Pertanto è possibile sostituire K all’interno dell’algoritmo e ignorare la forma esplicita di  Sistemi di supporto alle decisioni - Leonardo Rigutini

172 Quali funzioni sono kernel ?
Per alcune funzioni K(xi,xj) verificare che K(xi,xj)=(xi)T(xj) è complesso Teorema di Mercer Ogni funzione simmetrica semidefinita positiva è un kernel L’impiego di funzioni kernel di fatto “nasconde” il mapping nello spazio multidimensionale Sistemi di supporto alle decisioni - Leonardo Rigutini

173 Sistemi di supporto alle decisioni - Leonardo Rigutini
Matrice kernel È una rappresentazione matriciale della funzione kernel (argomenti: gli m vettori di apprendimento): Contiene tutte le informazioni necessarie per l’apprendimento Riassume informazioni sui dati e sul kernel È simmetrica e semidefinita positiva Sistemi di supporto alle decisioni - Leonardo Rigutini

174 Ancora sulla lineare separabilità…
Sostituendo (xi) (xj) con K(xi,xj) nell’algoritmo, si genera una Support Vector Machine che “lavora” in H e fornisce il risultato nella stessa quantità di tempo che impiegherebbe se lavorasse con i dati originali non trasformati Tutte le considerazioni fatte nel caso linearmente separabile restano valide, poiché si sta costruendo un classificatore lineare in uno spazio differente In pratica, l’estensione a superfici di decisione complesse avviene in maniera semplice: mappando la variabile in input x in uno spazio di dimensione maggiore e lavorando poi con una classificazione lineare nel nuovo spazio Sistemi di supporto alle decisioni - Leonardo Rigutini

175 Sistemi di supporto alle decisioni - Leonardo Rigutini
Feature expansion Sistemi di supporto alle decisioni - Leonardo Rigutini

176 Classificatore non lineare  1
Un punto x viene mappato in un vettore di “feature” tramite la funzione : x(x)=(a11(x),a22(x),…) dove gli ai sono numeri reali e le i sono funzioni reali Quindi, si applica lo stesso algoritmo del caso linearmente separabile sostituendo la variabile x con un nuovo vettore di feature (x) Sistemi di supporto alle decisioni - Leonardo Rigutini

177 Classificatore non lineare  2
La funzione di decisione con il mapping diventa quindi: Sostituendo i prodotti scalari (xi)·(xj) con una funzione kernel: si ottiene Sistemi di supporto alle decisioni - Leonardo Rigutini

178 Sistemi di supporto alle decisioni - Leonardo Rigutini
Esempio  1 Supponiamo x2 e K(xi,xj)=(xi xj)2 In questo caso, lo spazio H e il mapping : 2H tale che (xi xj)2=(xi)·(xj) sono dati da H =3 e Infatti… Sistemi di supporto alle decisioni - Leonardo Rigutini

179 Sistemi di supporto alle decisioni - Leonardo Rigutini
Esempio  2 L’XOR diventa linearmente separabile per : 2 3, con (x1,x2)=(x1, x2, x1 x2) Sistemi di supporto alle decisioni - Leonardo Rigutini

180 Sistemi di supporto alle decisioni - Leonardo Rigutini
Esempio  3 L’immagine di  può esistere in uno spazio anche di dimensione infinita, ma è solo una superficie, anche se molto “contorta”, la cui dimensione intrinseca, il numero di parametri necessari per specificare un punto, è la stessa dello spazio dei vettori x Sistemi di supporto alle decisioni - Leonardo Rigutini

181 Sistemi di supporto alle decisioni - Leonardo Rigutini
Tipi di kernel  1 La funzione kernel va scelta accuratamente per il particolare tipo di problema: è sempre possibile trasformare l’input in uno spazio di dimensione maggiore del numero di punti del training set e produrre un classificatore perfetto… …Tuttavia, questi generalizzerebbe malissimo su dati nuovi, a causa dell’overfitting Sistemi di supporto alle decisioni - Leonardo Rigutini

182 Sistemi di supporto alle decisioni - Leonardo Rigutini
Tipi di kernel  2 Tipi di kernel comunemente usati sono: Sistemi di supporto alle decisioni - Leonardo Rigutini

183 Sistemi di supporto alle decisioni - Leonardo Rigutini
Modularità Una SVM è composta da due moduli: Un modulo generale di apprendimento Una funzione kernel specifica per il problema da affrontare Qualsiasi SVM può operare con qualsiasi kernel Il problema di apprendere un compito difficile si sposta nel problema di scegliere opportunamente una funzione kernel (di nuovo un problema difficile…) per trasformarlo in un compito facile (perché linearmente separabile) Sistemi di supporto alle decisioni - Leonardo Rigutini

184 Come scegliere un classificatore SVM ?
Per impiegare una SVM è allora necessario definire: tipo di kernel da impiegare parametri del particolare kernel valore di C Non esistono criteri teorici per queste scelte; tipicamente occorre una verifica su un insieme di validazione Sistemi di supporto alle decisioni - Leonardo Rigutini

185 Classificazione multiclasse  1
Le SVM si applicano solo a problemi di classificazione binaria (cioè sono capaci di predire il valore di una variabile booleana) Come fare per problemi multiclasse ad N classi? Si addestrano N support vector machine SVM 1 apprende “Output==1” vs “Output != 1” SVM 2 apprende “Output==2” vs “Output != 2” SVM N apprende “Output==N” vs “Output != N” Sistemi di supporto alle decisioni - Leonardo Rigutini

186 Classificazione multiclasse  2
Per predire l’output relativo ad un nuovo input, si sceglie quella SVM che mappa il pattern nel semipiano positivo, con massimo margine rispetto all’iperpiano separatore Sistemi di supporto alle decisioni - Leonardo Rigutini

187 Esempio: IRIS dataset  1
L’iris dataset contiene i dati relativi a 150 iris, appartenenti a 3 diversi tipi: Iris setosa, Iris versicolor ed Iris virginica, descrivendone le caratteristiche in termini di larghezza e lunghezza di foglie e petali (in cm) Iris setosa Iris versicolor Iris virginica Sistemi di supporto alle decisioni - Leonardo Rigutini

188 Esempio: IRIS dataset  2
Per semplicità, si considerano solo i due attributi che portano maggior informazione riguardo alla classe di appartenenza: la lunghezza e la larghezza del petalo La distribuzione dei dati è Sistemi di supporto alle decisioni - Leonardo Rigutini

189 Esempio: IRIS dataset  3
SVM lineare Polinomiale (grado 2, C=) Polinomiale (grado 10, C=) OVERFITTING! Le classi setosa e versicolor vengono separate facilmente da un classificatore lineare C=: non si accettano errori RBF (=1.0, C=) Polinomiale (grado 2, C=10) Sistemi di supporto alle decisioni - Leonardo Rigutini

190 Sistemi di supporto alle decisioni - Leonardo Rigutini
Conclusioni  1 Il perceptron è lo strumento più semplice per costruire un classificatore Problemi: uso inefficiente dei dati, overfitting, mancanza di espressività Le SVM risolvono questi problemi, mediante l’utilizzo di margini e di tecniche di feature expansion Per realizzare l’espansione dello spazio di input con un carico computazionale accettabile si ricorre al trucco della definizione dei kernel La presenza del kernel evita calcoli onerosi di prodotti scalari fra vettori ad alta dimensionalità (grazie all’uso dei moltiplicatori di Lagrange ed al Representer Theorem) Sistemi di supporto alle decisioni - Leonardo Rigutini

191 Sistemi di supporto alle decisioni - Leonardo Rigutini
Conclusioni  2 Le SVM sono diventate popolari perché capaci di apprendere dataset “difficili”, con buone prestazioni in generalizzazione Le SVM sono attualmente fra i migliori classificatori in una varietà di problemi (es. classificazione di testi e genomica) Il tuning dei parametri nelle SVM è un’arte: la selezione di uno specifico kernel e dei relativi parametri viene eseguita in modo empirico (trialanderror) Sistemi di supporto alle decisioni - Leonardo Rigutini

192 Software online e bibliografia
SVMLight: (in C) SVMFu: (in C++) SVMTorch: (in C++) SVMToolbox: B. B. Boser, I. M. Guyon, V. N. Vapnik, A training algorithm for optimal margin classifiers, Proc. of the 5th Workshop on Computational Learning Theory, 1992. C. Cortes and V. N. Vapnik, Support vector networks, Machine Learning, 20, pp. 125, 1995 V. N. Vapnik, Statistical learning theory. Wiley and Sons, 1998 M. Pontil and A. Verri, Properties of Support Vector Machines, Neural Computation, 10(4), pp. 955974, 1998 C.J.C. Burges, A tutorial on support vector machines for pattern recognition, Data Mining and Knowledge Discovery, 2(2):955974, Sistemi di supporto alle decisioni - Leonardo Rigutini

193 Valutazione della classificazione

194 Sistemi di supporto alle decisioni - Leonardo Rigutini
Confusion table Si costruisce una tabella con k righe e k colonne, dove k è il numero delle classi: Le righe indicano le classi originali Le colonne indicano le classi predette Ogni elemento della tabella aij rappresenta il numero di esempi appartenenti alla classe Ci classificati dal modello nella classe Cj Sistemi di supporto alle decisioni - Leonardo Rigutini

195 Sistemi di supporto alle decisioni - Leonardo Rigutini
Confusion table Dalla confusion table è possibile individuare tre tipi di valori: Veri positivi: elementi classificati correttamente. Corrisponde agli elementi sulla diagonale della confusion table: Falsi positivi: elementi classificati nella classe j sbagliando Sistemi di supporto alle decisioni - Leonardo Rigutini

196 Sistemi di supporto alle decisioni - Leonardo Rigutini
Confusion table Falsi negativi: elementi che dovrebbero appartenere alla classe j , ma che non vi sono stati assegnati dal classificatore Veri negativi: elementi che giustamente non sono stati assegnati alla classe j Sistemi di supporto alle decisioni - Leonardo Rigutini

197 Micro e Macro averaging
I valori elencati precedentemente sono utilizzati per calcolare una misura di qualità della classificazione Accuracy, Precision e Recall Tali valori possono essere calcolati in due modi: Macro-Average: la misura globale è ottenuta mediando i valori calcolati per ogni classe Micro-Average: la misura delle prestazioni è ottenuta calcolando i valori di TP,FP,TN e FN globali (somme per i rispettivi valori di ogni classe) e poi applicando la formula di calcolo Sistemi di supporto alle decisioni - Leonardo Rigutini

198 Sistemi di supporto alle decisioni - Leonardo Rigutini
1. Accuracy Misura l’accuratezza del classificatore, ossia il numero di risultati corretti rispetto al numero possibile di risultati corretti. NB: tra i risultati corretti sono inseriti anche i TN Sistemi di supporto alle decisioni - Leonardo Rigutini

199 Sistemi di supporto alle decisioni - Leonardo Rigutini
2. Precision e Recall Precision e Recall sono due misure di prestazioni che derivano dalla teoria dell’Information Retrieval La Precision misura la percentuale di risposte giuste del sistema rispetto al numero totale di risultati che il sistema stesso ha ritornato: Quanto di quello che il classificatore ha inserito nella classe è corretto, la precisione dei risultati, quanto fidarsi dei risultati ottenuti La recall, invece, indica la percentuale di esempi originariamente nella classe che invece non sono stati classificati bene: Quanto il classificatore ha “lasciato” fuori dalla classificazione Sistemi di supporto alle decisioni - Leonardo Rigutini

200 Sistemi di supporto alle decisioni - Leonardo Rigutini
Precision e Recall Sistemi di supporto alle decisioni - Leonardo Rigutini

201 Sistemi di supporto alle decisioni - Leonardo Rigutini
F1 e Breakeven-point Nessuna delle due misure viste prima (Pr e Re) hanno un senso senza l’altra. Diversi metodi per comporre i due valori in una misura unica di prestazioni sono stati proposti F1, ossia la media armonica di essi: Breakeven-point: variare la soglia di classificazione/reject fino a trovare il punto in cui Pr=Re. Aumentando la soglia di rejection, aumentiamo la Pr e diminuiamo la Re (accettare poco ma classificato con molta precisione). Viceversa se invece abbassiamo la soglia (accettiamo tutto, ma con bassa precisione). NB: la F1 è massimizzata quando Pr=Re, ossia proprio al breakeven-point Sistemi di supporto alle decisioni - Leonardo Rigutini

202 Sistemi di supporto alle decisioni - Leonardo Rigutini
Conclusioni E’ stata data una formalizzazione del problema di classificazione automatica: Task supervisionato Sono stati illustrati i modelli più comunemente utilizzati nella classificazione automatica di pattern vettoriali: Regole Probabilistici Profile/Example-Based ANN SVM Inoltre sono state illustrate le misure utilizzate comunemente per misurare le prestazioni di un classificatore Sistemi di supporto alle decisioni - Leonardo Rigutini


Scaricare ppt "Sistemi di supporto alle decisioni 3. Classificazione"

Presentazioni simili


Annunci Google