Intelligenza Artificiale

Slides:



Advertisements
Presentazioni simili
Apprendimento Automatico Apprendimento supervisionato
Advertisements

Linguaggi algoritmici
Il controllo della coordinazione: il cervelletto
Elettrostatica 3 23 maggio 2011
Reti Neurali Alessandro Mazzetti.
Primo sguardo a metodi multivariati per l'analisi del ttH
Sistemi di supporto alle decisioni 4. Clustering
Attività cerebrale I neuroni si attivano in gruppi sotto lazione di uno stimolo Attività in gruppi ben delimitati con alta o bassa attività Il gruppo.
Pattern Recognition con Reti Neurali MLP
ALGORITMI DI OTTIMIZZAZIONE PER L'ADDESTRAMENTO DI RETI NEURALI
Reti Neurali: studi sull'intelligenza artificiale
Le reti neurali dagli esordi alle applicazioni
Apprendimento di funzioni algebriche
Apprendimento di funzioni algebriche
Computational Learning Theory and PAC learning
Apprendimento Automatico: Reti Neurali
Analisi e sintesi di circuiti combinatori
Promemoria sul concetto di Rete e sue Analogie
Corso di Informatica (Programmazione)
Reti neurali naturali ed artificiali
Apprendimento: Regola “Delta”
Realizzazione e caratterizzazione di una semplice rete neurale per la separazione di due campioni di eventi Vincenzo Izzo.
Alberi di Ricorrenza Gli alberi di ricorrenza rappresentano un modo conveniente per visualizzare i passi di sostitu- zione necessari per risolvere una.
BIOINGEGNERIA S. Salinari Lezione 4.
BIOINGEGNERIA S. Salinari Lezione 8. RETI AD APPRENDIMENTO NON SUPERVISIONATO Le reti ad apprendimento non supervisionato debbono essere in grado di determinare.
TECNOLOGIE DEI SISTEMI DI CONTROLLO
BIOINGEGNERIA S. Salinari Lezione 7. RETI CON APPRENDIMENTO SUPERVISIONATO A DISTANZA Nello sviluppo delle reti neurali si è proceduto indebolendo via.
Alternative al Paradigma Rappresentazionale
Modelli simulativi per le Scienze Cognitive Paolo Bouquet (Università di Trento) Marco Casarotti (Università di Padova)
Modelli simulativi per le Scienze Cognitive Paolo Bouquet (Università di Trento) Marco Casarotti (Università di Padova)
Modelli simulativi per le Scienze Cognitive
Filtri adattativi.
PATTERN RECOGNITION.
Reti Neurali Ricorrenti
Esercitazione N°6 Apprendimento Non-Supervisionato.
Artificial intelligence
Analisi delle corrispondenze
Intelligenza Artificiale Algoritmi Genetici
Intelligenza Artificiale
Apprendimento Automatico Apprendimento non supervisionato:
CALCOLO EVOLUZIONISTICO. In ogni popolazione si verificano delle mutazioni. Le mutazioni possono generare individui che meglio si adattano allambiente.
In contrapposizione con i metodi convenzionali (hard computing), le tecniche di soft computing non si basano su procedimenti esprimibili in forma chiusa.
Apprendimento Automatico Calcolo Evoluzionistico Stefano Cagnoni.
Dipartimento di Ingegneria dellInformazione Università degli Studi di Parma Intelligenza Artificiale Apprendimento Parte 2 Agostino Poggi Stefano Cagnoni.
APPLICAZIONI DI INTELLIGENZA ARTIFICIALE ALLA MEDICINA
RETI NEURALI ARTIFICIALI
Quale valore dobbiamo assumere come misura di una grandezza?
TRASDUTTORI E SENSORI.
Il neurone e i suoi componenti Il nucleo I dendriti Lassone Le connessioni sinaptiche.
Introduzione ai sistemi di controllo automatici
Classificazione (aka Cluster Analysis)
Perceptron. è la somma effettuata sul nodo i-esimo dello strato j n è il numero di nodi dello strato j-1 è l'output proveniente dal nodo k-esimo dello.
Rete di Hopfield applicata al problema del TSP Federica Bazzano
SEGMENTAZIONE PER OBIETTIVI: CHAID
Esercitazione 2 Reti Neurali Backpropagation. 2 Esercizio 1  Scompattare bp  Compilare i 4 programmi (con make, v.file readme )  Utilizzare i dati.
RETI NEURALI - 2.
Algoritmi.
Intelligenza Artificiale Reti Neurali
APPROSSIMAZIONE DI FUNZIONI
Learning Non Supervisionato
FILTRI ANALOGICI E DIGITALI Modulo del Corso Integrato di: Progetto di Circuiti per il Trattamento dei Segnali.
I recettori sensoriali
GLI EVENTI IONICI RESPONSABILI DEL POTENZIALE D’AZIONE
M. De Cecco - Sensor Fusion: teoria ed applicazione alla percezione di sistemi robotici SLAM Simultanea localizzazione e mappatura di veicoli autonomi.
ALGORITMO PER IL CALCOLO DELLA RADICE QUADRATA DI UN NUMERO METODO DI NEWTON Carlo Platella
REALIZZAZIONE DI UN SISTEMA DI CLASSIFICAZIONE Prof. Roberto Tagliaferri Studente: Ragognetti Gianmarco Corso di Reti Neurali e Knowledge Discovery A.A.
Esercitazione N°5 Approssimazione di Funzioni. Esercizio 1 Costruzione di una rete RBF Il metodo più semplice per approssimare una funzione mediante reti.
Le reti neurali Simona Balbi. Cosa sono le reti neurali Una rete neurale artificiale (A)NN è un paradigma di elaborazione dell’informazione ispirato al.
Self-Organizing Map (SOM Kohonen, 1981) è una tecnica di visualizzazione dei dati multidimensionali SOM è una mappa mono- (bi-)dimensionale che rappresenta.
Esercitazione N°2 Data Fitting con Modelli Lineari.
Transcript della presentazione:

Intelligenza Artificiale Reti Neurali Stefano Cagnoni

Reti Neurali Artificiali Paradigma computazionale caratterizzato dal massiccio parallelismo di processori elementari (neuroni artificiali). Ispirato da un modello matematico del neurone (McCulloch & Pitts 1943). Ogni processore può eseguire funzioni di per sé poco significative, ma l’azione combinata di un numero elevato di unità può realizzare funzioni anche molto complesse. Nate alla fine degli anni ‘50, presto abbandonate per i limiti evidenziati da Minsky (Perceptrons, 1969), per poi riaffermarsi alla fine degli anni ‘80, quando fu dimostrato che tali limiti potevano essere superati.

Neurone artificiale Costituito da due stadi: sommatore lineare (produce il cosiddetto net input) funzione di attivazione non lineare tipicamente a soglia; gradino o sigmoide 1 / (1 + e -(x -q))

Rete Neurale Artificiale Architettura a più strati: strato di ingresso strato/i nascosto/i strato di uscita Reti feedforward: connessioni possibili solo in avanti Reti ricorrenti: connessioni possibili anche da strati più vicini alle uscite (all’indietro) IN OUT

Reti Neurali Artificiali Ad ogni connessione è associato un peso, utilizzato nel sommatore che costituisce il primo stadio del neurone che riceve dati attraverso la connessione. Il comportamento di una rete neurale è quindi determinato: dal numero dei neuroni dalla topologia dai valori dei pesi associati alle connessioni

Problemi risolubili con diverse topologie

Reti Neurali Artificiali Proprietà: Capacità di apprendere da esempi Capacità di generalizzare Capacità di astrarre Insensibilità al rumore Decadimento graduale delle prestazioni

Training L’addestramento (training) di una rete neurale è un processo iterativo che modifica i pesi della rete sulla base delle ‘prestazioni’ della rete su un insieme di esempi, al fine di minimizzare una funzione obiettivo (cioè di raggiungere un comportamento desiderato). L’insieme degli esempi su cui la rete viene addestrata è detto training set Le prestazioni della rete, ottimizzate sul training set, devono essere poi verificate su dati che non appartengono al training set (test set)

Training L’addestramento può essere di 2 tipi: Con supervisione: gli esempi sono divisi in una parte che contiene dati di ingresso ed un’altra parte (teaching input) che contiene le uscite che si desidera ottenere in corrispondenza di tali ingressi. I pesi sono adattati in modo da minimizzare le differenza fra il comportamento della rete e quello desiderato. Senza supervisione: gli esempi sono costituiti dai soli dati di ingresso. I pesi vengono adattati in modo tale che la rete si auto-organizzi in modo da riflettere alcune caratteristiche del training set.

Training

Addestramento con supervisione: Backpropagation Metodo di ottimizzazione basato sul principio della discesa lungo il gradiente. Minimizza una funzione ‘errore quadratico’ S t=1,T S i=1,N (y(t) - d(t))2 / 2 N=dim. Uscita, T=n.esempi, y(t)=output rete, d(t)=teaching input Applicabile a reti di tipo feedforward (in cui è possibile definire un ordine temporale nell’attivazione dei neuroni) Deriva il nome dal fatto che la modifica dei pesi avviene sulla base della “propagazione all’indietro” dell’errore dallo strato di uscita verso quello di ingresso.

Addestramento con supervisione: Backpropagation Si inizializzano i pesi con piccoli numeri random Ad ogni iterazione Per ogni esempio nel training set: si calcola l’uscita prodotta dalla attuale configurazione della rete si calcola l’errore si modificano i pesi ‘spostandoli’ lungo il gradiente della funzione errore calcolato rispetto ai pesi fino al raggiungimento di un limite inferiore prestabilito per l’errore o di un certo numero prestabilito di iterazioni

Regola di derivazione a catena ¶+x/ ¶zi = ¶x/ ¶zi + S j>i ¶ +x/ ¶ zj * ¶ zj/ ¶ zi Un esempio: z2 = 4 * z1 z3 = 3 * z1 + 5 * z2 ¶ z3/ ¶ z1 = 3, ma in realtà z3 dipende da z1 anche tramite z2 ¶+z3/ ¶z1 = 23 che dà la vera dipendenza, propagata attraverso le variabili intermedie, di z3 da z1

Addestramento senza supervisione: Mappe auto-organizzanti (SOM) di Kohonen Modello biologico di partenza Nella corteccia cerebrale esistono mappature (proiezioni) di stimoli sensoriali su specifiche reti di neuroni corticali. I neuroni senso-motori costituiscono una mappa distorta (l’estensione di ciascuna regione è proporzionale alla sensibilità della corrispondente area corporea, non alle dimensioni) della superficie corporea. Tuttavia, parti adiacenti della corteccia corrispondono a parti adiacenti della superficie corporea.

Addestramento senza supervisione: Mappe auto-organizzanti (SOM) di Kohonen Interazioni laterali fra neuroni eccitazione laterale a breve raggio (50-100 mm) azione inibitoria (fino a 200-500 mm) azione eccitatoria debole a lungo raggio (fino a qualche cm) approssimabili come:

Addestramento senza supervisione: Mappe auto-organizzanti (SOM) di Kohonen Mappe “sensoriali”, costituite da un singolo strato di neuroni in cui le unità si specializzano a rispondere a stimoli diversi in modo tale che: ingressi di tipo diverso attivino unità diverse unità topologicamente vicine vengano attivate da ingressi simili

Addestramento senza supervisione: Mappe auto-organizzanti (SOM) di Kohonen Singolo strato di neuroni ni i=1,w*h (w=largh. h= alt. mappa) Ogni ingresso X={xj, j=1,N} è collegato a tutti i neuroni Ogni connessione è associata ad un peso wij Funzione di attivazione fi= 1/d(Wi,X) d= distanza Presenza di interazioni laterali

Addestramento senza supervisione: Mappe auto-organizzanti (SOM) di Kohonen I pesi di ciascun neurone vengono modificati: in senso eccitatorio proporzionalmente al valore della propria funzione di attivazione e di quelle dei neuroni appartenenti ad un loro vicinato, proporzionalmente alla distanza da essi; in senso inibitorio proporzionalmente al valore della funzione di attivazione dei neuroni esterni al vicinato, proporzionalmente alla distanza da essi. Quindi, se si ripropone lo stesso ingresso alla rete: i neuroni che avevano un valore elevato di attivazione e i vicini mostreranno un’attivazione ancora maggiore i neuroni che rispondevano poco risponderanno ancor meno

Addestramento senza supervisione: Mappe auto-organizzanti (SOM) di Kohonen Se si presentano dati ben distribuiti nello spazio degli ingressi, in modo iterativo, ogni neurone si specializza a rispondere a dati di un certo tipo Inoltre, neuroni vicini rispondono a stimoli vicini proiettando, in pratica, lo spazio degli ingressi sullo strato di neuroni. Risultati: riduzione di dimensionalità dei dati da N (dim. dell’ingresso) a m (dimensione della mappa); ogni dato è rappresentato dalla coordinata dell’unità su cui si proietta, cioè quella che ha massima attivazione, cioè quella per cui i cui pesi sono più simili (vicini) al dato stesso.

Addestramento senza supervisione: Mappe auto-organizzanti (SOM) di Kohonen In pratica: si partiziona lo spazio degli ingressi in tanti sottospazi quanti sono i neuroni ogni sottospazio si di S={Xk} è definito come: si = {Xj t.che d(Xj,Wi) = mint (Xi,Wt) } Tassellazione di Voronoi

Addestramento senza supervisione: Mappe auto-organizzanti (SOM) di Kohonen Semplificazioni del modello per implementazione algoritmo di addestramento: si modificano i pesi solo nell’intorno del neurone che ha max attivazione (neurone vincente, questo tipo di addestramento è detto anche competitive learning) si considerano solo le interazioni laterali eccitatorie all’interno di un intorno limitato del neurone vincente NB Modificare i pesi in senso eccitatorio significa renderli più simili all’ingresso; modificarli in senso inibitorio significa renderli meno simili.

Addestramento senza supervisione: Mappe auto-organizzanti (SOM) di Kohonen a=C (a = learning rate, C costante positiva piccola << 1) Ripeti - Per ogni esempio xi nel training set: determina l’unità vincente nw modifica i pesi dell’unità vincente e di quelle che si trovano in un suo intorno nel modo seguente: wj(t+1) = wj (t) + a (xi - wj (t)) - a(k+1) = a(k) * (1 - g) (g costante positiva piccola << 1 ) finché la rete non raggiunge una configurazione stabile

Addestramento senza supervisione: Mappe auto-organizzanti (SOM) di Kohonen Realizzazione di un clustering dei dati, cioè di una identificazione, nello spazio degli ingressi, di partizioni indotte dalle similitudini/differenze fra i dati ogni partizione è rappresentata da un prototipo (centroide) definito dal valore dei pesi del neurone corrispondente il clustering è di tipo non supervisionato, in quanto non abbiamo alcuna informazione a priori sulle classi di appartenenza dei dati a posteriori è possibile etichettare (classificare) dati in base alla partizione dello spazio degli ingressi cui appartengono