RETI NEURALI - 2.

Slides:



Advertisements
Presentazioni simili
Apprendimento Automatico Apprendimento supervisionato
Advertisements

Il problem-solving Gianpiero Cabodi e Paolo Camurati Dip. Automatica e Informatica Politecnico di Torino.
Intelligenza Artificiale
Primo sguardo a metodi multivariati per l'analisi del ttH
Sistemi di supporto alle decisioni 4. Clustering
Attività cerebrale I neuroni si attivano in gruppi sotto lazione di uno stimolo Attività in gruppi ben delimitati con alta o bassa attività Il gruppo.
ALGORITMI DI OTTIMIZZAZIONE PER L'ADDESTRAMENTO DI RETI NEURALI
Reti Neurali: studi sull'intelligenza artificiale
Le reti neurali dagli esordi alle applicazioni
Teoria e Tecniche del Riconoscimento
Apprendimento di funzioni algebriche
Apprendimento di funzioni algebriche
Apprendimento Automatico: Reti Neurali
Support Vector Machines
SISTEMI D’EQUAZIONI ED EQUAZIONI DIFFERENZIALI LINEARI.
Energia e potenza nei circuiti elettrici
1 Corso di Laurea in Biotecnologie Informatica (Programmazione) Problemi e algoritmi Anno Accademico 2009/2010.
Reti neurali naturali ed artificiali
Apprendimento: Regola “Delta”
Realizzazione e caratterizzazione di una semplice rete neurale per la separazione di due campioni di eventi Vincenzo Izzo.
Soluzione di equazioni non lineari
G.M. - Informatica B-Automazione 2002/03 Funzione Indica una relazione o corrispondenza tra due o più insiemi che soddisfa ad alcune proprietà. Il dominio.
Ricerca della Legge di Controllo
Il reticolo di diffrazione
BIOINGEGNERIA S. Salinari Lezione 4.
TECNOLOGIE DEI SISTEMI DI CONTROLLO
BIOINGEGNERIA S. Salinari Lezione 7. RETI CON APPRENDIMENTO SUPERVISIONATO A DISTANZA Nello sviluppo delle reti neurali si è proceduto indebolendo via.
Apprendimento di movimenti della testa tramite Hidden Markov Model
STATISTICA a.a METODO DEI MINIMI QUADRATI REGRESSIONE
Modelli simulativi per le Scienze Cognitive Paolo Bouquet (Università di Trento) Marco Casarotti (Università di Padova)
Modelli simulativi per le Scienze Cognitive Paolo Bouquet (Università di Trento) Marco Casarotti (Università di Padova)
Modelli simulativi per le Scienze Cognitive
Reti Neurali Ricorrenti
Esercitazione N°6 Apprendimento Non-Supervisionato.
Artificial intelligence
Reti Neurali Mercoledì, 10 Novembre 2004 Giuseppe Manco References: Chapter 4, Mitchell Chapter 1-2,4, Haykin Chapter 1-4, Bishop Reti Neurali Lezione.
Apprendimento Automatico Apprendimento non supervisionato:
Intelligenza Artificiale
APPLICAZIONI DI INTELLIGENZA ARTIFICIALE ALLA MEDICINA
RETI NEURALI ARTIFICIALI
PoliICR Riconoscimento dei Caratteri Daniele Gasperini – William Spinelli Riconoscimento dei Segnali: un approccio unitario prof. Sergio Brofferio.
Struttura di un neurone
FLOWCHART DELL’ALGORITMO DI APPRENDIMENTO DELLA RETE DI KOHONEN
Il neurone e i suoi componenti Il nucleo I dendriti Lassone Le connessioni sinaptiche.
IL CERVELLO UMANO Il cervello umano è sicuramente la struttura più complessa dell‘universo e può essere considerato come una enorme rete neurale. Circa.
Fisiologia della sensibilità generale
Perceptron. è la somma effettuata sul nodo i-esimo dello strato j n è il numero di nodi dello strato j-1 è l'output proveniente dal nodo k-esimo dello.
LE RETI NEURALI: MODELLI, ALGORITMI E APPLICAZIONI
Rete di Hopfield applicata al problema del TSP Federica Bazzano
Esercitazione 2 Reti Neurali Backpropagation. 2 Esercizio 1  Scompattare bp  Compilare i 4 programmi (con make, v.file readme )  Utilizzare i dati.
Applicare l’estrapolazione ricorsiva di Richardson, per la valutazione numerica della derivata dinel punto a = 1, utilizzando i valori in tabella. L’errore.
APPLICAZIONI DI INTELLIGENZA ARTIFICIALE ALLA MEDICINA 4.
Intelligenza Artificiale
Intelligenza Artificiale Reti Neurali
BIOINGEGNERIA S. Salinari Lezione 5. L’algoritmo di retropropagazione Premesse 1.Reti Duali Si definiscono reti duali reti per cui è verificata la seguente.
APPROSSIMAZIONE DI FUNZIONI
Learning Non Supervisionato
FILTRI ANALOGICI E DIGITALI Modulo del Corso Integrato di: Progetto di Circuiti per il Trattamento dei Segnali.
Flusso di Costo Minimo Applicazione di algoritmi: Cammini Minimi Successivi (SSP) Esercizio 1 Sia data la seguente rete di flusso, in cui i valori riportati.
Algoritmi e Strutture Dati
TRATTAMENTO STATISTICO DEI DATI ANALITICI
1 Lezione IX seconda parte Avviare la presentazione col tasto “Invio”
REALIZZAZIONE DI UN SISTEMA DI CLASSIFICAZIONE Prof. Roberto Tagliaferri Studente: Ragognetti Gianmarco Corso di Reti Neurali e Knowledge Discovery A.A.
Esercitazione N°5 Approssimazione di Funzioni. Esercizio 1 Costruzione di una rete RBF Il metodo più semplice per approssimare una funzione mediante reti.
Le reti neurali Simona Balbi. Cosa sono le reti neurali Una rete neurale artificiale (A)NN è un paradigma di elaborazione dell’informazione ispirato al.
Self-Organizing Map (SOM Kohonen, 1981) è una tecnica di visualizzazione dei dati multidimensionali SOM è una mappa mono- (bi-)dimensionale che rappresenta.
Lezioni di Ricerca Operativa Corso di Laurea in Informatica
Il potenziale elettrico e l’energia potenziale elettrica
IL LEGAME CHIMICO.
Cariche elettriche, forze e campi
Transcript della presentazione:

RETI NEURALI - 2

TIPI DI APPRENDIMENTO Esistono due tipi di apprendimento: Supervisionato Non supervisionato L’apprendimento supervisionato fa uso di una serie di esempi di cui si conosce l’output L’apprendimento non supervisionato classifica l’input mediante autoorganizzazione

APPRENDIMENTO SUPERVISIONATO

APPRENDIMENTO SUPERVISIONATO Algoritmo: N esempi ciascuno composto da k input J output Ogni ciclo viene chiamato epoca di apprendimento Durante l’addestramento la rete impara la relazione fra input ed output

APPRENDIMENTO SUPERVISIONATO Algoritmo:

APPRENDIMENTO SUPERVISIONATO Regola Delta generalizzata: Errore = ( Dj – Oj) 2 Dwij = - e(d err / dwij) Vogliamo minimizzare l’errore Facciamo piccoli spostamenti di segno opposto alla derivata della funzione errore

APPRENDIMENTO SUPERVISIONATO

APPRENDIMENTO SUPERVISIONATO In questo modo ci spostiamo sempre nella direzione opposta a quella in cui l’errore cresce: se l’errore E cresce all’aumentare di wji i pesi vengono diminuiti, mentre se E diminuisce al crescere di wji i pesi vengono aumentati. Ad ogni ciclo ci avviciniamo al minimo dell’errore Quando l’errore è minore di e la rete si ferma.

APPRENDIMENTO SUPERVISIONATO Questo è il cosiddetto metodo del gradiente decrescente E’ la base dell’algoritmo di apprendimento backpropagation (retropropagazione dell’errore) Nelle reti a più strati non si può applicare direttamente perché mentre conosciamo l’errore sullo strato di output non conosciamo l’errore sullo strato hidden L’algoritmo arriva alla soluzione mediante manipolazioni matematiche

APPRENDIMENTO SUPERVISIONATO Quando la rete ha appreso si congelano i pesi e si utilizza la rete in testing, ossia per risolvere problemi nuovi Quanto migliore è la scelta del training set, tanto più facile per la rete è generalizzare Le reti backpropagation sono le più potenti e versatili attualmente implementate

APPRENDIMENTO SUPERVISIONATO TEOREMA DI HECHT-NIELSEN-KOLMOGOROV:  Data una qualsiasi funzione f:{0,1}n --> Rm, f(x) = y, f puo’ essere implementata esattamente da una rete neurale feedforward a tre strati con n elementi nel primo strato, 2n+1 elementi nello strato nascosto, ed m elementi nello strato di output.  

APPRENDIMENTO NON SUPERVISIONATO La SOM e’ stata sviluppata negli anni 80 da T. Kohonen sulla base di precedenti studi di neurofisiologia. Consiste in uno strato di N elementi, detto strato competititvo. Ciascuno di questi riceve n segnali x1,…,xn che provengono da uno strato di input di n elementi, le cui connessioni hanno peso wij.

APPRENDIMENTO NON SUPERVISIONATO La SOM e’ stata sviluppata negli anni 80 da T. Kohonen sulla base di precedenti studi di neurofisiologia. Consiste in uno strato di N elementi, detto strato competititvo. Ciascuno di questi riceve n segnali x1,…,xn che provengono da uno strato di input di n elementi, le cui connessioni hanno peso wij.

APPRENDIMENTO NON SUPERVISIONATO

APPRENDIMENTO NON SUPERVISIONATO Per stimare l’intensita’ Ii dell’input : Ii = D(wi,x) wi=(wi1,…,win)T  x i =(x1,...,xn)T D(u,x) e’ una qualche funzione distanza, ad es. quella euclidea.

APPRENDIMENTO NON SUPERVISIONATO A questo punto viene messa in atto una competizione per valutare quale elemento ha la minore intensita' di input (ossia quale wi e’ il piu’ vicino ad x). La SOM prevede a questo punto un meccanismo cosiddetto di inibizione laterale, che e' presente anche in natura sotto forma di trasformazioni chimiche a livello sinaptico.

APPRENDIMENTO NON SUPERVISIONATO Nella regione corticale del cervello, neuroni fisicamente vicini mostrano legami piu' forti, mentre ad una certa distanza iniziano a mostrare legami inibitori. Ciascun elemento riceve sia stimoli eccitatori da parte degli elementi adiacenti (neighborhood), sia stimoli inibitori da parte degli elementi piu' lontani, secondo la forma "a cappello messicano".

APPRENDIMENTO NON SUPERVISIONATO

APPRENDIMENTO NON SUPERVISIONATO L'esistenza della neighborhood e' utile per non polarizzare la rete su pochi neuroni vincenti. A questo punto ha luogo la fase di apprendimento, secondo la cosiddetta "winner Take All Law" (WTA). I dati di training consistono in una sequenza di vettori di input x .

APPRENDIMENTO NON SUPERVISIONATO Lo strato di Kohonen decide poi il neurone vincitore sull abase della distanza minima. Ora i pesi vengono modificati secondo la legge  winew = wiold + a(x - wiold)zi   0<a<1 e decresce lentamente nel tempo con una legge del tipo   a(t) = a [1 - t/d] dove d e' un'opportuna costante.  

APPRENDIMENTO NON SUPERVISIONATO  

APPRENDIMENTO NON SUPERVISIONATO Essendo zi <> 0 solo per il neurone vincitore, i pesi dei neuroni vincenti ruotano sempre piu' verso gli stimoli vettorialmente piu' vicini, fino a sovrapporsi idealmente con essi.  La SOM effettua cosi' una quantizzazione vettoriale, ossia una mappatura da uno spazio a molte dimensioni in uno spazio con numero minore di dimensioni, conservando la topologia di partenza.  

APPRENDIMENTO NON SUPERVISIONATO La SOM classifica bene pattern topologicamente ben distribuiti, ma si trova in maggiore difficolta' nel caso di ditribuzioni non lineari. E’ evidente l'importanza della configurazione iniziale dei pesi, che deve essere il piu' possibile simile alla topologia di input.