Modelli simulativi per le Scienze Cognitive Paolo Bouquet (Università di Trento) Marco Casarotti (Università di Padova)

Slides:



Advertisements
Presentazioni simili
Quinta Lezione Espansione in momenti di dipolo, Metodo delle immagini, definizione e calcolo capacità.
Advertisements

Selezione delle caratteristiche - Principal Component Analysis
LA DESCRIZIONE DEL MOTO
Meccanica 7 28 marzo 2011 Corpi estesi. Forze interne al sistema
Apprendimento Automatico Apprendimento supervisionato
STRUTTURA DELL'ATOMO Protoni (p+) Neutroni (n°) Elettroni (e­) Gli atomi contengono diversi tipi di particelle subatomiche.
Fenomeni Ondulatori una perturbazione e’ la variazione rispetto alla configurazione di equilibrio di una o piu’ grandezze caratteristiche di un sistema.
Cinematica del braccio di un robot
Attività cerebrale I neuroni si attivano in gruppi sotto lazione di uno stimolo Attività in gruppi ben delimitati con alta o bassa attività Il gruppo.
M. UsaiElettromagnetismo applicato allingegneria Elettrica ed Energetica_3c ELETTROMAGNETISMO APPLICATO ALL'INGEGNERIA ELETTRICA ED ENERGETICA_3B (ultima.
Reti Neurali: studi sull'intelligenza artificiale
Le reti neurali dagli esordi alle applicazioni
Apprendimento di funzioni algebriche
Algoritmi Paralleli e Distribuiti a.a. 2008/09
Reti neurali naturali ed artificiali
Realizzazione e caratterizzazione di una semplice rete neurale per la separazione di due campioni di eventi Vincenzo Izzo.
Ma anche…prodotto della sezione S per la velocità V
FLUSSO E CIRCUITAZIONE DEL CAMPO MAGNETICO
Rotazione di un corpo rigido attorno ad un asse fisso
I conduttori in un campo elettrostatico
Ricerca della Legge di Controllo
BIOINGEGNERIA S. Salinari Lezione 8. RETI AD APPRENDIMENTO NON SUPERVISIONATO Le reti ad apprendimento non supervisionato debbono essere in grado di determinare.
CORSO DI MODELLI DI SISTEMI BIOLOGICI
STATISTICA a.a METODO DEI MINIMI QUADRATI REGRESSIONE
Le cause del moto: la situazione prima di Galilei e di Newton
Modelli simulativi per le Scienze Cognitive Paolo Bouquet (Università di Trento) Marco Casarotti (Università di Padova)
Modelli simulativi per le Scienze Cognitive Paolo Bouquet (Università di Trento) Marco Casarotti (Università di Padova)
Modelli simulativi per le Scienze Cognitive
Modelli simulativi per le Scienze Cognitive
Introduzione all’algebra lineare
Modelli simulativi per le Scienze Cognitive
Modelli simulativi per le Scienze Cognitive
PATTERN RECOGNITION.
Esercitazione N°6 Apprendimento Non-Supervisionato.
Università de L’AQUILA
Vettori. Le grandezze fisiche Lo scopo della fisica è quello di ricavare le leggi che legano le varie grandezze fisiche. Le grandezze fisiche sono le.
Intelligenza Artificiale Algoritmi Genetici
Apprendimento Automatico Apprendimento non supervisionato:
Conservazione della quantità di moto
APPLICAZIONI DI INTELLIGENZA ARTIFICIALE ALLA MEDICINA
RETI NEURALI ARTIFICIALI
Candidato : Giuseppe Circhetta Relatori :
SCOMPOSIZIONE DI UN VETTORE
Struttura di un neurone
Il neurone e i suoi componenti Il nucleo I dendriti Lassone Le connessioni sinaptiche.
LE LEVE.
il moto rotatorio di un corpo rigido
Le forze e le leve.
Rete di Hopfield applicata al problema del TSP Federica Bazzano
FLUSSO E CIRCUITAZIONE DEL CAMPO MAGNETICO
IL CAMPIONE.
RETI NEURALI - 2.
Intelligenza Artificiale
Intelligenza Artificiale Reti Neurali
Learning Non Supervisionato
Flusso di Costo Minimo Applicazione di algoritmi: Cammini Minimi Successivi (SSP) Esercizio 1 Sia data la seguente rete di flusso, in cui i valori riportati.
Microeconomia Introduzione Teoria del consumatore Impresa e produzione
Superfici Equipotenziali
Data una carica puntiforme Q
1 Lezione XI Avviare la presentazione col tasto “Invio”
centro di massa e momento di inerzia
Campo Elettrico Definizione operativa di campo elettrico: Il vettore campo elettrico associato ad una determinata carica sorgente Q, posta in un.
Proprietà macromolecolari Il calcolo delle proprietà macromolecolari implica l’utilizzo della statistica della catena polimerica in termini di distanze.
Self-Organizing Map (SOM Kohonen, 1981) è una tecnica di visualizzazione dei dati multidimensionali SOM è una mappa mono- (bi-)dimensionale che rappresenta.
Lezioni di Ricerca Operativa Corso di Laurea in Informatica
Transcript della presentazione:

Modelli simulativi per le Scienze Cognitive Paolo Bouquet (Università di Trento) Marco Casarotti (Università di Padova)

Apprendimento senza supervisione: auto-organizzazione Sia data una rete con un singolo strato di pesi ed una unità di output y lineare. Si utilizzi la regola di Hebb: dove lattivazione dellunica unità di output è la somma pesata degli input x. Quindi, non cè alcun output imposto dallesterno. Se una componente del vettore di input attiva y, la sinapsi sarà rafforzata, e la volta successiva ancora di più (auto-amplificazione). Quindi, questa semplice rete imparerà a rispondere maggiormente ai pattern che presentano le componenti più frequenti.

Normalizzazione dei pesi Poichè i pesi cresceranno allinfinito, dobbiamo normalizzare il vettore dei pesi: La rete converge verso la soluzione in cui loutput esprime la direzione di massima varianza della distribuzione degli input. Quindi, i pattern che si collocano lungo questa direzione (pattern più rappresentativi della distribuzione) attivano una risposta maggiore. Attenzione: a causa della normalizzazione, la regola non è locale! (bisogna conoscere tutti i pesi)

La regola di Oja: estrazione di N componenti principali Limita la crescita dei pesi sinaptici senza richiedere la normalizzazione, introducendo nella regola di Hebb un fattore di dimenticanza, che dipende dal corrente del peso: Se la distribuzione dei pattern di input è centrata sullo zero, loutput rappresenta la prima componente principale della distribuzione. Con N unità di output, allattivazione dellunità presinaptica si sottrae lattivazione pesata di tutte le unità di output collegate allunità di input: La rete estrae in questo caso N componenti principali.

La regola di Sanger La componente da sottrarre è calcolato su tutte le unità precedenti (rispetto ad i). Quindi la sommatoria su k va da 1 a i invece che da 1 a N. In questo modo le N componenti principali vengono estratte in ordine. Ciascuna unità viene forzata a sviluppare un vettore di pesi ortogonale ai vettori delle unità precedenti e contemporaneamente a massimizzare la varianza residua. Vantaggi: più facile linterpretazione delloutput. Svantaggi: introduce delle distorsioni se N è grande.

Reti competitive Sono reti ricorrenti con connessioni intrastrato nello strato di output. Ogni neurone di output possiede una connessione rientrante (auto-connessione) eccitatoria e connessioni inibitorie con tutti gli altri neuroni di output. Dato un certo input I, lunità di output k con valore dattivazione maggiore aumenterà ulteriormente la propria attivazione attraverso la connessioni auto-eccitatoria ed inibirà in misura sempre maggiore gli altri neuroni (questo riduce a sua volta leffetto inibitorio degli altri neuroni su k). Questo si ripete fino al raggiungimento di uno stato stabile (rilassamento). Quando una sola unità di output k rimane attiva al rilassamento si parla di rete winner-takes-all (il vincitore prende tutto).

Apprendimento competitivo Dato un training set i cui vettori hanno tutti lunghezza 1 (ovvero sono normalizzati). Possiamo rappresentare ogni vettore come una freccia orientata verso la superficie di una (iper)sfera avente raggio unitario. Se i vettori dei pesi in arrivo alle unità di ouptut di uno strato competitivo sono normalizzati, allora questi vettori possono essere rappresentati sulla stessa sfera.

Per codificare il training set, è necessario che i vettori dei pesi nella rete vengano allineati con qualsiasi raggruppamento (cluster) presente nel training set e che ogni cluster sia rappresentato da almeno un neurone. Quindi, quando un vettore viene presentato alla rete, ci sarà un nodo o gruppo di nodi che risponde in modo massimale (e selettivo) a quellinput. Per ottenere questo, i vettori di pesi devono essere ruotati intorno alla sfera in modo che si allineino con il training set. Questo si può ottenere in modo graduale ed efficiente muovendo il vettore di pesi che è più vicino (distanza angolare) al vettore di input corrente verso quel vettore di input stesso. Il neurone k con il vettore di pesi più vicino è quello che riceve la maggiore eccitazione di input (in quanto è il prodotto interno tra pesi e vettore di input). Per allineare il vettore di pesi del neurone k, si possono modificare i pesi secondo la regola:

Per decidere qual è il neurone con la maggiore eccitazione si utilizza la dinamica competitiva. Se la rete è di tipo winner-take-all, il nodo vincitore avrà un valore di 1 e tutti gli altri saranno a 0. Ad equilibrio sarà sufficiente utilizzare come regola di apprendimento per tutta la rete: quindi la modifica dei pesi si avrà solo per il vincitore (in cui y=1), mentre per tutti gli altri neuroni non ci sarà alcun cambiamento nei pesi (y=0). Algortimo: 1. Presentare un vettore di input e calcolare lattivazione iniziale di tutti i neuroni di output 2. Aggiornare le attivazioni fino ad equilibrio (o per un numero fisso di passi) 3. Modificare i pesi secondo la regola sopra