Attività cerebrale I neuroni si attivano in gruppi sotto lazione di uno stimolo Attività in gruppi ben delimitati con alta o bassa attività Il gruppo.

Slides:



Advertisements
Presentazioni simili
Le linee di trasmissione
Advertisements

Artificial intelligence
1 La Standard Template Library vettori, liste, mappe, …. find, replace, reverse, sort, …. puntatori intelligenti La libreria standard STL e una libreria.
Sorgenti magnetiche Sebbene non esistano né cariche né correnti magnetiche, possiamo introdurre tali quantità come un espediente per “simmetrizzare” le.
Apprendimento Automatico Apprendimento supervisionato
Caratteristiche del controllo a catena aperta: un esempio
COORDINATE POLARI Sia P ha coordinate cartesiane
Primo sguardo a metodi multivariati per l'analisi del ttH
Modelli Modellistica e Gestione dei Sistemi Ambientali a.a
Sistemi di supporto alle decisioni 4. Clustering
Pattern Recognition con Reti Neurali MLP
Metodi Quantitativi per Economia, Finanza e Management Lezione n°8
Reti Neurali: studi sull'intelligenza artificiale
Lezione 3) Cenni di teoria dell’elasticità, sforzi e deformazioni, l’equazione delle onde elastiche.
Le reti neurali dagli esordi alle applicazioni
Teoria e Tecniche del Riconoscimento
Apprendimento Non Supervisionato
Apprendimento di funzioni algebriche
Apprendimento Automatico: Apprendimento Pigro (Lazy Learning)
Apprendimento di funzioni algebriche
Apprendimento Automatico: Reti Neurali
Metodi conservativi per equazioni iperboliche
Reti neurali naturali ed artificiali
Realizzazione e caratterizzazione di una semplice rete neurale per la separazione di due campioni di eventi Vincenzo Izzo.
Ricerca della Legge di Controllo
Seminario su clustering dei dati – Parte II
BIOINGEGNERIA S. Salinari Lezione 4.
BIOINGEGNERIA S. Salinari Lezione 8. RETI AD APPRENDIMENTO NON SUPERVISIONATO Le reti ad apprendimento non supervisionato debbono essere in grado di determinare.
TECNOLOGIE DEI SISTEMI DI CONTROLLO
BIOINGEGNERIA S. Salinari Lezione 7. RETI CON APPRENDIMENTO SUPERVISIONATO A DISTANZA Nello sviluppo delle reti neurali si è proceduto indebolendo via.
Tempo di computazione (Running Time) di programmi Misure del tempo: Misure del tempo: metodi principali 1.Benchmarking 2.Analisi Benchmarking: usato per.
Modelli simulativi per le Scienze Cognitive Paolo Bouquet (Università di Trento) Marco Casarotti (Università di Padova)
Modelli simulativi per le Scienze Cognitive Paolo Bouquet (Università di Trento) Marco Casarotti (Università di Padova)
Modelli simulativi per le Scienze Cognitive
Modelli probabilistici
Filtri adattativi.
PATTERN RECOGNITION.
Esercitazione N°6 Apprendimento Non-Supervisionato.
Introduzione alla bioinformatica
Artificial intelligence
Reti Neurali Mercoledì, 10 Novembre 2004 Giuseppe Manco References: Chapter 4, Mitchell Chapter 1-2,4, Haykin Chapter 1-4, Bishop Reti Neurali Lezione.
Intelligenza Artificiale Algoritmi Genetici
Intelligenza Artificiale
Apprendimento Automatico Apprendimento non supervisionato:
CALCOLO EVOLUZIONISTICO. In ogni popolazione si verificano delle mutazioni. Le mutazioni possono generare individui che meglio si adattano allambiente.
Metodi numerici per lapprossimazione Laboratorio di Metodi Numerici a.a. 2008/2009 Prof. Maria Lucia Sampoli.
Equazioni non lineari Data una funzione consideriamo il problema di determinare i valori x tali che Tali valori sono solitamente.
Presentazione del progetto di: Reti di calcolatori L-S Matteo Corbelli.
RETI NEURALI ARTIFICIALI
Metodo dei minimi quadrati
Searle, La mente.
Introduzione al comportamento complesso e caotico dei sistemi
Quadripoli Un quadripolo è una rete elettrica comunque complessa nella quale si individuano una coppia di terminali in ingresso ed una coppia di terminali.
FLOWCHART DELL’ALGORITMO DI APPRENDIMENTO DELLA RETE DI KOHONEN
La ricerca delle relazioni tra fenomeni
Il neurone e i suoi componenti Il nucleo I dendriti Lassone Le connessioni sinaptiche.
Rete di Hopfield applicata al problema del TSP Federica Bazzano
Sottospazi vettoriali
Scomposizione della devianza
Equazioni e sistemi non lineari
Fabio Garufi - TAADF Tecniche automatiche di acquisizione dati Sensori Prima parte.
RETI NEURALI - 2.
Intelligenza Artificiale
Intelligenza Artificiale Reti Neurali
BIOINGEGNERIA S. Salinari Lezione 5. L’algoritmo di retropropagazione Premesse 1.Reti Duali Si definiscono reti duali reti per cui è verificata la seguente.
Learning Non Supervisionato
FILTRI NUMERICI. Introduzione Nel campo nei segnali (analogici o digitali), un sistema lineare tempo-invariante è in grado di effettuare una discriminazione.
Le reti neurali Simona Balbi. Cosa sono le reti neurali Una rete neurale artificiale (A)NN è un paradigma di elaborazione dell’informazione ispirato al.
Self-Organizing Map (SOM Kohonen, 1981) è una tecnica di visualizzazione dei dati multidimensionali SOM è una mappa mono- (bi-)dimensionale che rappresenta.
Transcript della presentazione:

Attività cerebrale I neuroni si attivano in gruppi sotto lazione di uno stimolo Attività in gruppi ben delimitati con alta o bassa attività Il gruppo di attività è chiamato bolla La bolla persiste a lungo e si restringe lentamente

Attività neuronale In assenza di altri neuroni, lattività del neurone j-esimo è: Ove: - attività del neurone j-esimo - componente i-esima dello stimolo con n ingressi - peso della connessione tra neurone j-esimo e ingresso i-esimo - perdite nel trasferimento delle informazioni

Equazione attività Landamento della sinapsi, in base alla distanza dal neurone, è: Lequazione dellattività del neurone j-esimo diventa con w ki = sinapsi connessione tra neurone i e k

Trasferimento informazioni Levoluzione temprale della sinapsi è espressa da Con α che controlla la velocità di apprendimento e β come fattore di dimenticanza Dipende, quindi, dallattività dei neuroni della connessione Lattività varia in base alla posizione del neurone, dentro o fuori dalla bolla

Neurone entro Attività massima, normalizzabile a 1 Normalizzazione di α e β per avere La sinapsi cerca di uguagliare lingresso relativo

Neurone fuori Attività trascurabile, η j = 0 Le sinapsi non vengono modificate

Modello costruito nel 1983 Rete auto-organizzante Replica il processo di formazione delle mappe cerebrali Lapprendimento si basa sulla competizione tra neuroni Reti di Kohonen

Griglia rettangolare di unità collegate a tutti gli ingressi Architettura

j x1x1 x2x2 xixi x n-1 xnxn w j1 w j2 w ji w j(n-1) w jn Unità lineare w ji è il peso della connessione tra il neurone j e lingresso i

Neurone con uscita massima Necessaria la normalizzazione Senza la normalizzazione W1W1 W2W2 X anche se

Distanza vettore-ingresso Viene scelto il neurone il cui vettore dei pesi è più vicino allingresso Non è necessaria la normalizzazione W1W1 W2W2 X Si può usare la distanza Euclidea

Legge di apprendimento La legge di apprendimento per laggiornamento delle sinapsi del neurone vincente risulta: V jo indica il vicinato del neurone vincente alliterazione k Dalla legge precedente, in notazione vettoriale:

Apprendimento cosciente Adattamento alla distanza tra il neurone j-esimo ed il neurone vincitore

Scelte e variazioni Il vicinato va scelto in modo da imitare la biologia del cervello La scelta del vicinato deve variare in modo da includere tutti i neuroni Alla fine si dovrà avere il solo neurone vincente

Variazioni ed iterazioni Anche il fattore R varia Costante per un certo numero di iterazioni, poi decresce Il numero delle iterazioni dellalgoritmo dipende dal numero M di neuroni Solitamente (500÷5000)M

Riduzione di R e A R max R min t A max A min t

Algoritmo 1.Inizializzazione casuale dei pesi 2.Inizializzazione parametri α=A max e r=R max 3.Fino a che α>A min A.Per ogni ingresso, B.Riduzione di α e r i.Calcolo delluscita ii.Determinazione del neurone vincente iii.Aggiornamento pesi del vicinato

Applicazioni Classificazione Es. odorato, fonemi Clustering Raggruppamento dati in sottoinsiemi di dimensione limitata Compressione Es. immagini