RETI NEURALI ARTIFICIALI
IL CERVELLO Il cervello umano ha 10 bilioni di neuroni Le connessioni sono un milione di milardi Un neurone è composto da: corpo cellulare dendriti assone
IL CERVELLO
IL CERVELLO Il corpo cellulare mantiene una polarizzazione con le cariche provenienti dai dendriti, che sono prolungamenti connessi ad altri neuroni. Passata una certa soglia, il neurone scarica la sua attivazione lungo l’assone. Il contatto fra due neuroni, la sinapsi, per via elettrochimica trasmette la carica elettrica al dendrite di un altro neurone.
IL CERVELLO Il contenuto informativo del cervello è rappresentato dall’insieme dei valori di attivazione di tutti I neuroni. L’elaborazione dell’informazione avviene con il flusso di segnali elettrici nella rete dei neuroni.
IL CERVELLO L’attivazione elettrica nel cervello viaggia ad un centinaio di impulsi al secondo In un computer I segnali elettrici viaggiano migliaia di volte più veloci, ma nel cervello l’informazione viaggia in parallelo ed è distribuita sulla rete piuttosto che posta in posizioni note.
STORIA 1943 McCulloch e Pitts, Modello formale di neurone 1949 Legge di Hebb - prima legge di apprendimento su base neurale 1957 Rosenblatt, Perceptrone 1969 Minsky e Papert evidenziano I limiti del perceptrone
STORIA Legge di Hebb: Dwij = e Oi Oj la connessione si rafforza quanto più sono attive le unità I e j Perceptrone: si dimostra che può apprendere un certo numero di funzioni
STORIA Perceptrone: è fault tolerant, perchè un guasto ad alcune unità non compromette il funzionamento del sistema Limiti : non può risolvere problemi che coinvolgono funzioni non linearmente separabili (es. OR esclusivo).
STORIA
STORIA
STORIA 1986 Rumelhart McClelland Perceptrone multistrato con backpropagation (apprendimento supervisionato) 1977 Rete autoorganizzante di Kohonen (apprendimento non supervisionato) 1982 Rete di Hopfield ….
STORIA
IL NEURONE FORMALE Data una rete formata da N unità, la I-esima unità riceve alcuni segnali di input provenienti dall’output e da altre unità Il valore Oj proveniente dalla j-esima unità viene trasmesso alla I-esima unità con peso Wij (il peso corrispondente alla forza sinaptica) La I-esima unità riceve il segnale Wij Oj
IL NEURONE FORMALE Le varie unità connesse con la I-esima unità concorrono a formare il suo stato di attivazione Ai = S Wij Oj Il valore dell’output della I-esima unità è dato dall’applicazione di una funzione di trasferimento T: Oi = T(Ai)
IL NEURONE FORMALE La funzione T emula la soglia di attivazione del neurone, e quindi è una funzione a rampa. Una rete neurale è formata da un certo numero di unità fra loro interconnesse. Alcune fungono da unità di input X, che ricevono segnali dall’esterno (I dati, in genere numeri reali)
FUNZIONE DI TRASFERIMENTO
FUNZIONE DI TRASFERIMENTO
RETE NEURALE Altre sono unità di output Y, e forniscono I valori di output del problema. Una rete calcola quindi una funzione F t.c. Y = F(X) La rete apprende a compiere questo calcolo attraverso la presentazione di esempi ed un processo di apprendimento.
RETE NEURALE