BIOINGEGNERIA S. Salinari Lezione 5. L’algoritmo di retropropagazione Premesse 1.Reti Duali Si definiscono reti duali reti per cui è verificata la seguente.

Slides:



Advertisements
Presentazioni simili
Premessa: si assume di aver risolto (correttamente
Advertisements

Apprendimento Automatico Apprendimento supervisionato
FACOLTA’ DI INGEGNERIA Corso di Laurea in Ingegneria Elettronica
Modulo 1 Unità didattica 2:
Applications of Evolutionary Algorithms Giuseppe Nicosia Dep. of Mathematics and Computer Science University of Catania.
Attività cerebrale I neuroni si attivano in gruppi sotto lazione di uno stimolo Attività in gruppi ben delimitati con alta o bassa attività Il gruppo.
1 Istruzioni, algoritmi, linguaggi. 2 Algoritmo per il calcolo delle radici reali di unequazione di 2 o grado Data lequazione ax 2 +bx+c=0, quali sono.
Pattern Recognition con Reti Neurali MLP
ALGORITMI DI OTTIMIZZAZIONE PER L'ADDESTRAMENTO DI RETI NEURALI
Apprendimento di funzioni algebriche
Apprendimento di funzioni algebriche
Apprendimento Automatico: Reti Neurali
Algoritmi Paralleli e Distribuiti a.a. 2008/09 Lezione del 12/05/2009 Prof. ssa ROSSELLA PETRESCHI a cura del Dott. SAVERIO CAMINITI.
Algoritmi Paralleli e Distribuiti a.a. 2008/09 Lezione del 19/05/2009 Prof. ssa ROSSELLA PETRESCHI a cura del Dott. SAVERIO CAMINITI.
1 Corso di Laurea in Biotecnologie Informatica (Programmazione) Problemi e algoritmi Anno Accademico 2009/2010.
Reti neurali naturali ed artificiali
Realizzazione e caratterizzazione di una semplice rete neurale per la separazione di due campioni di eventi Vincenzo Izzo.
CORSO DI MODELLI DI SISTEMI BIOLOGICI LAUREA IN INGEGNERIA CLINICA E BIOMEDICA.
BIOINGEGNERIA S. Salinari Lezione 3.
BIOINGEGNERIA S. Salinari Lezione 4.
BIOINGEGNERIA S. Salinari Lezione 6.
BIOINGEGNERIA S. Salinari Lezione 8. RETI AD APPRENDIMENTO NON SUPERVISIONATO Le reti ad apprendimento non supervisionato debbono essere in grado di determinare.
TECNOLOGIE DEI SISTEMI DI CONTROLLO
BIOINGEGNERIA S. Salinari Lezione 7. RETI CON APPRENDIMENTO SUPERVISIONATO A DISTANZA Nello sviluppo delle reti neurali si è proceduto indebolendo via.
Modelli e Algoritmi della Logistica
1. ( punti 7 ) Siano dati un insieme di localizzazioni potenziali (nodi grandi) ed un insieme di clienti da servire (nodi piccoli). Il costo di afferenza.
BIOINGEGNERIA S. Salinari Lezione 5. Lalgoritmo di retropropagazione Premesse 1.Reti Duali Si definiscono reti duali reti per cui è verificata la seguente.
DATA PROCESSING UNIVERSITÀ DEGLI STUDI DI ROMA “LA SAPIENZA”
1. ( punti 7 ) Siano dati un insieme di localizzazioni potenziali (nodi grandi) ed un insieme di clienti da servire (nodi piccoli). Il costo di afferenza.
BIOINGEGNERIA S. Salinari Lezione 1. Richiami sui filtri digitali Filtri non recorsivi La stima y*(k) è la somma pesata del segnale in k e degli n-1 campioni.
Modelli simulativi per le Scienze Cognitive Paolo Bouquet (Università di Trento) Marco Casarotti (Università di Padova)
Modelli simulativi per le Scienze Cognitive
Filtri adattativi.
Reti Neurali Ricorrenti
Notazioni Asintotiche e Ordini di Grandezza delle funzioni
Intelligenza Artificiale
Apprendimento Automatico Apprendimento non supervisionato:
Cella Elementare Il FullAdder 8bit è costituito essenzialmente da 8 celle elementari disposte a cascata. Questa organizzazione è dovuta al fatto che la.
Esempio: somma se, allora [ per n addendi ] se ( se )
PoliICR Riconoscimento dei Caratteri Daniele Gasperini – William Spinelli Riconoscimento dei Segnali: un approccio unitario prof. Sergio Brofferio.
Algoritmi e Programmazione strutturata
FLOWCHART DELL’ALGORITMO DI APPRENDIMENTO DELLA RETE DI KOHONEN
Il neurone e i suoi componenti Il nucleo I dendriti Lassone Le connessioni sinaptiche.
Prof. Cerulli – Dott.ssa Gentili
SEGMENTAZIONE PER OBIETTIVI: CHAID
Esercitazione 2 Reti Neurali Backpropagation. 2 Esercizio 1  Scompattare bp  Compilare i 4 programmi (con make, v.file readme )  Utilizzare i dati.
Variazione di [ ] nel tempo
Array (visita e ricerca) CORDA – Informatica A. Ferrari.
BIOINGEGNERIA S. Salinari Lezione 2.
RETI NEURALI ARTIFICIALI
RETI NEURALI - 2.
Ingegneria del software Modulo 1 - Introduzione al processo software Unità didattica 3 - Modelli di fase d’analisi Ernesto Damiani Università degli Studi.
Intelligenza Artificiale
Reti neuronali artificiali dinamiche I campioni: sequenze di vettori X=(x(n),n=1  N) Segnali temporali (audio, radar, ecc.), Segnali immagine (fisse o.
Camil Demetrescu, Irene Finocchi, Giuseppe F. ItalianoAlgoritmi e strutture dati Algoritmi e Strutture Dati Capitolo 2 Modelli di calcolo e metodologie.
Intelligenza Artificiale Reti Neurali
1 Informatica Generale Marzia Buscemi Ricevimento: Giovedì ore , Dipartimento di Informatica, stanza 306-PS o per posta.
L’ELABORATORE ELETTRONICO uno strumento in grado di eseguire insiemi di azioni (“mosse”) elementari le azioni vengono eseguite su oggetti (dati) per produrre.
APPROSSIMAZIONE DI FUNZIONI
Flusso di Costo Minimo Applicazione di algoritmi: Cammini Minimi Successivi (SSP) Esercizio 1 Sia data la seguente rete di flusso, in cui i valori riportati.
Le Derivate Applicazioni. Applicazioni della derivata Definizione 1 sia f:(a,b)  R una funzione numerica. f è crescente (decrescente) in (a,b) se, per.
Rimozione di artefatti in immagini TC per la radioterapia
TRANFER DEFINITION FUNCTION G(s) I(s) U(s) Relationship between input and output of a system in the domain of the complex variable s s - complex variable.
Esercitazione N°5 Approssimazione di Funzioni. Esercizio 1 Costruzione di una rete RBF Il metodo più semplice per approssimare una funzione mediante reti.
Le reti neurali Simona Balbi. Cosa sono le reti neurali Una rete neurale artificiale (A)NN è un paradigma di elaborazione dell’informazione ispirato al.
Self-Organizing Map (SOM Kohonen, 1981) è una tecnica di visualizzazione dei dati multidimensionali SOM è una mappa mono- (bi-)dimensionale che rappresenta.
Lezione n° 10 Algoritmo del Simplesso: - Coefficienti di costo ridotto - Condizioni di ottimalità - Test dei minimi rapporti - Cambio di base Lezioni di.
Esercitazione N°2 Data Fitting con Modelli Lineari.
Specchio cascode low-voltage  Per limitare la caduta di tensione sullo specchio, ovvero eliminare il compromesso tra accuratezza e output swing, abbiamo.
Cammini di costo minimo su un grafo pesato
Transcript della presentazione:

BIOINGEGNERIA S. Salinari Lezione 5

L’algoritmo di retropropagazione Premesse 1.Reti Duali Si definiscono reti duali reti per cui è verificata la seguente relazione : y = W x v = W T z x1 x2 x3 y1 y2 w11 w21 w31 w12 w22 w32 v1 v2 v3 z1 z2 w11 w21 w31 w12 w22 w32

L’algoritmo di retropropagazione 2. La Funzione di Attivazione Le funzioni di attivazione utilizzate nella LMS e nel percettrone sono rispettivamente la funzione lineare ( y =  i w i x i ) e la funzione di Heaviside (y=0 per x< , y=1per x ≥  ). Nelle reti neurali vengono spesso utilizzate funzioni di attivazione semilineari che posseggono la caratteristica di risultare derivabili, quali la funzione logistica o sigmoide, che ha equazione : F(y) y 1 y 1  Caratteristica di tale funzione è che:

L’algoritmo di retropropagazione Si consideri una rete costituita da M unità ( u 1,u 2,..., u j,...,u M ) distribuite fra unità di ingresso, di uscita e nascoste. Si indichi con okj lo stato dell’unità uj in corrispondenza all’applicazione alla rete del k-esimo elemento della sequenza d’ingresso. Di conseguenza per una unità di ingresso okj  xkj, per una unità di uscita okj  ykj. L’ algoritmo di retro propagazione serve per il calcolo dei pesi di una rete feedforward con strati nascosti e funzioni di attivazione semilineari. Si basa sull’assunzione che la variazione dei pesi dei rami della rete debba essere tale da produrre una diminuzione dell’errore quadratico medio totale: Dove l’indice k si riferisce alla k-esima coppia in-out della sequenza di apprendimento e l’indice j alla j-esima unità della rete. Si considerino i due casi: x1 x2 x3 y1 y2 w11 w21 w31 w12 w22 w32 Strato d’ingressoStrato nascosto u1 u2 u3 u4 u5 u6 z  i wji oki f(z) uj

uj: Unità di uscita L’algoritmo di retropropagazione Se la f(z kj ) è la funzione logistica si avrà: uj: Unità nascosta ui uj ut wjiwtj  kj  kt

L’algoritmo di retropropagazione Passi dell’algoritmo 1.Si applica l’ingresso x k = (x 1 x 2...x N ) T 2.Si calcolano tutte le o kj = f(  i w ji o ki ) per tutte le unità di uscita e nascoste 3.Si calcolano le  kj per le unità di uscita  kj = (t kj – o kj )f’(z kj ) 4.Si calcolano le  kj per le unità nascoste  kj =  t  kt w tj f’(z kj ) 5.Si aggiornano i pesi.

L’algoritmo di retropropagazione Esempio : EXOR y1 = wn1 x1+wn2 x2-  1 yo = wo1 x1+wo2 x2+won y1-  2  o = (to-yo)yo(1-yo)   wo1=  ox1,  wo2=  ox2,  won=  oy1,  2=  o  n =  o won y1(1-y1)   wn1=  nx1,  wn2=  nx2,  1=  n x1 x2 no y1y0 wn1 wn2 wo2 wo1 11 22 11 11