La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Reti Neurali Ricorrenti. RETI NEURALI RICORRENTI RR-1 TLFN focused Elaborazione di informazione temporale La memoria è portata dentro la rete TLFN focused.

Presentazioni simili


Presentazione sul tema: "Reti Neurali Ricorrenti. RETI NEURALI RICORRENTI RR-1 TLFN focused Elaborazione di informazione temporale La memoria è portata dentro la rete TLFN focused."— Transcript della presentazione:

1 Reti Neurali Ricorrenti

2 RETI NEURALI RICORRENTI RR-1 TLFN focused Elaborazione di informazione temporale La memoria è portata dentro la rete TLFN focused TLFN distribuite Reti ricorrenti Semplice addestramento Sono presenti connessioni ricorrenti tra neuroni diversi

3 SEMPLICI TOPOLOGIE RICORRENTI Le TLFN focused sono mappatori universali MA potrebbe essere necessaria una memoria di dimensione enorme RR-2 Parametri di feedback fissi Non ce ricorrenza I/O (gli output dello strato Context sono come input esterni controllati dalla rete 11 Input Context JORDAN Input Context ELMAN

4 RR-3 ADATTARE IL PARAMETRO DI FEEDBACK + y(n) x(n) Z -1 1 controlla la profondità della memoria Adattare 1 per minimizzare lMSE solo sul campione corrente Leffetto di una variazione di si ripercuote solo sul campione corrente dura per sempre Leffetto di una variazione di 1 dura per sempre BP statica La BP statica calcola i gradienti per ogni topologia ordinata, secondo una lista di dipendenze topologica che NON considera la dipendenza temporale tra le variabili.

5 RR-4 Effetto della ricorsione: Leffetto di un cambiamento di dura per sempre + y(n) x(n) Z -1

6 RR-5 CRITERIO DI ERRORE Criterio di performance in un intervallo di tempo (T campioni) (analogo al batch mode) Learning di traiettorie Criterio di performance istantaneo Learning di un punto fisso

7 SVOLGERE UNA RETE RICORRENTE NEL TEMPO RR-6 Rete ricorrente Mappaggio tempo- spazio Rete feedforward con coefficienti ripetuti BP statica Ad ogni istante viene creata una porzione della rete svolta e viene posta in cascata con la porzione precedente. La rete opera per un tempo finito T campioni = T+1 porzioni

8 RR-7 + y 1 (n) x(n) Z -1 w1w1 + y 2 (n) Esempio y 1 (0)=0 y 2 (0)=f(w 1 y 1 (0)) + y 2 (0)=0 y 1 (0)=0 w1w1

9 RR-8 y 1 (0)=0 y 2 (0) + w1w1 + w1w1 x(1)x(1) y 1 (1) y 2 (1) + w1w1 x(1)x(1) y 1 (1) y 2 (1) + w1w1 x(T) y 1 (T) y 2 (T) Rete feedforward T+1 input T+1 output

10 RR-9 Lista della dipendenze L = w 1, y 1 (0), y 2 (0), y 1 (1), y 2 (1), …, y 1 (T), y 2 (T) pesi variabili di stato ordinate secondo la topologia Ora si può applicare la BackPropagation

11 RR-10 BACKPROPAGATION THROUGH TIME (BPTT) Variabile di stato y h (k) In questo casoh=1,2;k=0,…T n dipendenze delle variabili a destra della variabile considerata j nella lista ordinata dcontributo diretto alla derivata Gli altri contributi alla derivata sono indiretti (attraverso la topologia) Compare il tempo e linformazione topologica

12 RR-11 Derivando rispetto ai pesi w = (w 1, ) Sommatoria estesa a tutti gli istanti e a tutti gli stati

13 RR-12 nIl calcolo del gradiente è ANTICIPATORIO Un sistema anticipatorio risponde prima che linput sia applicato; NON E FISICAMENTE REALIZZABILE Un sistema anticipatorio è IMPLEMENTABILE in sistemi digitali con memoria. Osservazioni VANTAGGIO Nel calcolo del gradiente compaiono solo dipendenze DIRETTE di y j ( ) da y i (n)

14 RR-13 CALCOLO DEL GRADIENTE Dipendenze dirette Nel tempo e nella topologia

15 RR-14

16 Backpropagation Through Time la lista ordinata è invertita non solo nella topologia ma anche nel tempo Non è locale nel tempo: compare piu di un indice temporale nel gradiente Ha un alto costo computazionale Ha unelevata occupazione di memoria E necessaria se il segnale desiderato è noto solo alla fine della sequenza di learning se sono presenti feedback.

17 REAL TIME RECURRENT LEARNING (RTRL) RR-15 Calcolando il gradiente ad ogni time-step: Dalla regola a catena applicata alla funzione costo sia: la regola a catena otteniamo:

18 RR-15 Il RTRL è locale nel tempo consente IMPLEMENTAZIONE ON LINE Il RTRL non è locale nello spazio compaiono le derivate rispetto a tutti i pesi

19 RR-16 + y 1 (n) x(n) Z -1 w + y 2 (n) y 2 (n)=f( w 1 y 1 (n-1)+w 1 x(n) )1 uscita w 1,, 2 pesi f<1

20 RR- Rete costituita da N neuroni totalmente connessi; T campioni N 2 pesi N 3 gradienti a campione O(N) operazioni/gradiente O(N 4 ) operazioni a campione O(TN 4 ) operazioni O(N 3 ) variabili da immagazzinare E applicabile solo a reti piccole

21 RETI RICORRENTI I modelli dinamici visti finora si generalizzano con le reti ricorrenti completamente interconnesse. Una possibile regola per implementare queste reti è quella di attribuire un ritardo a tutte le connessioni in retroazione

22 RETI DI HOPFIELD Attratori della funzione energia Non c'è addestramento!


Scaricare ppt "Reti Neurali Ricorrenti. RETI NEURALI RICORRENTI RR-1 TLFN focused Elaborazione di informazione temporale La memoria è portata dentro la rete TLFN focused."

Presentazioni simili


Annunci Google