BIOINGEGNERIA S. Salinari Lezione 7. RETI CON APPRENDIMENTO SUPERVISIONATO A DISTANZA Nello sviluppo delle reti neurali si è proceduto indebolendo via.

Slides:



Advertisements
Presentazioni simili
Apprendimento Automatico Apprendimento supervisionato
Advertisements

Dipartimento di Economia
Sistemi di Classificazione usando NCD
Spazio dei giunti e spazio operativo
Cinematica diretta Un manipolatore è costituito da un insieme di corpi rigidi (bracci) connessi in cascata tramite coppie cinematiche (giunti). Si assume.
1 2. Introduzione alla probabilità Definizioni preliminari: Prova: è un esperimento il cui esito è aleatorio Spazio degli eventi elementari : è linsieme.
Definizione e caratteristiche
Attività cerebrale I neuroni si attivano in gruppi sotto lazione di uno stimolo Attività in gruppi ben delimitati con alta o bassa attività Il gruppo.
Pattern Recognition con Reti Neurali MLP
ALGORITMI DI OTTIMIZZAZIONE PER L'ADDESTRAMENTO DI RETI NEURALI
Programmazione per Obiettivi
Le reti neurali dagli esordi alle applicazioni
Gestione dei dati e della conoscenza (agenti intelligenti) M.T. PAZIENZA a.a
Macchine non completamente specificate
TEORIA RAPPRESENTAZIONALE DELLA MISURA
Apprendimento di funzioni algebriche
Apprendimento di funzioni algebriche
Computational Learning Theory and PAC learning
Apprendimento Automatico: Reti Neurali
E(’)= Riassumendo: ipotesi per OLS Modello lineare
Inversione differenziale della Cinematica
Reti neurali naturali ed artificiali
Realizzazione e caratterizzazione di una semplice rete neurale per la separazione di due campioni di eventi Vincenzo Izzo.
Rotazione di un corpo rigido attorno ad un asse fisso
CORSO DI MODELLI DI SISTEMI BIOLOGICI LAUREA IN INGEGNERIA CLINICA E BIOMEDICA.
BIOINGEGNERIA S. Salinari Lezione 4.
BIOINGEGNERIA S. Salinari Lezione 6.
BIOINGEGNERIA S. Salinari Lezione 8. RETI AD APPRENDIMENTO NON SUPERVISIONATO Le reti ad apprendimento non supervisionato debbono essere in grado di determinare.
TECNOLOGIE DEI SISTEMI DI CONTROLLO
BIOINGEGNERIA S. Salinari Lezione 5. Lalgoritmo di retropropagazione Premesse 1.Reti Duali Si definiscono reti duali reti per cui è verificata la seguente.
Apprendimento di movimenti della testa tramite Hidden Markov Model
Alternative al Paradigma Rappresentazionale
Le cause del moto: la situazione prima di Galilei e di Newton
LO STRATO DI EKMAN Corso: Idrodinamica delle Grandi Masse
Modelli simulativi per le Scienze Cognitive
Filtri adattativi.
PATTERN RECOGNITION.
Reti Neurali Ricorrenti
L INFORMATICA A PIÙ DIMENSIONI. GLI STUDENTI E LINFORMATICA.
Ingegneria della conoscenza e sistemi esperti Dario Bianchi, 1999 Risoluzione di problemi e ricerca.
Intelligenza Artificiale
Apprendimento Automatico Apprendimento non supervisionato:
In contrapposizione con i metodi convenzionali (hard computing), le tecniche di soft computing non si basano su procedimenti esprimibili in forma chiusa.
Prima e Seconda Forma Canonica
PoliICR Riconoscimento dei Caratteri Daniele Gasperini – William Spinelli Riconoscimento dei Segnali: un approccio unitario prof. Sergio Brofferio.
Progettare per competenze
Il neurone e i suoi componenti Il nucleo I dendriti Lassone Le connessioni sinaptiche.
Perceptron. è la somma effettuata sul nodo i-esimo dello strato j n è il numero di nodi dello strato j-1 è l'output proveniente dal nodo k-esimo dello.
Rete di Hopfield applicata al problema del TSP Federica Bazzano
DATA MINING PER IL MARKETING
POLITECNICO DI MILANO Facoltà di Ingegneria Corso di Laurea in Ingegneria Informatica STUDIO E REALIZZAZIONE DI UN BRACCIO ROBOTICO ANTROPOMORFO E SOLUZIONE.
Progettare attività didattiche per competenze
Esercizi (attrito trascurabile)
Controllo ottimo delle superfici di commutazione nei sistemi ibridi autonomi Mauro Boccadoro *, Magnus Egerstedt y e Yorai Wardi y *DIEI - Università di.
La valutazione dell’apprendimento degli studenti Clusone, 17 marzo 2015.
RETI NEURALI - 2.
Intelligenza Artificiale
Reti di calcolatori LS1 Service Middleware Reti di calcolatori LS progetto di Andrea Belardi Infrastruttura dedicata alla gestione di servizi disponibili.
Intelligenza Artificiale Reti Neurali
BIOINGEGNERIA S. Salinari Lezione 5. L’algoritmo di retropropagazione Premesse 1.Reti Duali Si definiscono reti duali reti per cui è verificata la seguente.
L’ELABORATORE ELETTRONICO uno strumento in grado di eseguire insiemi di azioni (“mosse”) elementari le azioni vengono eseguite su oggetti (dati) per produrre.
APPROSSIMAZIONE DI FUNZIONI
Flusso di Costo Minimo Applicazione di algoritmi: Cammini Minimi Successivi (SSP) Esercizio 1 Sia data la seguente rete di flusso, in cui i valori riportati.
DIPARTIMENTO DI ELETTRONICA, INFORMAZIONE E BIOINGEGNERIA Lab 5: 18 Maggio 2015 Marco D. Santambrogio – Gianluca Durelli –
Le funzioni.
M. De Cecco - Lucidi del corso di Robotica e Sensor Fusion Se i parametri di Denavit-Hartemberg non corrispondono con quelli di progetto a causa di tolleranze.
Esercitazione N°5 Approssimazione di Funzioni. Esercizio 1 Costruzione di una rete RBF Il metodo più semplice per approssimare una funzione mediante reti.
Self-Organizing Map (SOM Kohonen, 1981) è una tecnica di visualizzazione dei dati multidimensionali SOM è una mappa mono- (bi-)dimensionale che rappresenta.
Esercitazione N°2 Data Fitting con Modelli Lineari.
Luoghi di punti In geometria il termine
Transcript della presentazione:

BIOINGEGNERIA S. Salinari Lezione 7

RETI CON APPRENDIMENTO SUPERVISIONATO A DISTANZA Nello sviluppo delle reti neurali si è proceduto indebolendo via via le ipotesi su cui si era basata la costruzione della rete stessa. Così per le reti ad apprendimento supervisionato, fin qui considerate, si è passati da reti ad un solo strato adattivo (lo strato relativo alle unità di uscita), quali le reti LMS ed il perceptron, a reti comprendenti strati nascosti per cui è stato elaborato lalgoritmo di apprendimento della Back Propagation. Il passo successivo consiste nellindebolire il concetto di insegnante: in questo senso si è passati da reti a cui veniva fornito linsieme di apprendimento, cioè un insieme di ingressi per cui erano note le corrispondenti uscite desiderate, a reti con apprendimento supervisionato a distanza ed infine a reti con apprendimento non supervisionato. Nelle reti con apprendimento supervisionato a distanza i pesi relativi alle connessioni fra le varie unità della rete non vengono ricavati in base alluscita desiderata corrispondente ad un determinato ingresso ma allobiettivo che si vuole raggiungere. Nelle rete con apprendimento non supervisionato deve essere la rete stessa ad estrarre dallinsieme degli ingressi che vengono presentati le somiglianze, le correlazioni, le caratteristiche comuni ecc. in modo da costruire dei prototipi a cui fare riferimento quando venga presentato un nuovo ingresso.

RETI CON APPRENDIMENTO SUPERVISIONATO A DISTANZA Si consideri il braccio di un robot con due articolazioni: Cinematica diretta: Note 1 e 2 determinare le coordinate (x1, x2) del punto raggiunto Cinematica inversa: Date le coordinate (x1, x2) del punto che si vuole raggiungere determinare le posizioni 1 e 2 delle articolazioni del braccio robotico Dinamica diretta: Dato lingresso di controllo u e lo stato del sistema ( d /dt) determinare laccelerazione Dinamica inversa: Noto lo stato del sistema ( d /dt) e laccelerazione desiderata determinare lazione di controllo. x1,x2 La dinamica inversa è quindi in generale definita dallequazione u = d 2 /dt 2 + d /dt+k in cui i parametri e k non sono noti. Si può quindi pensare utilizzare una rete neurale per modellare la dinamica inversa attraverso esempi. MIMD u stato Stato successivo Stato successivo*

RETI CON APPRENDIMENTO SUPERVISIONATO A DISTANZA Si potrebbe pensare di affrontare il problema come un problema di apprendimento supervionato sfruttando, per generare il set di apprendimento, il problema diretto: applicando quindi delle azioni e osservandoleffetto prodotto. Linsieme così costituito potrebbe essere utilizzato per addestrare un modello inverso direttamente, invertendo i ruoli degli ingressi e delle uscite Si deve però osservare che generalmente il problema inverso può essere mal posto: lo stesso punto obiettivo potrebbe corrispondere a più punti nellinsieme di partenza. Si potrebbe pensare, per ovviare a questo problema, di convergere ad un punto medio fra quelli possibili; va però osservato che, nel caso in cui linsieme dei punti nello spazio di partenza non risultasse convesso tale punto medio potrebbe cadere al di fuori dellinsieme ammissibile e quindi la convergenza si potrebbe avere verso una soluzione errata. In figura ad esempio la regione non convessa di sinistra è limmagine inversa di un punto appartenente allo spazio degli effetti. I due punti blu scuro corrispondono quindi a due azioni che portano allo stesso risultato. Una soluzione effettiva a tale problema potrebbe essere quella di utilizzare reti a moduli di esperti in cui si hanno più reti neurali che agiscono ciascuna in differenti zone dello spazio. In tal caso verrebbe eventualmente fornita più di una soluzione ottima fra cui potrebbe essere scelta quella da adottare.

RETI CON APPRENDIMENTO SUPERVISIONATO A DISTANZA Un approccio differente è dato proprio dallapprendimento supervisionato a distanza in cui il modello inverso viene appreso combinando in serie la rete neurale che si vuole addestrare con il modello diretto. y u y*y* + - Dinamica diretta Modello diretto Il modello diretto viene appreso utilizzando la funzione di costo J = (y-y*) T (y-y*)/2 y-y* errore di predizione e il gradiente stocastico w J = - y*/ w (y-y*) Applicando la discesa del gradiente stocastico e propagando allindietro gli errori si ottiene la regola di aggiornamento dei pesi per il modello diretto che viene mantenuto fisso durante lapprendimento del modello inverso. Per lapprendimento del modello inverso si minimizza la funzione costo J = (y-y) T (y-y)/2 y-y, errore di performance, misura la differenza fra leffetto desiderato e quello ottenuto. In tal caso si ha: w J = - u T / w y T / u (y-y) u T / w si calcola facilmente u uscita w pesi del modello inverso, (y-y) uscita desiderata meno uscita effettiva si calcola anche facilmente, y T / u viene sostituita da y*/ u Dinamica diretta Rete neurale y*u y stato y-y