Modelli simulativi per le Scienze Cognitive

Slides:



Advertisements
Presentazioni simili
Materiale di supporto all’insegnamento di ELABORAZIONI IMMAGINI 1
Advertisements

Premessa: si assume di aver risolto (correttamente
Algoritmi e Strutture Dati
Problema dellordinamento Input: Sequenza di n numeri Output: Permutazione π = tale che: a 1 a 2 …… a n Subroutine in molti problemi E possibile effettuare.
Apprendimento Automatico Apprendimento supervisionato
Analisi della complessità degli algoritmi
Analisi della complessità degli algoritmi
Attività cerebrale I neuroni si attivano in gruppi sotto lazione di uno stimolo Attività in gruppi ben delimitati con alta o bassa attività Il gruppo.
ALGORITMI DI OTTIMIZZAZIONE PER L'ADDESTRAMENTO DI RETI NEURALI
Reti Neurali: studi sull'intelligenza artificiale
Le reti neurali dagli esordi alle applicazioni
Apprendimento di funzioni algebriche
Apprendimento di funzioni algebriche
Apprendimento Automatico: Reti Neurali
Support Vector Machines
LA PROPAGAZIONE DEGLI ERRORI:
Corso di Laurea in Biotecnologie Informatica (Programmazione)
Corso di Informatica (Programmazione)
Ottimizzazione non lineare non vincolata: Metodi iterativi di eliminazione ed interpolazione per ottimizzazione di funzione di una variabile maggio '11.
Reti neurali naturali ed artificiali
Apprendimento: Regola “Delta”
Realizzazione e caratterizzazione di una semplice rete neurale per la separazione di due campioni di eventi Vincenzo Izzo.
Polinomi, integrazione e ottimizzazione
Ricerca della Legge di Controllo
BIOINGEGNERIA S. Salinari Lezione 4.
TECNOLOGIE DEI SISTEMI DI CONTROLLO
BIOINGEGNERIA S. Salinari Lezione 7. RETI CON APPRENDIMENTO SUPERVISIONATO A DISTANZA Nello sviluppo delle reti neurali si è proceduto indebolendo via.
Algoritmi per l’Image Alignment
Alternative al Paradigma Rappresentazionale
STATISTICA a.a METODO DEI MINIMI QUADRATI REGRESSIONE
Modelli simulativi per le Scienze Cognitive Paolo Bouquet (Università di Trento) Marco Casarotti (Università di Padova)
Modelli simulativi per le Scienze Cognitive Paolo Bouquet (Università di Trento) Marco Casarotti (Università di Padova)
Modelli simulativi per le Scienze Cognitive Paolo Bouquet (Università di Trento) Marco Casarotti (Università di Padova)
Modelli simulativi per le Scienze Cognitive
Modelli simulativi per le Scienze Cognitive
Introduzione all’algebra lineare
Modelli simulativi per le Scienze Cognitive
Filtri adattativi.
Reti Neurali Ricorrenti
Reti Neurali Mercoledì, 10 Novembre 2004 Giuseppe Manco References: Chapter 4, Mitchell Chapter 1-2,4, Haykin Chapter 1-4, Bishop Reti Neurali Lezione.
Determinazione Orbitale di Satelliti Artificiali Lezione 5
Intelligenza Artificiale Algoritmi Genetici
DIAGRAMMI DI FLUSSO Notazione grafica usata per descrivere in modo intuitivo le azioni di cui è fatto un algoritmo. Viene usata per descrivere i passi.
APPLICAZIONI DI INTELLIGENZA ARTIFICIALE ALLA MEDICINA
RETI NEURALI ARTIFICIALI
Esempio: somma se, allora [ per n addendi ] se ( se )
PoliICR Riconoscimento dei Caratteri Daniele Gasperini – William Spinelli Riconoscimento dei Segnali: un approccio unitario prof. Sergio Brofferio.
FLOWCHART DELL’ALGORITMO DI APPRENDIMENTO DELLA RETE DI KOHONEN
Laureando: Enrico Masini
IL CERVELLO UMANO Il cervello umano è sicuramente la struttura più complessa dell‘universo e può essere considerato come una enorme rete neurale. Circa.
Perceptron. è la somma effettuata sul nodo i-esimo dello strato j n è il numero di nodi dello strato j-1 è l'output proveniente dal nodo k-esimo dello.
LE RETI NEURALI: MODELLI, ALGORITMI E APPLICAZIONI
Complessità degli algoritmi (cenni) CORDA – Informatica A. Ferrari.
SEGMENTAZIONE PER OBIETTIVI: CHAID
Esercitazione 2 Reti Neurali Backpropagation. 2 Esercizio 1  Scompattare bp  Compilare i 4 programmi (con make, v.file readme )  Utilizzare i dati.
L23 Politiche fuori linea senza apprendimento: progetto funzionale Rodolfo Soncini Sessa MODSS Copyright 2004 © Rodolfo Soncini Sessa.
RETI NEURALI - 2.
Analisi e Gestione del Rischio Lezione 7 Prodotti con pay-off non lineare.
APPLICAZIONI DI INTELLIGENZA ARTIFICIALE ALLA MEDICINA 4.
Intelligenza Artificiale
Intelligenza Artificiale Reti Neurali
BIOINGEGNERIA S. Salinari Lezione 5. L’algoritmo di retropropagazione Premesse 1.Reti Duali Si definiscono reti duali reti per cui è verificata la seguente.
APPROSSIMAZIONE DI FUNZIONI
Il computer ragiona? Problemi e algoritmi. Paola Pianegonda2 Cos’è un problema?  Problema è qualsiasi situazione della quale non conosciamo la soluzione.
Il PENSIERO COMPUTAZIONALE
REALIZZAZIONE DI UN SISTEMA DI CLASSIFICAZIONE Prof. Roberto Tagliaferri Studente: Ragognetti Gianmarco Corso di Reti Neurali e Knowledge Discovery A.A.
Le reti neurali Simona Balbi. Cosa sono le reti neurali Una rete neurale artificiale (A)NN è un paradigma di elaborazione dell’informazione ispirato al.
Dal problema al programma – ciclo di sviluppo del software La scrittura del programma è solo una delle fasi del processo di sviluppo di un'applicazione.
Esercitazione N°2 Data Fitting con Modelli Lineari.
Parte 5 Sommario Uso routine di calcolo predefinite di Matlab –Risoluzione equazioni non lineariRisoluzione equazioni non lineari –Ricerca minimo di una.
Transcript della presentazione:

Modelli simulativi per le Scienze Cognitive Paolo Bouquet (Università di Trento) Marco Casarotti (Università di Padova)

La regola del percettrone Usata per reti feedforward con un unico strato di pesi sinaptici. Le unità di input e output possono utilizzano valori bipolari (-1, 1). Gli esempi di’addestramento sono costituiti da un vettore d’ingresso x e da una risposta desiderata t (target o teaching input). L’output della rete per un certo vettore d’ingresso è calcolato con: Questo valore viene confrontato con la risposta desiderata t. Se t e y differiscono (errore), i pesi sinaptici vengono modificati in base alla risposta corretta:

La regola delta Simile alla regola del percettrone, ma applicabile a reti feedforward con un singolo strato di pesi e unità di output con attivazione continua e differenziabile: Descriviamo la prestazione della rete con una funzione di errore o funzione di costo, che si basa sullo scarto quadratico medio tra risposta desiderata t ed output effettivo y: la funzione di costo E dipende unicamente dal valore delle connessioni sinaptiche W.

L’apprendimento consiste nel minimizzare la funzione di costo E, modificando i pesi nella direzione opposta al gradiente della funzione stessa (discesa del gradiente): Risolvendo l’equazione, otteniamo che il cambiamento dei pesi è dato dalla differenza tra target e output moltiplicata per l’attività presinaptica. La regola delta è plausibile dal punto di vista psico-biologico e corrisponde formalmente alla regola di Rescorla-Wagner del condizionamento classico.

La backpropagation Deriva dalla regola delta, permette di calcolare l’errore di unità nascoste, attraverso la propagazione all’indietro dell’errore (da cui il nome dell’algoritmo) usando i pesi sinaptici che servono per la propagazione dell’attivazione. La propagazione all’indietro dell’errore rende l’algoritmo implausibile dal punto di vista biologico. Reti feedforward multistrato (con unità nascoste) possono risolvere un ampio insieme di trasformazioni NON lineari (es. XOR): algoritmo molto potente dal punto di vista computazionale.

Problema fondamentale Output Come calcolare l’errore? Unità nascoste Input esterno

1. Presentazione pattern d’ingresso Unità di output Unità nascoste Unità di input

2. Propagazione in avanti dell’attivazione Unità di output Unità nascoste Unità di input

2. Propagazione in avanti dell’attivazione Unità di output Unità nascoste Unità di input

2. Propagazione in avanti dell’attivazione Unità di output Unità nascoste Unità di input

2. Propagazione in avanti dell’attivazione Unità di output Unità nascoste Unità di input

3. Calcolo dell’errore delle unità di output Unità nascoste Unità di input

4. Propagazione all’indietro dell’errore Unità di output Unità nascoste Unità di input

4. Propagazione all’indietro dell’errore Unità di output Unità nascoste Unità di input

5. Modifica dei pesi sinaptici Unità di output Unità nascoste Unità di input

5. Modifica dei pesi sinaptici Unità di output Unità nascoste Unità di input

Pro efficienza computazionale permette di addestrare reti con un qualsiasi numero di strati nascosti Contro problema dei minimi locali discesa del gradiente lenta Sviluppi numerose varianti introdotte per velocizzare la discesa del gradiente. La resilient backpropagation (Riedmiller & Braun, 1992), per esempio, utilizza solo il segno della derivata e non il valore. backpropagation through time (BPTT): permette di addestrare reti ricorrenti. L’algoritmo consente di apprendere serie temporali, estraendo come i dati cambiano nel tempo.