BIOINGEGNERIA S. Salinari Lezione 4.

Slides:



Advertisements
Presentazioni simili
Selezione delle caratteristiche - Principal Component Analysis
Advertisements

INTERPOLAZIONE MOD.10 CAP.1
Apprendimento Automatico Apprendimento supervisionato
2. Introduzione alla probabilità
Cinematica diretta Un manipolatore è costituito da un insieme di corpi rigidi (bracci) connessi in cascata tramite coppie cinematiche (giunti). Si assume.
6. Catene di Markov a tempo continuo (CMTC)
1 2. Introduzione alla probabilità Definizioni preliminari: Prova: è un esperimento il cui esito è aleatorio Spazio degli eventi elementari : è linsieme.
Fisica 2 18° lezione.
Attività cerebrale I neuroni si attivano in gruppi sotto lazione di uno stimolo Attività in gruppi ben delimitati con alta o bassa attività Il gruppo.
3. Processi Stocastici Un processo stocastico è una funzione del tempo i cui valori x(t) ad ogni istante di tempo t sono v.a. Notazione: X : insieme di.
Pattern Recognition con Reti Neurali MLP
Regressione lineare Metodi Quantitativi per Economia, Finanza e Management Esercitazione n°10.
Metodi Quantitativi per Economia, Finanza e Management Lezione n°8
Metodi Quantitativi per Economia, Finanza e Management Lezione n° 11.
Metodi Quantitativi per Economia, Finanza e Management Lezione n°8.
Regressione lineare Metodi Quantitativi per Economia, Finanza e Management Esercitazione n°8.
ALGORITMI DI OTTIMIZZAZIONE PER L'ADDESTRAMENTO DI RETI NEURALI
Ipotesi e proprietà dello stimatore Ordinary Least Squares (OLS)
ALCUNI METODI STATISTICI PER LA SELEZIONE DELLE VARIABILI NELL’ANALISI DISCRIMINANTE Eliminazione di variabili con contributo discriminatorio statisticamente.
Esercitazioni su circuiti combinatori
Meccanismi one-parameter. Riepilogo Archi di un grafo controllati da agenti egoistici Solo lagente conosce il peso associato al proprio arco Obiettivo:
Teoria e Tecniche del Riconoscimento
Apprendimento Automatico: Apprendimento Probabilistico Roberto Navigli 1 Apprendimento Automatico: Apprendimento Bayesiano.
Apprendimento Non Supervisionato
Apprendimento di funzioni algebriche
Apprendimento di funzioni algebriche
Computational Learning Theory and PAC learning
Apprendimento Automatico: Reti Neurali
INFERENZA NEL MODELLO DI REGRESSIONE LINEARE MULTIPLA: test sui parametri e scelta del modello (parte 3) Per effettuare test di qualsiasi natura è necessaria.
Metodi Quantitativi per Economia, Finanza e Management Lezione n° 9.
Realizzazione e caratterizzazione di una semplice rete neurale per la separazione di due campioni di eventi Vincenzo Izzo.
Corso di biomatematica lezione 5: propagazione degli errori
Il moto armonico Altro esempio interessante di moto è quello armonico caratterizzato dal fatto che l’accelerazione è proporzionale all’opposto della posizione:
Seminario su clustering dei dati – Parte II
BIOINGEGNERIA S. Salinari Lezione 6.
BIOINGEGNERIA S. Salinari Lezione 8. RETI AD APPRENDIMENTO NON SUPERVISIONATO Le reti ad apprendimento non supervisionato debbono essere in grado di determinare.
TECNOLOGIE DEI SISTEMI DI CONTROLLO
BIOINGEGNERIA S. Salinari Lezione 7. RETI CON APPRENDIMENTO SUPERVISIONATO A DISTANZA Nello sviluppo delle reti neurali si è proceduto indebolendo via.
BIOINGEGNERIA S. Salinari Lezione 5. Lalgoritmo di retropropagazione Premesse 1.Reti Duali Si definiscono reti duali reti per cui è verificata la seguente.
TECNICHE DI APPROSSIMAZIONE
Modelli simulativi per le Scienze Cognitive Paolo Bouquet (Università di Trento) Marco Casarotti (Università di Padova)
Modelli simulativi per le Scienze Cognitive
Studente Claudia Puzzo
Filtri adattativi.
PATTERN RECOGNITION.
Reti Neurali Mercoledì, 10 Novembre 2004 Giuseppe Manco References: Chapter 4, Mitchell Chapter 1-2,4, Haykin Chapter 1-4, Bishop Reti Neurali Lezione.
Notazioni Asintotiche e Ordini di Grandezza delle funzioni
Intelligenza Artificiale
Apprendimento Automatico Apprendimento non supervisionato:
Elaborazione (digitale) delle immagini
APPLICAZIONI DI INTELLIGENZA ARTIFICIALE ALLA MEDICINA
Analisi dati sperimentali e principi di modellazione tramite identificazione Carlo Alberto Avizzano – Corso di Simulink L2 - A.A. 2008/2009.
Quadripoli Un quadripolo è una rete elettrica comunque complessa nella quale si individuano una coppia di terminali in ingresso ed una coppia di terminali.
Il neurone e i suoi componenti Il nucleo I dendriti Lassone Le connessioni sinaptiche.
Perceptron. è la somma effettuata sul nodo i-esimo dello strato j n è il numero di nodi dello strato j-1 è l'output proveniente dal nodo k-esimo dello.
Scomposizione della devianza
Sistemi compatibili (Il metodo di Fourier-Motzkin)
Fabio Garufi - TAADF Tecniche automatiche di acquisizione dati Sensori Prima parte.
IL CAMPIONE.
RETI NEURALI ARTIFICIALI
Intelligenza Artificiale
REGRESSIONE LINEARE Relazione tra una o più variabili risposta e una o più variabili esplicative, al fine di costruire una regola decisionale che permetta.
Intelligenza Artificiale Reti Neurali
BIOINGEGNERIA S. Salinari Lezione 5. L’algoritmo di retropropagazione Premesse 1.Reti Duali Si definiscono reti duali reti per cui è verificata la seguente.
APPROSSIMAZIONE DI FUNZIONI
Esercitazione N°5 Approssimazione di Funzioni. Esercizio 1 Costruzione di una rete RBF Il metodo più semplice per approssimare una funzione mediante reti.
Self-Organizing Map (SOM Kohonen, 1981) è una tecnica di visualizzazione dei dati multidimensionali SOM è una mappa mono- (bi-)dimensionale che rappresenta.
Regressione lineare Misure Meccaniche e Termiche - Università di Cassino2 Distribuzioni Correlate Una variabile casuale z, può derivare dalla composizione.
Esercitazione N°2 Data Fitting con Modelli Lineari.
INFERENZA NEL MODELLO DI REGRESSIONE LINEARE SEMPLICE
Transcript della presentazione:

BIOINGEGNERIA S. Salinari Lezione 4

Problemi di Regressione e Classificazione Problemi di regressione: Determinazione dei parametri di una funzione che lega gli insiemi di ingresso ed uscita (previsione) Problemi di classificazione: Associazione di un ingresso ad una determinata classe (riconoscimento e diagnostica) DIFFICOLTA’ Elevata dimensione dei dati Approccio manuale- Ad esempio: Caratteristiche morfologiche ESTRAZIONE DI CARATTERISTICHE Approccio automatico- Ad esempio: Componenti significative dello spettro Dati non separabili I dati di ingresso appartenenti alle varie classi possono non essere separabili

Problemi di Regressione e Classificazione Entrambi i problemi possono essere visti come problemi di APPROSSIMAZIONE DI FUNZIONI. Nella regressione si vuole approssimare la funzione che lega i dati ingresso-uscita Nella classificazione si vuole approssimare la probabilità di appartenenza a varie classi espressa come funzione dell’ingresso

Problemi di Regressione e Classificazione REGRESSIONE Algoritmo LMS (Least Mean Square) y x1 x2 xn w1 w2 wn S x = [x1 x2.....xn]T w = [w1 w2.....wn] T Fornisce una regola per la determinazione dei pesi w nella regressione lineare: Se ||x|| =1 y = ||w|| cos x1 x2 x w q ||w|| ||x|| cos q

Problemi di Regressione e Classificazione REGRESSIONE Algoritmo LMS - Regola di variazione dei pesi Si presuppone di avere un insieme di addestramento, cioè un certo numero di coppie ingresso-uscita: La regola di aggiornamento dei pesi è: Dw = (y i* - yi)xi dove xi i-esimo ingresso dell’insieme di addestramento, y uscita corrispondente all’ingresso xi e ai pesi w, y*i uscita desiderata. Per rendere l’algoritmo robusto si può usare: Dw = m(y i* - yi)xi 0  m ≤ 2 Se ||x||1 0  m 2 /||x||

Problemi di Regressione e Classificazione REGRESSIONE Algoritmo LMS Si mostrano i primi due passi dell’aggiornamento di w. m =1 y* (1) x2 x (1) w* y* (2) x (2) Passo 2 Passo 1 x1 x2 y *(2) Dw Dw x (2) w (0) w (1) w (1) y *(1) w (2) x (1) x1

Problemi di Regressione e Classificazione REGRESSIONE Algoritmo LMS In generale può non esistere nessun w* per cui,  i, la proiezione di w* su xi sia uguale a y i* . La soluzione w* è quella che minimizza la somma dei quadrati delle distanze, per ogni xi dai rispettivi iperpiani soluzione. L’algoritmo LMS individua quindi la “migliore retta” passante per l’origine che descrive l’andamento dei dati. Se si vuole che la retta di regressione non passi per l’origine si può considerare un vettore w = [b w1 w2 ……wn] e x = [1 x1 x2 ……xn]. In questo caso si ottiene: Si possono utilizzare anche funzioni di regressioni diverse. Ad es. La regressione polinomiale: y = b + w1z + w2z2 + ....... + wnzn I dati d’ingresso debbono essere molto maggiori dei parametri da determinare

Problemi di Regressione e Classificazione x1 x2 xn -1 y {0,1} w1 w2 wn x = [x1 x2.....xn]T w = [w1 w2.....wn] T q Il Percettrone E’ la più elementare rete neurale:non si hanno connessioni fra gli ingressi, non si hanno strati intermedi, non si hanno cammini indietro (rete feed-forward) Si consideri per semplicità una sola uscita corrispondente ad una funzione Booleana 0,1. Ad esempio l’ingresso può corrispondere a dati diagnostici relativi ad un paziente e l’uscita alla classificazione Sano = 0, Malato = 1. Si assume come funzione di attivazione (funzione f: Rn  [0,1]) la funzione di Heaviside con soglia: wTx-q ≥ 0 y=1 wTx-q  0 y=0

Problemi di Regressione e Classificazione REGOLA DI APPRENDIMENTO Si fissano i pesi iniziali w in modo arbitrario Si sceglie un elemento nell’insieme xk C1( y=0)C2( y=1) di apprendimento. Se xk viene classificato correttamente (cioè l’uscita della rete corrisponde alla yk dell’insieme di apprendimento) si lasciano i pesi w invariati Altrimenti si pone: Teorema di convergenza: Comunque si scelgano i pesi iniziali w se le classi C1 e C2 sono linearmente separabili la procedura di apprendimento termina in un numero finito di passi.

Problemi di Regressione e Classificazione ESEMPIO Come esempio consideriamo un percettrone che deve realizzare le funzioni logiche di AND OR ed EXOR. Di queste tre funzioni due (AND e OR) danno origine a classi linearmente separabili ed una no. Il  indica che l’uscita è pari ad 1 per l’ingresso indicato fra parentesi. Si può immediatamente osservare che le uscite della funzione AND e OR sono linearmente separabili mentre ciò non avviene per l’EXOR (0,0) (1,0) (1,1) (0,1) (0,1) (0,1)

Problemi di Regressione e Classificazione ESEMPIO Si può dimostrare che il percettrone non permette di realizzare la funzione EXOR. Infatti supponiamo di vor calcolare i pesi w1 e w2 imponendo le uscite dell’EXOR H(x) funzione di Heaviside =0 se x<0 e =1 se x>0. x1=0, x2=0 w1·0 + w2·0 -  ·1 = -  <0  H(0.0) = 0 x1=1, x2=1 w1·1 + w2·1 -  ·1 = w1 +w2-q <0  H(1.1) = 0 x1=1, x2=0 w1·1 + w2·0 -  ·1 = w1-q >0  H(1.0) = 1 x1=0, x2=1 w1·0 + w2·1 -  ·1 = w2-q >0  H(0.1) = 1 Si ottiene quindi: 2q <w1+w2 < q assurdo poichè q>0 x1 x2 -1 w1 w2 q S H(w1x1+ w2x2-q) w1+w2-2q >0

Problemi di Regressione e Classificazione ESEMPIO Per superare la limitazione dovuta alla necessità di separabilità delle classi si introduce il percettrone generalizzato in cui vengono introdotti gli strati nascosti -1 x1 x2 H1 H2 y 1.5 0.5 1 -2 REALIZZAZIONE DELL’EXOR x =(0,0) H1=H(1·0+1·0-1·1.5)<00 H2=H(1·0+1·0-2·0-1·0.5) <0 0 x =(1,0) H1=H(1·1+1·0-1·1.5)<00 H2=H(1·1+1·0-2·0-1·0.5) >0 1 x =(0,1) H1=H(1·0+1·1-1·1.5)<00 H2=H(1·0+1·1-2·0-1·0.5) >0 1 x =(1,1) H1=H(1·1+1·1-1·1.5)>01 H2=H(1·1+1·1-2·1-1·0.5) <0 0 Le connessioni sono unidirezionali Non ci sono connessioni tra gli ingressi I pesi vengono trovati minimizzando l’errore (uscita desiderata meno uscita attuale) Non è garantita la convergenza