Filtri adattativi.

Slides:



Advertisements
Presentazioni simili
Modellistica e simulazione1 Esercitazione 3
Advertisements

Filtri FIR.
Apprendimento Automatico Apprendimento supervisionato
Dipartimento di Economia
Proprietà degli stimatori
Richiami di Identificazione Parametrica
Attività cerebrale I neuroni si attivano in gruppi sotto lazione di uno stimolo Attività in gruppi ben delimitati con alta o bassa attività Il gruppo.
Metodi Quantitativi per Economia, Finanza e Management Lezione n°8
Metodi Quantitativi per Economia, Finanza e Management Lezione n°9.
Metodi Quantitativi per Economia, Finanza e Management Lezione n° 11.
redditività var. continua classi di redditività ( < 0 ; >= 0)
ALGORITMI DI OTTIMIZZAZIONE PER L'ADDESTRAMENTO DI RETI NEURALI
Ipotesi e proprietà dello stimatore Ordinary Least Squares (OLS)
Analisi di regressione Fornire un semplice modello lineare dei dati per scopi Descrittivi Esplicativi Previsivi Adattare una retta minimizzando gli errori.
PROGETTO DI FILTRI IIR E FIR CON IL C.A.D.
GIOVANNI NALDI - Medichat 29 Gennaio 2008
Apprendimento di funzioni algebriche
IL MODELLO DI REGRESSIONE MULTIPLA
INFERENZA NEL MODELLO DI REGRESSIONE LINEARE MULTIPLA (parte 1)
Laboratorio del 29/09/05 Processi AR
Tema 5: Misura di un segnale costante in rumore
Inversione differenziale della Cinematica
Metodi Quantitativi per Economia, Finanza e Management Lezione n° 9.
Ottimizzazione non lineare non vincolata: Metodi iterativi di eliminazione ed interpolazione per ottimizzazione di funzione di una variabile 10 marzo.
Strumentazione per bioimmagini
Strumentazione per bioimmagini
Ricerca della Legge di Controllo
BIOINGEGNERIA S. Salinari Lezione 3.
BIOINGEGNERIA S. Salinari Lezione 4.
BIOINGEGNERIA S. Salinari Lezione 8. RETI AD APPRENDIMENTO NON SUPERVISIONATO Le reti ad apprendimento non supervisionato debbono essere in grado di determinare.
Dipartimento di Informatica e Sistemistica Alessandro DE CARLI Anno Accademico MOVIMENTAZIONE CONTROLLATA MODALITÀ DI CONTROLLO INNOVATIVE.
TECNOLOGIE DEI SISTEMI DI CONTROLLO
BIOINGEGNERIA S. Salinari Lezione 7. RETI CON APPRENDIMENTO SUPERVISIONATO A DISTANZA Nello sviluppo delle reti neurali si è proceduto indebolendo via.
Tecniche di Risoluzione della Programmazione a Breve Termine.
DATA PROCESSING UNIVERSITÀ DEGLI STUDI DI ROMA “LA SAPIENZA”
Teoria e Tecniche del Riconoscimento
Modelli simulativi per le Scienze Cognitive Paolo Bouquet (Università di Trento) Marco Casarotti (Università di Padova)
Modelli simulativi per le Scienze Cognitive
PATTERN RECOGNITION.
Reti Neurali Ricorrenti
Reti Neurali Mercoledì, 10 Novembre 2004 Giuseppe Manco References: Chapter 4, Mitchell Chapter 1-2,4, Haykin Chapter 1-4, Bishop Reti Neurali Lezione.
Determinazione Orbitale di Satelliti Artificiali Lezione 5
Apprendimento Automatico Apprendimento non supervisionato:
SISTEMI LINEARI TEMPO INVARIANTI SEZIONE 7
Metodi a gruppi per lidentificazione di modelli termici con selezione dei dati IDENTIFICAZIONE TERMODINAMICA DI UN EDIFICIO Alberton Riccardo, Ausserer.
Laureando: Enrico Masini
PROGETTO FINALE PROGETTO FINALE DEL CORSO DI PROGETTAZIONE DI SISTEMI DI CONTROLLO a.a. 2008/2009 Localizzazione tramite una rete di sensori wireless.
Università degli Studi di Cagliari
DATA MINING PER IL MARKETING
Regressione Lineare parte 1
Regressione Lineare parte 2 Corso di Misure Meccaniche e Termiche David Vetturi.
DATA MINING PER IL MARKETING
1 Università degli Studi di Roma “Tor vergata” Dipartimento di Ingegneria Civile Corso di Gestione ed esercizio dei sistemi di trasporto Docente: Ing.
Metodi Quantitativi per Economia, Finanza e Management Lezione n°10 Regressione lineare multipla: la valutazione del modello, metodi automatici di selezione.
Metodi Quantitativi per Economia, Finanza e Management Lezione n°9.
Iterative Learning Control per un manipolatore robotico
BIOINGEGNERIA S. Salinari Lezione 2.
RETI NEURALI ARTIFICIALI
Intelligenza Artificiale
REGRESSIONE LINEARE Relazione tra una o più variabili risposta e una o più variabili esplicative, al fine di costruire una regola decisionale che permetta.
APPROSSIMAZIONE DI FUNZIONI
Learning Non Supervisionato
FILTRI ANALOGICI E DIGITALI Modulo del Corso Integrato di: Progetto di Circuiti per il Trattamento dei Segnali.
I modelli di valutazione delle opzioni su tassi
REALIZZAZIONE DI UN SISTEMA DI CLASSIFICAZIONE Prof. Roberto Tagliaferri Studente: Ragognetti Gianmarco Corso di Reti Neurali e Knowledge Discovery A.A.
Esercitazione N°5 Approssimazione di Funzioni. Esercizio 1 Costruzione di una rete RBF Il metodo più semplice per approssimare una funzione mediante reti.
Regressione semplice e multipla in forma matriciale Metodo dei minimi quadrati Stima di beta Regressione semplice Regressione multipla con 2 predittori.
Esercitazione N°2 Data Fitting con Modelli Lineari.
Regressione: approccio matriciale Esempio: Su 25 unità sono stati rilevati i seguenti caratteri Y: libbre di vapore utilizzate in un mese X 1: temperatura.
G. Grossi Modelli e applicazioni
Transcript della presentazione:

Filtri adattativi

Sintesi della funzione di trasferimento del filtro FA-1 FILTRI ADATTATIVI Sintesi della funzione di trasferimento del filtro Progetto di filtri Adattamento Un filtro adattativo e’ simile ad una rete neurale lineare MA I parametri del filtro sono continuamente cambiati secondo un criterio predefinito (di ottimizzazione), senza un esplicito controllo dell’utilizzatore (MEMORIA A BREVE TERMINE) La rete neurale non si addestra più dopo il training (MEMORIA A LUNGO TERMINE)

COMBINATORE LINEARE ADATTATIVO FA-2 x(n) w0 z-1 w1 y(n) w2 z-1 S wi = ? Criterio di progetto (sintesi) Risposta desiderata d(n) (filtro adattativo) z-1 wD-1 Linea di ritardo d(n) x(n) y(n) + H(z) - Regressore lineare (senza bias) dalla serie in ingresso alla serie desiderata, di ordine D. (n) CRITERIO

FILTRO OTTIMO w ? + - d(n) y(n) x(n) MSE= J = <2(n)> (n) FA-3 FILTRO OTTIMO w ? + - d(n) y(n) x(n) MSE= J = <2(n)> (n) funzione costo (n)=d(n)-y(n)

Equazioni di Wiener-Hopf FA-4 Equazioni di Wiener-Hopf con Funzione di autocorrelazione nel tempo Funzione di cross-correlazione nel tempo

Con notazione vettoriale: FA-5 Con notazione vettoriale: Con:

IL PRINCIPIO DI ORTOGONALITÀ FA-6 Errore ortogonale all’ingresso Errore ortogonale all’uscita

LA SOLUZIONE DI WIENER FA-7 d(n) e(n) x(n-D+1) w x(n) L’uscita del filtro è la proiezione del segnale desiderato nello spazio degli ingressi La soluzione di Wiener per la minimizzazione di J è analitica e richiede l’inversione della matrice di correlazione (alto costo computazionale) w = R-1p

LA SOLUZIONE ITERATIVA FA-8 J Es: D=2 w(1) w(2) Jmin wottimo Minimizzare il funzionale Forma quadratica 2-D Paraboloide J = Jminimo w = wottimo n indice iterazione taglia dello step pn direzione della ricerca wn+1= wn- pn

Stima di Widrow e Stearns (Least Mean Square - LMS) FA-9 R Rn; g gn Alto costo computazionale Stima di Widrow e Stearns (Least Mean Square - LMS) Aggiornamento iterativo derivato dal considerare il solo valore istantaneo dell’errore

Non richiede l’inversione di matrici Non richiede il calcolo di R e p FA-10 Non richiede l’inversione di matrici Non richiede il calcolo di R e p

IL FILTRO DI WIENER COME APPROSSIMATORE DI FUNZIONI FA-11 x(n) d(n)=f(x(n)) Il filtro deve trovare un’approssimazione lineare di f(.) Dati temporali approssimazione nello spazio del segnale Il combinatore lineare effettua una regressione nello spazio del segnale Le basi dello spazio del segnale sono l’ingresso e i campioni ritardati

PROPRIETA’ DELLA SOLUZIONE ITERATIVA FA-12  Taglia dello step Massimo autovalore di R  Costante di tempo Minimo autovalore di R Nella pratica: (Potenza del segnale ai taps) R definisce la proprietà dell’algoritmo di learning

APPLICAZIONI FA-13