BIOINGEGNERIA S. Salinari Lezione 2.

Slides:



Advertisements
Presentazioni simili
Metodo di Calcolo Numerico per Equazioni differenziali Ordinarie
Advertisements

Materiale di supporto all’insegnamento di ELABORAZIONI IMMAGINI 1
ITCG MOSE’ BIANCHI ANNO SCOLASTICO
MATEMATICA PER L’ECONOMIA
Dipartimento di Economia
PROVA B: ESERCIZIO 1 Risolvere il sistema lineare (4 equazioni in 5 incognite):
Geometria analitica dello spazio
METODI EQUAZIONI DIFFERENZIALI Funzioni che mettono in relazione una variabile indipendente ( es. x), una sua funzione ( es. y = f(x) ) e la.
COORDINATE POLARI Sia P ha coordinate cartesiane
LE MATRICI.
Dinamica del manipolatore
Definizione e caratteristiche
ANALISI DELLA COVARIANZA
6. Catene di Markov a tempo continuo (CMTC)
Dipartimento di Economia
Metodi Quantitativi per Economia, Finanza e Management Lezione n°8
Lezione 3) Cenni di teoria dell’elasticità, sforzi e deformazioni, l’equazione delle onde elastiche.
Teoria e Tecniche del Riconoscimento
IL MODELLO DI REGRESSIONE MULTIPLA
MODELLO DI REGRESSIONE LINEARE MULTIPLA
Laboratorio del 29/09/05 Processi AR
Processi Aleatori : Introduzione – Parte I
Tema 5: Misura di un segnale costante in rumore
Inversione differenziale della Cinematica
PER FUNZIONI DI PIÙ VARIABILI - 3.
PER FUNZIONI DI PIÙ VARIABILI - 2.
SISTEMI D’EQUAZIONI ED EQUAZIONI DIFFERENZIALI LINEARI.
EQUAZIONI DIFFERENZIALI LINEARI A COEFFICIENTI COSTANTI.
Sistemi di equazioni lineari
Teoria e Tecniche del Riconoscimento
Teoria e Tecniche del Riconoscimento
CORSO DI MODELLI DI SISTEMI BIOLOGICI LAUREA IN INGEGNERIA CLINICA E BIOMEDICA.
INGEGNERIA CLINICA E BIOMEDICA
BIOINGEGNERIA S. Salinari Lezione 3.
BIOINGEGNERIA S. Salinari Lezione 1. Richiami sui filtri digitali Filtri non recorsivi La stima y*(k) è la somma pesata del segnale in k e degli n-1 campioni.
STATISTICA a.a METODO DEI MINIMI QUADRATI REGRESSIONE
Teoria e Tecniche del Riconoscimento
Introduzione all’algebra lineare
Modelli probabilistici
Corso di Chimica Fisica II 2013 Marina Brustolon
Studente Claudia Puzzo
Filtri adattativi.
Determinazione Orbitale di Satelliti Artificiali Lezione 5
INTERPOLAZIONE Si parla di processo di interpolazione quando, conoscendo una serie di dati, sperimentali o statistici, riguardo ad un evento, si vuole.
Il calcolo di radiosity
Propagazione degli errori
PROCESSI CASUALI E SISTEMI LINEARI TEMPO INVARIANTI SEZIONE 7
Lezione n° 18: Maggio Problema del trasporto: formulazione matematica Anno accademico 2008/2009 Prof. Cerulli – Dott.ssa Gentili Lezioni di.
Proprietà delle matrici con variabili standardizzate.
Programmazione lineare
Sottospazi vettoriali
DATA MINING PER IL MARKETING
DATA MINING PER IL MARKETING
Equazioni lineari.
Approssimazione FD 1D su griglia non uniforme
Assicurazioni vita e mercato del risparmio gestito Lezione 17 Stimatori bayesiani e allocazione del portafoglio.
ANALISI DEI GRUPPI I. La Cluster analysis è uno strumento di classificazione capace di scomporre una realtà complessa di osservazioni plurime in tipologie.
BIOINGEGNERIA S. Salinari Lezione 1. Richiami sui filtri digitali Filtri non recorsivi La stima y*(k) è la somma pesata del segnale in k e degli n-1 campioni.
FILTRI ANALOGICI E DIGITALI Modulo del Corso Integrato di: Progetto di Circuiti per il Trattamento dei Segnali.
Metodo di Cramer Dato il sistema lineare a due incognite per risolvere il sistema dobbiamo costruire 3 matrici. È detta matrice un qualsiasi gruppo di.
MATEMATICA PER L’ECONOMIA e METODI QUANTITATIVI PER LA FINANZA a. a
APPUNTI DI GEOMETRIA ANALITICA DELLA RETTA
Anno scolastico 201 /201 Keith Devlin Anno scolastico 201 /201 Stanislas Dehaene L'assorbimento di questo sistema ha inizio già nell'infanzia, ancor.
L’analisi di regressione e correlazione Prof. Luigi Piemontese.
Metodo dei pesi residui Metodo di Petrov-Galerkin Metodo di Galerkin Metodo di collocazione Metodo dei minimi quadrati.
Regressione semplice e multipla in forma matriciale Metodo dei minimi quadrati Stima di beta Regressione semplice Regressione multipla con 2 predittori.
Lezione n° 5: Esercitazione
1IISS "E. Medi" - Galatone prof. Giuseppe Frassanito a.s. 2012/2013.
Lezione n° 10 Algoritmo del Simplesso: - Coefficienti di costo ridotto - Condizioni di ottimalità - Test dei minimi rapporti - Cambio di base Lezioni di.
Classe II a.s. 2010/2011 Prof.ssa Rita Schettino
Transcript della presentazione:

BIOINGEGNERIA S. Salinari Lezione 2

Filtro di Wiener Stimatore ottimo non recorsivo Il filtro di Wiener è lo stimatore ottimo non recorsivo dal punto di vista dell’errore quadratico medio pe = E(e2). IPOTESI: 1. y(k) = x + v(k) non essenziale 2. x e v processi stazionari 3. M  Il filtro non lavora il tempo reale. Gli m campioni di y sono tutti acquisiti Si ha un filtro lineare tempo-invariante per cui y* x* =i h(i) y(i) i=1...M le h(i) vanno calcolate minimizzando pe = E(e2) pe = E[x - i h(i) y(i) ]2 pe/ h(j) = -2 E[x - i h(i) y(i) ]y(j) = 0 j=1...M  E[e y(j)] = 0 i h(i) E[y(i) y(j)] = E[xy(j)] j=1...M i h(i) py(i,j) = pxy(j) py(i,j) e pxy(j) noti, h(i) incognita pe =E(e2)=E{e[ x - i h(i) y(i) ]}=[ E(x2) - i h(i) E[xy(i)] = E(x2) - i h(i) pxy(i)

Filtro di Wiener Stimatore ottimo non recorsivo Tenendo presente che la matrice Py è simmetrica py(i,j) = py(j,i) In forma matriciale si ottiene: h = Py-1 pxy EQUAZIONE DI WIENER-HOPF x*= hT y =pxyT Py-1 y pe= E(x2) – pxyT Py-1 pxy Con h, y vettori colonna (M1) Py matrice di autocorrelazione (M  M) pxy vettore di mutua correlazione (M1) Osservazioni pratiche: Se ci si discosta dalle ipotesi di base si ha un filtro subottimo.

Filtro di Wiener Stimatore ottimo non recorsivo APPLICAZIONI – Esempio 1 sv2 se k=j y(k) = x + v(k) con: E(x) =0; E(x2) = sx2; E(v)=0; E[v(k)v(j)] = 0 se kj La soluzione con la formula di Wiener-Hopf porta a: h(1) = h(2) = ...........= h(M) = x* = g = pe = per M grande pe

Filtro di Wiener Stimatore ottimo non recorsivo APPLICAZIONI – Esempio 2 y(k) = x ·k + v(k) rampa con coefficiente angolare x E(x) =x0; E(x2) = [E(x)]2+ sx2 =S; E(v)=0; E[v(k)v(j)] = sv2 per i=k 0 per ik Stimare la x* noti 2 punti per k=1 e k=2 (S+sv2)h(1) + 2Sh(2) = S 2Sh(1) + (4S+sv2)h(2) = 2S

Filtro di Wiener Stimatore ottimo non recorsivo SVANTAGGI DELLA FORMULAZIONE NON RECORSIVA I principali svantaggi nell’applicazione della formulazione non recorsiva del filtro di Wiener sono: Richiede la conoscenza a priori della Py e della pxy. Il numero di campioni m viene definito a priori Se m cambia per qualunque ragione (ad es. più dati disponibili) il calcolo va ripetuto Richiede l’inversione di una matrice (mxm) Py che può essere laboriosa.

Filtro di Wiener Formulazione recorsiva Nel caso in cui: Si può ottenere una formulazione recorsiva ricordando che: h(k) = Infatti si può scrivere : y(k+1) x*(k+1) + + - a(k) + T x*(k)

Filtro di Wiener Segnale variabile nel tempo Consideriamo che y(k) = x(k)+v(k) con y(k) e x(k) campioni di grandezze scalari x(t) e y(t). La misura varia quindi non solo per il contributo del rumore ma anche per la variabilità nel tempo del segnale. Minimizzando l’errore quadratico medio per ogni k si otterrà un’espressione analoga al caso in cui x era costante e precisamente: pe(k) = E[x(k) - i h(i) y(i) ]2  pe(k) / h(j) = -2 E[x(k) - i h(i) y(i) ]y(j) = 0 j=1...M i h(i) E[y(i) y(j)] = E[x(k)y(j)] j=1...M Poichè si dovrà scrivere un’equazione del tipo per ogni k si avrà: i h(k,i) E[y(i) y(j)] = E[x(k)y(j)] j,k=1...M In forma vettoriale si avrà: HE(yyT) = E(xyT) h(1,1)...h(1,j)...h(1,m) E[x(1)y(1)]...E(x(1)y(m) E[y(1)y(1)]...E(y(1)y(m) con H = h(k,1)...h(k,j)...h(k,m E(xyT) = E[x(k)y(1)]...E(x(k)y(m) E(y yT) = E[y(k)y(1)]...E(y(k)y(m) h(m,1)...h(m,j)...h(m,m) E[x(m)y(1)]...E(x(m)y(m) E[y(m)y(1)]...E(y(m)y(m)

Filtro di Wiener Segnale e Osservazione vettoriale Si consideri ora il caso in cui, in k, si abbiano q segnali x: x1(k), x2(k),...xq(k) ed r osservazioni y: y1(k), y2(k),...yr(k). In tal caso si ha: H E(YYT)=E(xYT)  H Py=Pxy H(1,1) H(1,2).....H(1,m) hki(1,1)...hki(1,r) H = ................................... H(k,i) = ............. H(m,1) H(m,2).....H(m,m) hki(q,1)...hki(q,r) Py(1,1) Py(1,2)..... Py(1,m) pyij(1,1)... pyij(1,r) Py = ................................... Py(i,j) = ............. Py(m,1) Py(m,2)..... Py(m,m) pyij(r,1)... pyij(r,r) Pxy(1,1) Pxy(1,2)..... Pxy(1,m) pxyij(1,1)... pxyij(1,r) Pxy = ................................... Pxy(i,j) = ............. Pxy(m,1) Pxy(m,2)..... Pxy(m,m) pxyij(q,1)... pxyij(q,r)