G. Grossi Modelli e applicazioni Processi stocastici G. Grossi Modelli e applicazioni
Sommario Riepilogo su processi stocastici e spettro di potenza Modelli standard: armonico, white noise, ARMA Modelli per segnali casuali: sistema LTI + white noise
Risposta di sistemi LTI a processi Spettro di potenza e autocorrelazione
Processo armonico Il processo è stazionario in senso lato a media zero e funzione di autocorrelazione Se l’autocorrelazione è periodica può essere espansa in serie di Fourier e lo spettro risulta
Modello white noise Un processo incorrelato e stazionario a media zero e varianza finita per cui vale la relazione Notazione Rumore bianco gaussiano MATLAB: Generare valori distribuiti secondo gaussiana randn(), aggiungere al segnale rumore gaussiano awgn(x,snr)
Esempio: rumore colorato h = fir1(48,[0.35 0.65]); r = randn(100000,1); x = filter(h,1,r); pwelch(x,512,300,1024) ... freqz(h,1,512)
Sistema LTI causale e stabile + white noise Input white noise Output processo stocastico Relazione tra autocorrelazione e spettro di potenza Dove la funzione di autocorrelazione applicata a segnali deterministici diventa
Modelli per segnali casuali Modellare i segnali casuali significa considerarli come output di un filtro lineare causale e stabile H(z) sollecitato da un processo stazionario incorrelato (white-noise) Il filtro H(z) è detto filtro di sintesi Questi modelli basati su sistema LTI sono alquanto generali, al punto che si dimostra che ne esiste uno per ogni segnale stazionario y(n) Comunemente usati in applicazioni come: speech, geophysical signal processing, image processing, EEG signal processing, spectrum estimation, data compression, time series analysis Come sono usati: vengono definite delle procedure di analisi (algoritmi) che consentono di estrarre i parametri del modello a partire da una realizzazione del processo
Processo lineare Se il filtro di sintesi h(n) è a fase minima (causale e invertibile) con input La risposta impulsiva del sistema inverso è Il sistema LTI di analisi basato sul sistema inverso è in grado di riprodurre il white noise, il che li rende linearmente equivalenti Il processo x(n) e detto innovazione del processo y(n)
Modelli ARMA Il processo diventa auto-regressive (AR) quando M = 0 e moving-average (MA) quando N = 0 Spettro di potenza Problema di maggiore interesse è determinare i coefficienti ak e bk a partire dalla autocorrelazione Per motivo di semplicità, nel signal processing, sono molto usati i modelli AR (con M = 0)
Filtro di sintesi - esempio Parametri del modello
Filtri adattati Filtro lineare ottimo Esempio: filtro matched che minimizza SNR Esempio: filtro di Wiener che minimizza MSE
Filtro lineare ottimo Filtri progettati seguendo criteri statistici di ottimalità, come il filtro che massimizza il rapporto segnale rumore SNR (Signal to Noise Ratio) o il filtro che minimizza l’errore quadratico medio MSE (Mean Square Error) Filtro che massimizza l’SNR S(t) è un segnale noto di durata finita Costante a è l’attenuazione Il tempo t0 è il round-trip delay Il segnale v(t) è il rumore indesiderato L’obiettivo NON è estrarre il segnale dal rumore stimandone l’andamento nel tempo, cioè ricostruire il segnale, ma individuarne la presenza ed eventualmente stimarne i parametri incogniti a e t0
Filtro adattato a tempo discreto quando il segnale è presente quando il segnale è assente Il segnale è dati in ingresso a un filtro… …allo scopo di determinare con alta confidenza la presenza/assenza del segnale originale o i parametri fondamentali Fissato il tempo n0 il criterio diventa massimizzare Se si considera il tempo si ha
SNR Potenza del segnale è Potenza del rumore è Si ricava Da cui con Matrice correlazione del rumore (Toeplitz simmetrica) Potenza del rumore è Si ricava Da cui con
Ottimizzazione e white noise Il massimo si ha scegliendo Da cui Il valore del massimo è (per ogni valore della costante) Caso di white noise Valore dell’ottimo
Minimizzare l’MSE(1) Stima della variabile casuale y a partire dalle osservazioni date dalla combinazione lineare delle variabili casuali xi Si definisce l’errore come Il valore da ottimizzare Espandendo
Minimizzare l’MSE(2) Funzione obiettivo Matrice di correlazione e vettore di crosscorrelazione In forma matriciale
Minimizzare l’MSE(3) Equazioni normali Principio di ortogonalità In forma matriciale Stimatore MSE lineare ottimo… a patto che R sia definita positva Valore dell’ottimo Min Mean Square Error
Filtro di Wiener (1) Stima del processo casuale y(n) a partire dall’osservazione del processo x(n) dall’osservazione minimizzando l’errore MSE tra il segnale filtrato e quello desiderato Se i processi sono congiuntamente stazionari
Filtro di Wiener (2) Equazioni normali (forma matriciale) Minimo valore di MSE