La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Identificabilità a priori: esperimento ideale Esperimento reale: raccolta di dati sperimentali y 1, y 2,…,y n in corrispondenza delle variabili x 1, x.

Presentazioni simili


Presentazione sul tema: "Identificabilità a priori: esperimento ideale Esperimento reale: raccolta di dati sperimentali y 1, y 2,…,y n in corrispondenza delle variabili x 1, x."— Transcript della presentazione:

1 Identificabilità a priori: esperimento ideale Esperimento reale: raccolta di dati sperimentali y 1, y 2,…,y n in corrispondenza delle variabili x 1, x 2,…,x n (t 1, t 2,…, t n ) Ad ogni dato sperimentale è associato un errore sperimentale: 1, 2, …, n

2 In corrispondenza delle variabili x 1, x 2,…,x n (t 1, t 2,…, t n ) il modello fornisce le sue previsioni: f i =f(t i,p 1,p 2,…,p p ) Confronto tra misure e previsioni del modello: errori di misura errori nel segnale di input errori nella struttura del modello

3 STIMATORI Unbiasedness: la funzione di distribuzione probabilità dei vettori p è distribuita simmetricamente intorno al valore vero p 0 Varianza minima: tra tutti i possibili stimatori unbiased, deve avere varianza minima: Efficienza: uno stimatore efficiente è quello che raggiunge il valore più basso della covarianza (limite inferiore di Cramer-Rao). Consistenza: Al tendere allinfinito della dimensione del campione (del numero di misure effettuate) la stima tende al valore vero p 0 :

4 METODO DEI MINIMI QUADRATI HP: MODELLO LINEARE NEI PARAMETRI Questo stimatore verifica le condizioni richieste sopra (in particolare, la varianza minima, che non è invece verificata se non cè la matrice di covarianza). Nel caso in cui gli errori di misura sono bianchi (cioè, non correlati) la matrice di covarianza è diagonale. Se inoltre gli errori di misura sono gaussiani, allora le stime sui parametri ricavate con questo stimatore sono distribuite normalmente con media e deviazione standard come ricavate dal fit. E quindi possibile fare tutta una serie di considerazioni di tipo statistico riguardanti la bontà del fit e gli intervalli di confidenza. e= differenza tra valore misurato e previsione del modello R = matrice di covarianza degli errori di misura.

5 METODO DEI MINIMI QUADRATI Squared sums of the weighted residuals (objective function)

6 METODO DEI MINIMI QUADRATI modello lineare nei parametri

7 METODO DEI MINIMI QUADRATI Modello non lineare nei parametri In questo caso, la funzione da minimizzare non è più quadratica nei parametri incogniti, e quindi quando si considerano le derivate per la minimizzazione non si ha più un sistema di equazioni lineari del primordine in p: soluzioni possibili utilizzando procedure iterative. PROCEDURA PIU COMUNE: Algoritmo di Levenberg- Marquardt Metodo delle approssimazioni quadratiche Metodo della massima pendenza (steepest descent)

8 ALGORITMO DI LEVENBERG-MARQUARDT Metodo delle approssimazioni quadratiche Approssimazione della funzione obiettivo in un intorno di un dato set di valore del vettore dei parametri p dove b è un vettore p- dimensionale legato al gradiente della funzione obiettivo, e A una matrice di dimensioni pxp

9 ALGORITMO DI LEVENBERG-MARQUARDT Metodo delle approssimazioni quadratiche Si valutano i valori dei componenti di A e b in corrispondenza di un determinato valore p j del vettore dei parametri, e si calcola poi p j+1 =p j +A -1 b In questo caso lincremento in ogni iterazione si calcola p j+1 =p j +c·b ove c è una opportuna costante. Metodo della steepest descent Il primo metodo più efficace vicino al minimo, il secondo metodo più efficace lontano dal minimo.

10 METODO DELLA MASSIMA VEROSIMIGLIANZA Questo metodo richiede in anticipo una conoscenza di qual è la distribuzione di probabilità attesa per i risultati delle misure. Al processo di raccolta dei dati sperimentali va associata una FUNZIONE DI DISTRIBUZIONE DI PROBABILITA, che sarà in qualche modo dipendente dai parametri del modello: L(y, p). Dato un set di misure y 1, y 2,…, y n, viene quindi ricercato il valore dei parametri che rendono massima la probabilità di ottenere quei valori misurati: Lo stimatore ML possiede tutte le proprietà asintotiche richieste nel caso in cui le misure sono statisticamente indipendenti, ma questo non è garantito nel caso di numero piccolo di misure.

11 METODO DELLA MASSIMA VEROSIMIGLIANZA Nel caso in cui la funzione di probabilità è gaussiana, allora la funzione da massimizzare risulta la seguente: essendo R la matrice di covarianza degli errori, che nel caso siano tutti indipendenti è diagonale e quindi: I due metodi coincidono, e quindi anche nel caso di modelli non lineari valgono le proprietà asintotiche dello stimatore ML.

12 DISTRIBUZIONE DEL CHI-QUADRATO Si consideri una serie di misure (x 1,…,x n ) rappresentative di una popolazione con valore vero μ e con varianza σ. Si definisce chi- quadrato: Funzione di distribuzione di probabilità per ν gradi di libertà ove: Γ(x+1) = xΓ(x); Γ(1) = 1 Γ(1/2) = All'aumentare dei gradi di libertà, la distribuzione del chi-quadrato tende alla distribuzione normale.

13 DISTRIBUZIONE DEL CHI-QUADRATO

14 SI DIMOSTRA CHE, SE LE OSSERVABILI SONO DISTRIBUITE NORMALMENTE, IL VALORE MINIMO ASSUNTO DA SSWR E' DISTRIBUITO COME UNA VARIABILE χ 2 CON (n-p) GRADI DI LIBERTA POSSIBILITA' DI VALUTARE IN MANIERA STATISTICA LA BONTA' DEL FIT.

15 DISTRIBUZIONE DEL CHI-QUADRATO SI DIMOSTRA CHE, SE LE OSSERVABILI SONO DISTRIBUITE NORMALMENTE, IL VALORE MINIMO ASSUNTO DA SSWR E' DISTRIBUITO COME UNA VARIABILE χ 2 CON (n-p) GRADI DI LIBERTA POSSIBILITA' DI VALUTARE IN MANIERA STATISTICA LA BONTA' DEL FIT. Nel caso dell'analisi compartimentale, sono stati sviluppati degli indicatori appositi che permettono di avere informazioni sulla bontà del fit, ma che in particolare sono utili per confrontare tra loro strutture compartimentali "concorrenti": AIC (Akaike Information Criterion): u MIN + 2n SC (Schwarz Criterion): u MIN + n·ln(N)

16 Criterio di convergenza Come varia il peso associato ad un dato sperimentale a seconda delle opzioni scelte ERRORE ESPRESSO COME SD=dFSD=f Dati Modello DatiModelloASSOLUTORELATIVO

17 Modello di varianza In ogni iterazione, il programma cerca valori dei parametri che risultano in una diminuzione del valore della funzione obiettivo. Se, per ogni parametro, la differenza tra il valore assunto dal p nella i-esima iterazione e quello assunto nella iterazione precedente verifica la relazione: allora si considera soddisfatto il criterio di convergenza.

18 RESIDUI: CHIQUADRO: IniettatoIngerito ResiduoChiquadroResiduoChiquadro e

19 CHI QUADRO Chiquadro calcolato: Numero di gradi di libertà: numero di dati sperimentali meno numero di parametri determinati: 24-7 = 17 Chiquadro ridotto: Probabilità: % (0.8: 70%; 1.0: 45%)


Scaricare ppt "Identificabilità a priori: esperimento ideale Esperimento reale: raccolta di dati sperimentali y 1, y 2,…,y n in corrispondenza delle variabili x 1, x."

Presentazioni simili


Annunci Google