Determinazione Orbitale di Satelliti Artificiali Lezione 5

Slides:



Advertisements
Presentazioni simili
Materiale di supporto all’insegnamento di ELABORAZIONI IMMAGINI 1
Advertisements

Come organizzare i dati per un'analisi statistica al computer?
LA VARIABILITA’ IV lezione di Statistica Medica.
Intervalli di confidenza
Implementazione del problema della approssimazione ai minimi quadrati Camillo Bosco Corso di Analisi Numerica A.A
Lez. 3 - Gli Indici di VARIABILITA’
Definizione e caratteristiche
Richiami di Identificazione Parametrica
ANALISI DELLA COVARIANZA
Dato un insieme di misure sperimentali di una stessa grandezza,
Progetto Pilota 2 Lettura e interpretazione dei risultati
Metodi Quantitativi per Economia, Finanza e Management Lezione n° 11.
redditività var. continua classi di redditività ( < 0 ; >= 0)
Ipotesi e proprietà dello stimatore Ordinary Least Squares (OLS)
Analisi di regressione Fornire un semplice modello lineare dei dati per scopi Descrittivi Esplicativi Previsivi Adattare una retta minimizzando gli errori.
Perugia 27 aprile 2000 Anno Accademico 1998/1999
Weighted least squares. Covarianza con Spazio delle misurazioni (N dimensionale): variabili non deterministiche sottoposte a errore di misura. Es. coordinate.
INFERENZA NEL MODELLO DI REGRESSIONE LINEARE MULTIPLA (parte 1)
MODELLO DI REGRESSIONE LINEARE MULTIPLA
Dip. Economia Politica e Statistica
Identificabilità a priori: esperimento “ideale”
RELAZIONE LINEARE: I MINIMI QUADRATI (cenni)
Analisi della varianza (a una via)
Appunti di inferenza per farmacisti
Corso di biomatematica lezione 5: propagazione degli errori
CORSO DI MODELLI DI SISTEMI BIOLOGICI LAUREA IN INGEGNERIA CLINICA E BIOMEDICA.
INGEGNERIA CLINICA E BIOMEDICA
BIOINGEGNERIA S. Salinari Lezione 3.
CORSO DI MODELLI DI SISTEMI BIOLOGICI
STATISTICA a.a METODO DEI MINIMI QUADRATI REGRESSIONE
Introduzione all’algebra lineare
Corso di Chimica Fisica II 2013 Marina Brustolon
Studente Claudia Puzzo
PATTERN RECOGNITION.
Modello di regressione lineare semplice
Determinazione Orbitale di Satelliti Artificiali Lezione 4
Determinazione Orbitale di Satelliti Artificiali Lezione 2
Metodi numerici per l’approssimazione
Metodi numerici per lapprossimazione Laboratorio di Metodi Numerici a.a. 2008/2009 Prof. Maria Lucia Sampoli.
Il calcolo di radiosity
Esempio: somma se, allora [ per n addendi ] se ( se )
Quale valore dobbiamo assumere come misura di una grandezza?
“Piano” Lab 1 – Fattorizzazione LU + pivoting
Introduzione ai Metodi Inversi
TRATTAMENTO DEI DATI ANALITICI
Interpolazione e regressione
STATISTICA PER LA RICERCA SPERIMENTALE E TECNOLOGICA
Sintesi della lezione Il concetto di variabilità Campo di variazione Differenza interquartile La varianza La deviazione standard Scostamenti medi VARIABILITA’
DATA MINING PER IL MARKETING
LABORATORIO DI ANALISI AVANZATA DEI DATI Andrea Cerioli Sito web del corso ESTENSIONI DEL MODELLO DI REGRESSIONE LINEARE MULTIPLA.
Complessità degli algoritmi (cenni) CORDA – Informatica A. Ferrari.
Indice Una grandezza fisica Una misura Gli errori La stima dell’errore
DATA MINING PER IL MARKETING
PROPAGAZIONE DEGLI ERRORI:
Nelle popolazioni naturali la variabilità genetica (ovvero ereditaria) può essere di tipo qualitativo o quantitativo La variabilità qualitativa si riscontra.
La verifica d’ipotesi Docente Dott. Nappo Daniela
Un insieme limitato di misure permette di calcolare soltanto i valori di media e deviazione standard del campione, ed s. E’ però possibile valutare.
Strumenti statistici in Excell
redditività var. continua classi di redditività ( < 0 ; >= 0)
BIOINGEGNERIA S. Salinari Lezione 2.
Assicurazioni vita e mercato del risparmio gestito Lezione 17 Stimatori bayesiani e allocazione del portafoglio.
REGRESSIONE LINEARE Relazione tra una o più variabili risposta e una o più variabili esplicative, al fine di costruire una regola decisionale che permetta.
TRATTAMENTO STATISTICO DEI DATI ANALITICI
L’analisi di regressione e correlazione Prof. Luigi Piemontese.
Metodo dei pesi residui Metodo di Petrov-Galerkin Metodo di Galerkin Metodo di collocazione Metodo dei minimi quadrati.
Regressione semplice e multipla in forma matriciale Metodo dei minimi quadrati Stima di beta Regressione semplice Regressione multipla con 2 predittori.
Regressione lineare Misure Meccaniche e Termiche - Università di Cassino2 Distribuzioni Correlate Una variabile casuale z, può derivare dalla composizione.
Lezione n° 10 Algoritmo del Simplesso: - Coefficienti di costo ridotto - Condizioni di ottimalità - Test dei minimi rapporti - Cambio di base Lezioni di.
Regressione: approccio matriciale Esempio: Su 25 unità sono stati rilevati i seguenti caratteri Y: libbre di vapore utilizzate in un mese X 1: temperatura.
Gli Indici di VARIABILITA’
Transcript della presentazione:

Determinazione Orbitale di Satelliti Artificiali Lezione 5 Alessandro Caporali Università di Padova

Stima ‘ottima’ delle costanti di modello In assenza di errori sistematici, la ‘migliore’ stima X0* delle p costanti X0 viene ottenuta minimizzando rispetto a X0 il funzionale Il valore del vettore Xo che minimizza la somma dei quadrati degli scarti ‘osservato – calcolato’ (oppure ‘o-c’) è quello più probabile, naturalmente nei limiti del numero di osservazioni e della ‘bontà’ del modello delle osservazioni. Condizione necessaria per il minimo è che le p X0 soddisfino il sistema di p equazioni lineari, per X0= X0* :

Linearizzazione dei modelli dei processi e dei modelli delle misure Se è disponibile una stima a priori delle p costanti incognite di modello X’0 è conveniente linearizzare: -il modello dei processi: - il modello delle osservazioni:

Modelli linearizzati

Minimi quadrati – Equazioni normali Modello degli osservabili Stima di x mediante minimizzazione del funzionale Condizione necessaria per il minimo di J:

Minimi quadrati pesati Si assuma che ogni residuo ei abbia una probabilità 0<=wi <=1. Allora il funzionale J viene ridefinito come segue: Ove W è una matrice diagonale i cui elementi sono wi Minimizzazione di J:

Minimi quadrati con equazioni di condizione Minimizzazione di J, ove i parametri X sono ulteriormente soggetti a una o più equazioni di condizione del tipo a1(X)=0,.. an(X)=0 Linearizzazione delle eq.i di condizione: In pratica, disponiamo di ulteriori n equazioni di osservazione, una per vincolo, e ciascuna affetta da un errore e:

Minimi quadrati con informazioni a priori sui parametri (1/2) Si consideri il sistema di osservazioni Tale sistema descrive la circostanza che dei p parametri incogniti di modello, m sono noti a priori con una certa incertezza h. Questo è il caso ad es.per il GM terrestre, o per certi coefficienti del campo gravitazionale terrestre, che sono fissati convenzionalmente. Possiamo scrivere: Assumiamo

Minimi quadrati con informazioni a priori sui parametri (2/2) Introdotta una matrice di peso delle osservazioni in questi termini: le equazioni delle osservazioni, incluse l’osservazione diretta dei parametri, sono:

Propagazione della stima e della covarianza Nota la stima di xj=x(tj) a un’epoca tj, fatta sulla base di osservazioni y1,..,yj, nonché la covarianza Pj associata, si tratta di predirre all’epoca tk (ad es. successiva) xk e Pk

Filtro di Kalman vs. Minimi quadrati

Esempio numerico Excel può essere usato per il problema piano ‘ranging da una Terra puntiforme’: Genera robs=a(1-e*cos(E-E0)), E=0..360, ponendo ad es a=6578137 m, e=0.3, E0=1 Genera rcalc =a(1-e*cos(E-E0)), E=0..360, ponendo ad es a=6378137 m, e=0.5, E0=0 Genera robs-rcalc, E=0,360 Genera Ha=(1-e*cos(E-E0)), He=-a*cos(E-E0),HE0=-a*e*sin(E-E0) Minimi quadrati: Risolvi per Da, De,DE0 con la funzione REGR. LIN Filtro di Kalman: assegna valori a priori per Dx eP0 Calcola il guadagno del Filtro K Aggiorna Dx e P sequenzialmente Filtro esteso: aggiorna le derivate parziali, rcalc e robs-rcalc man mano che diventano disponibili stime aggiornate di x+ Dx