La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

INFERENZA NEL MODELLO DI REGRESSIONE LINEARE MULTIPLA (parte 1)

Presentazioni simili


Presentazione sul tema: "INFERENZA NEL MODELLO DI REGRESSIONE LINEARE MULTIPLA (parte 1)"— Transcript della presentazione:

1 INFERENZA NEL MODELLO DI REGRESSIONE LINEARE MULTIPLA (parte 1)
Per effettuare test e costruire intervalli di confidenza è necessaria un’ipotesi sulla distribuzione degli errori in modo da poter derivare una statistica con distribuzione nota per n finito. Si assume perciò che il vettore degli errori abbia una distribuzione normale multivariata. Di conseguenza qui diventa fondamentale l’ipotesi Da cui consegue che

2 Dove rappresenta l’elemento jj sulla diagonale principale della matrice
Questa quantità non può essere utilizzata come statistica di riferimento perché la varianza non è nota. E’ necessario utilizzare lo stimatore della varianza. Per derivare la sua distribuzione si considerino le quantità: è indipendente da

3 Di conseguenza la quantità
è il rapporto fra una normale standardizzata e la radice di una variabile casuale chi-quadrato con n−k gradi di libertà rapportata ai suoi gradi di libertà. Poiché il numeratore e il denominatore sono indipendenti essa ha una distribuzione t di Student con n−k gradi di libertà. Semplificando si ha

4 Il test di significatività sui parametri del modello di regressione
E’ opportuno, dopo aver stimato un modello di regressione, sottoporre a test la significatività dei coefficienti per verificare se le singole variabili esplicative contribuiscono a spiegare le variazioni della variabile dipendente. E’ infatti prassi verificare l’ipotesi nulla H0: per j= 1, 2,…,k. H1: per j= 1, 2,…,k. Se essa non è respinta la j-esima variabile esplicativa non ha effetto sulla variabile dipendente. La statistica test di riferimento è la appena definita (detta t-ratio), che sotto ipotesi nulla diventa: ˆ

5 La regione critica del test è
I software statistici generalmente per ogni parametro stimato forniscono il p-valore di un test bidirezionale. Per ciascuna ipotesi nulla di non significatività i software riportano la probabilità dove è il valore osservato della statistica test ossia del t-ratio. In altri termini, il p-valore è il minimo livello di significatività per il quale l’ipotesi nulla può essere respinta in un test bidirezionale.

6 Intervalli di confidenza sui parametri del modello di regressione
Dall’ipotesi di normalità dei termini di errore del modello consegue che ha una distribuzione completamente nota (t-Student con (n-k) g.l), pertanto costituisce la quantità pivot di riferimento. Fissato il livello di confidenza 1−α si ha

7 Per cui, gli estremi dell’intervallo di confidenza sono:
Limite inferiore Limite superiore

8 Significato dei coefficienti di regressione ed elasticità
Il coefficiente esprime la variazione che subisce la variabile dipendente Y in seguito a una variazione unitaria della variabile esplicativa , mentre il valore delle altre variabili esplicative rimane costante. Attenzione però!!! I valori dei coefficienti dipendono dall’unità di misura delle variabili quindi la loro entità non fornisce informazione sull’importanza dei diversi regressori rispetto alla variabile Y. Informazioni sull’importanza dei diversi regressori possono essere desunte stimando l’elasticità della variabile dipendente rispetto ad essi. L'elasticità della Y rispetto alla variabile esplicativa è il rapporto fra la variazione percentuale della Y e la variazione percentuale della Essa non dipende dall'unità di misura ed è quindi

9 facilmente interpretabile. L’elasticità è data da
Che può essere agevolmente stimata nel seguente modo: Pertanto una variabile esplicativa ha un effetto maggiore sulla variabile dipendente, rispetto alle altre variabili esplicative, se il valore assoluto dell’elasticità della Y rispetto a è maggiore.

10 Si consideri una funzione di domanda del burro:
funzione del prezzo del burro, della margarina, e del reddito Y delle famiglie. Per questo modello è possibile calcolare: Elasticità rispetto al prezzo Elasticità rispetto al prezzo della margarina Elasticità rispetto al reddito delle famiglie

11 Il valore dell'elasticità è diverso in ogni punto della funzione di regressione ed è quindi importante che i valori di Y e di utilizzati per calcolarla siano rappresentativi. Quando le osservazioni sono riferite ad un unico periodo è ragionevole considerare l’elasticità in corrispondenza dei valori medi; se invece i dati sono costituiti da serie storiche può essere utile considerare i valori più recenti.

12 Scomposizione della devianza e indice di determinazione
Dopo aver stimato il modello di regressione è opportuno verificare l’adattamento ai dati. A tal fine si utilizza l’indice di determinazione. Per il calcolo di tale indice ripercorriamo la procedura vista per il modello di regressione semplice per i vincoli imposti dalle equazioni normali, il doppio prodotto si annulla, pertanto

13 Devianza residua (RSS)
Devianza spiegata (ESS) L’accostamento del modello ai dati è tanto migliore quanto più elevata è la percentuale di devianza totale costituita dalla devianza spiegata. Di conseguenza l’adattamento può essere misurato mediante il rapporto fra la devianza spiegata e la devianza totale. Si ottiene così l’indice di determinazione

14 L’indice di determinazione esprime qual è la percentuale di devianza della variabile dipendente (TSS) spiegata dall’insieme delle variabili esplicative nel loro complesso. Questo indice varia nell’intervallo [0,1]; é uguale ad 1 quando la devianza residua è nulla ossia vi è un perfetto adattamento del modello ai dati. L’indice di determinazione invece è uguale a zero quando la devianza spiegata è nulla quindi i regressori non sono in grado di spiegare le variazioni della variabile dipendente.

15 Il test F sulla significatività del modello di regressione
Dopo aver stimato un modello di regressione è opportuno verificarne l’utilità. La sua costruzione si giustifica se l’introduzione dei regressori migliora significativamente la spiegazione del fenomeno. L’utilità apportata dalla costruzione di un modello di regressione multipla può perciò essere verificata mediante un test congiunto sui parametri sottoponendo a test l’ipotesi nulla che implica che nessun regressore contribuisce a spiegare le variazioni della Y. L’ipotesi alternativa assume come modello quello di regressione, per cui

16 Il test quindi verifica se la devianza spiegata è sufficientemente ampia da giustificare la costruzione del modello. La statistica test è data da e sotto l’ipotesi nulla si distribuisce come una variabile casuale F di Fisher (Snedecor) con k −1 gradi di libertà al numeratore e n−k al denominatore. Al numeratore della statistica test c’è la devianza spiegata rapportata ai suoi gradi di libertà, che risultano k −1. Essa viene confrontata con la varianza dei residui. Il valore della statistica test aumenta al crescere della devianza spiegata. Di conseguenza l’ipotesi nulla risulta meno verosimile per valori elevati della statistica test e quindi la regione critica si trova nella coda destra della distribuzione.

17 Pertanto, al livello di significatività α la regione critica del test è
Dove è il quantile della distribuzione F che isola alla sua sinistra un’area pari a (1- α). Si osservi che la statistica F contiene le stesse informazioni presenti nell'indice di determinazione e tra i due esiste la seguente relazione La differenza è costituita dal fatto che la valutazione dell’adattamento del modello ai dati mediante l’indice è realizzata con un approccio di tipo descrittivo, mentre nel test sulla significatività della regressione l’approccio è di tipo inferenziale.

18 TAVOLA ANOVA CAUSA DEVIANZE GRADI DI MSE VARIAZIONE LIBERTÀ
MODELLO ESS k ESS/(k-1) RESIDUO RSS (n-k) RSS/(n-k) TOTALE TSS (n-1)


Scaricare ppt "INFERENZA NEL MODELLO DI REGRESSIONE LINEARE MULTIPLA (parte 1)"

Presentazioni simili


Annunci Google