La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Capitolo 6 Regressione lineare con regressori multipli.

Presentazioni simili


Presentazione sul tema: "Capitolo 6 Regressione lineare con regressori multipli."— Transcript della presentazione:

1 Capitolo 6 Regressione lineare con regressori multipli

2 Copyright © 2012 Pearson Italia, Milano – Torino Struttura 1.Distorsione da variabili omesse 2.Causalità e analisi di regressione 3.Regressione multipla e OLS 4.Misure di adattamento 5.Distribuzione campionaria dello stimatore OLS 6-2

3 Copyright © 2012 Pearson Italia, Milano – Torino La distorsione da variabili omesse (Paragrafo 6.1) L’errore u si verifica a causa di fattori, o variabili, che influenzano Y ma non sono inclusi nella funzione di regressione. Ci sono sempre variabili omesse. Talvolta l’omissione di queste variabili può portare a una distorsione dello stimatore OLS. 6-3

4 Copyright © 2012 Pearson Italia, Milano – Torino La distorsione da variabili omesse (continua) La distorsione dello stimatore OLS che si verifica a seguito di un fattore, o variabile, omesso è detta distorsione da variabile omessa. Affinché si verifichi tale distorsione, la variabile omessa “Z” deve soddisfare due condizioni: Le due condizioni per la distorsione da variabile omessa 1.Z è un determinante di Y (cioè Z è parte di u); e 2.Z è correlata con il regressore X (cioè corr(Z,X) ≠ 0) Entrambe le condizioni devono verificarsi affinché l’omissione di Z porti a distorsione da variabile omessa. 6-4

5 Copyright © 2012 Pearson Italia, Milano – Torino La distorsione da variabili omesse (continua) Nell’esempio dei punteggi nei test: 1.Il livello di conoscenza della lingua inglese (se lo studente è di madrelingua o meno) verosimilmente influisce sui punteggi nei test standardizzati: Z è un determinante di Y. 2.Le comunità di immigrati tendono a una minore affluenza e quindi hanno budget scolastici inferiori e STR maggiori: Z è correlata con X. Di conseguenza, è distorto. In quale direzione? –Che cosa suggerisce il buon senso? –Se il buon senso vi fa difetto, c’è una formula… 6-5

6 Copyright © 2012 Pearson Italia, Milano – Torino La distorsione da variabili omesse (continua) Formula per la distorsione da variabili omesse: si ricordi l’equazione – β 1 = = Dove v i = (X i – )u i ≈ (X i – μ X )u i. Sotto la prima assunzione dei minimi quadrati, E[(X i – μ X )u i ] = cov(X i,u i ) = 0. Ma se E[(X i – μ X )u i ] = cov(X i,u i ) = σ Xu ≠ 0? 6-6

7 Copyright © 2012 Pearson Italia, Milano – Torino La distorsione da variabili omesse (continua) Sotto le assunzioni dei minimi quadrati #2 e #3 (cioè anche se la prima assunzione dei minimi quadrati non è vera), – β 1 = = =, dove ρ Xu = corr(X,u). Se vale la prima assunzione, allora ρ Xu = 0, ma se non vale abbiamo…. 6-7

8 Copyright © 2012 Pearson Italia, Milano – Torino Formula della distorsione da variabili omesse: Se una variabile omessa Z è contemporaneamente: 1.una determinante di Y (cioè se è contenuta in u); e 2.correlata con X, allora ρ Xu ≠ 0 e lo stimatore OLS è distorto e inconsistente. Per esempio, i distretti scolastici con pochi studenti non di madrelingua (1) ottengono punteggi migliori nei test standardizzati e (2) hanno classi più piccole (budget più elevati), perciò ignorando l’effetto di avere molti studenti non di madrelingua si arriverebbe a sovrastimare l’effetto della dimensione delle classi. Si verifica questo nei dati riferiti alla California? 6-8  1 +

9 Copyright © 2012 Pearson Italia, Milano – Torino I distretti con meno studenti non di madrelingua ottengono migliori punteggi nei testi. I distrettti con una minore percentuale di studenti non di madrelingua hanno classi più piccole. Tra i distretti con percentuali di studenti non di madrelingua comparabili, l’effetto della dimensione delle classi è piccolo (si ricordi che complessivamente la “differenza di punteggio nei test” = 7.4). 6-9

10 Copyright © 2012 Pearson Italia, Milano – Torino Causalità e analisi di regressione L’esempio dei punteggi nei test/STR/percentuale di studenti non di madrelingua mostra che, se una variabile omessa soddisfa le due condizioni della distorsione da variabili omesse, allora lo stimatore OLS nella regressione che omtte tale variabile è distorto e inconsistente. Perciò, anche se n è grande, non sarà vicino a β 1. Ciò fa sorgere una domanda più profonda: come definiamo β 1 ? Ovvero, che cosa vogliamo stimare, precisamente, quando eseguiamo una regressione? 6-10

11 Copyright © 2012 Pearson Italia, Milano – Torino Che cosa vogliamo stimare, precisamente, quando eseguiamo una regressione? Esistono (almeno) tre possibili risposte a questa domanda: 1.Vogliamo stimare la pendenza di una retta attraverso un diagramma a nuvola come semplice riepilogo dei dati a cui non associamo un significato sostanziale. Questo può essere utile talvolta, ma non è molto interessante a livello intellettuale e non rientra nell’obiettivo di questo corso. 6-11

12 Copyright © 2012 Pearson Italia, Milano – Torino 2.Vogliamo effettuare previsioni del valore di Y per una unità che non appartiene all’insieme dei dati, per cui conosciamo il valore di X. Realizzare previsioni è importante per gli economisti, ed è possibile ottenere previsioni eccellenti utilizzando i metodi di regressione senza la necessità di conoscere gli effetti causali. Torneremo a questo tema più avanti nel corso. 6-12

13 Copyright © 2012 Pearson Italia, Milano – Torino 3.Vogliamo stimare l’effetto causale su Y di una variazione in X. Ecco perché siamo interessati all’effetto della dimensione delle classi. Si supponga che il consiglio scolastico decida una riduzione di 2 studenti per classe. Quale sarebbe l’effetto sui punteggi nei test? Questa è una domanda causale (qual è l’effetto causale sui punteggi nei test di STR?) perciò dobbiamo stimare questo effetto causale. A parte la discussione dell’attività di previsione, lo scopo di questo corso è la stima di effetti causali mediante metodi di regressione. 6-13

14 Copyright © 2012 Pearson Italia, Milano – Torino Che cos’è, precisamente, un effetto causale? La “causalità” è un concetto complesso! In questo corso adottiamo un approccio pratico alla definizione di causalità: Un effetto causale è definito come un effetto misurato in un esperimento controllato casualizzato ideale. 5-14

15 Copyright © 2012 Pearson Italia, Milano – Torino Esperimento controllato causalizzato ideale Ideale: i soggetti seguono tutti il protocollo di trattamento – perfetta compliance, nessun errore nei report, ecc.! Casualizzato: i soggetti della popolazione di interesse sono assegnati casualmente a un gruppo di trattamento o di controllo (così non ci sono fattori di confusione) Controllato: la disponibilità di un gruppo di controllo permette di misurare l’effetto differenziale del trattamento Esperimento: il trattamento è assegnato nell’esperimento: i soggetti non hanno scelta, perciò non vi è “causalità inversa” in cui i soggetti scelgono il trattamento che ritengono migliore. 6-15

16 Copyright © 2012 Pearson Italia, Milano – Torino Tornando alla dimensione delle classi: Si immagini un esperimento controllato casualizzato ideale per misurare l’effetto sui punteggi nei test della riduzione di STR… In tale esperimento gli studenti sarebbero assegnati casualmente alle classi, che avrebbero dimensioni diverse. Poiché gli studenti sono assegnati casualmente, tutte le loro caratteristiche (e quindi gli u i ) sarebbero distribuiti in modo indipendente da STR i. Quindi, E(u i |STR i ) = 0 – cioè la prima assunzione dei minimi quadrati vale in un esperimento controllato casualizzato. 6-16

17 Copyright © 2012 Pearson Italia, Milano – Torino In che modo i nostri dati osservazionali differiscono da questa situazione ideale? Il trattamento non è assegnato in modo casuale Si consideri PctEL – la percentuale di studenti non di madrelingua – nel distretto. Verosimilmente soddisfa i due criteri per la distorsione da variabili omesse: Z = PctEL è: 1.un determinante di Y; e 2.correlata con il regressore X. Quindi i gruppi “di controllo” e “di trattamento” differiscono in modo sistematico, perciò corr(STR,PctEL) ≠

18 Copyright © 2012 Pearson Italia, Milano – Torino Casualizzazione + gruppo di controllo significa che qualsiasi differenza tra i gruppi di trattamento e di controllo è casuale – non sistematicamente correlata al trattamento Possiamo eliminare la differenza di PctEL tra il gruppo di classi grandi (di controllo) e quello di classi piccole (di trattamento) esaminando l’effetto della dimensione delle classi tra i distretti con lo stesso valore di PctEL. –Se soltanto la differenza sistematica tra i gruppi di classi grandi e piccole è in PctEL, allora torniamo all’esperimento controllato casualizzato – all’interno di ciascun gruppo di PctEL. –Questo è un modo per “controlare” per l’effetto di PctEL quando si stima l’effetto di STR. 6-18

19 Copyright © 2012 Pearson Italia, Milano – Torino Tornando alla distorsione da variabili omesse Tre modi per superare la distorsione da variabili omesse 1.Eseguire un esperimento controllato casualizzato in cui il trattamento (STR) sia assegnato casualmente: allora PctEL è ancora un determinante di TestScore, ma PctEL è incorrelato con STR. (Questa soluzione è raramente praticabile.) 2.Adottare l’approccio “a tabulazione incrociata”, con gradazioni più fini di STR e PctEL – all’interno di ogni gruppo, tutte le classi hanno lo stesso PctEL, perciò controlliamo per PctEL (ma presto si esauriranno i dati, e che dire di altri determinanti come il reddito famigliare e il livello di istruzione dei genitori?) 3.Usare una regressione in cui la variabile omessa (PctEL) non è più omessa: includere PctEL come regressore aggiuntivo in una regressione multipla. 6-19

20 Copyright © 2012 Pearson Italia, Milano – Torino Il modello di regressione multipla (Paragrafo 6.2) Si consideri il caso di due regressori: Y i = β 0 + β 1 X 1i + β 2 X 2i + u i, i = 1,…,n Y è la variabile dipendente X 1, X 2 sono le due variabili indipendenti (regressori) (Y i, X 1i, X 2i ) denotano l’i-esima osservazione su Y, X 1 e X 2. β 0 = intercetta della popolazione ignota β 1 = effetto su Y di una variazione in X 1, tenendo X 2 costante β 2 = effetto su Y di una variazione in X 2, tenendo X 1 costante u i = errore di regressione (fattori omessi) 6-20

21 Copyright © 2012 Pearson Italia, Milano – Torino Interpretazione dei coefficienti nella regressione multipla Y i = β 0 + β 1 X 1i + β 2 X 2i + u i, i = 1,…,n Si consideri di variare X 1 di Δ X 1 tenendo X 2 costante: Retta di regressione della popolazione prima della variazione: Y = β 0 + β 1 X 1 + β 2 X 2 Retta di regressione della popolazione dopo la variazione: Y + Δ Y = β 0 + β 1 (X 1 + Δ X 1 ) + β 2 X

22 Copyright © 2012 Pearson Italia, Milano – Torino Prima: Y = β 0 + β 1 (X 1 + Δ X 1 ) +  2 X 2 Dopo: Y + Δ Y = β 0 + β 1 (X 1 + Δ X 1 ) + β 2 X 2 Differenza: Δ Y = β 1 Δ X 1 Quindi: β 1 =, tenendo X 2 costante β 2 =, tenendo X 1 costante β 0 = valore predetto di Y quando X 1 = X 2 =

23 Copyright © 2012 Pearson Italia, Milano – Torino Lo stimatore OLS della regressione multipla (Paragrafo 6.3) Con due regressori, lo stimatore OLS risolve: Lo stimatore OLS minimizza la differenza quadratica media tra i valori attuali di Y i e il valore predetto in base alla retta stimata. Questo problema di minimizzazione si risolve usando l’analisi matematica Così si ottengono gli stimatori OLS di β 0 e β

24 Copyright © 2012 Pearson Italia, Milano – Torino Esempio: i dati dei punteggi nei test della California Regressione di TestScore su STR: = 698,9 – 2,28×STR Ora includiamo la percentuale di studenti non di madrelingua nel distretto (PctEL): = 686,0 – 1,10×STR – 0,65PctEL Che cosa accade al coefficiente di STR? (STR, PctEL) = 0,19) 6-24

25 Copyright © 2012 Pearson Italia, Milano – Torino Regressione multipla in STATA reg testscr str pctel, robust; Regression with robust standard errors Number of obs = 420 F( 2, 417) = Prob > F = R-squared = Root MSE = | Robust testscr | Coef. Std. Err. t P>|t| [95% Conf. Interval] str | pctel | _cons | = 686,0 – 1,10×STR – 0,65PctEL Più avanti torneremo su questo stampato… 6-25

26 Copyright © 2012 Pearson Italia, Milano – Torino Misure di bontà dell’adattamento nella regressione multipla (Paragrafo 6.4) Reale = predetto + residuale: Y i = + SER = deviazione standard di (con correzione per gr. lib.) RMSE = deviazione standard di (senza correzione per gr. lib.) R 2 = frazione della varianza di Y spiegata da X = “R 2 corretto” = R 2 con una correzione per gradi di libertà che corregge per l’incertezza della stima; < R

27 Copyright © 2012 Pearson Italia, Milano – Torino SER e RMSE Come nella regressione con un unico regressore, SER e RMSE sono misure della dispersione delle Y attorno alla retta di regressione: SER = RMSE = 6-27

28 Copyright © 2012 Pearson Italia, Milano – Torino R 2 e (R 2 corretto) L’R 2 è la frazione della varianza spiegata – stessa definizione della regressione con singolo regressore: R 2 = =, dove ESS =, SSR =, TSS =.  L’R 2 aumenta sempre quando si aggiunge un altro regressore (perché?) – un problema per una misura di “adattamento” 6-28

29 Copyright © 2012 Pearson Italia, Milano – Torino R 2 e (continua) L’ (l’“R 2 corretto”) corregge questo problema “penalizzandovi” per l’inserimento di un altro regressore – l’ non aumenta necessariamente quando si aggiunge un altro regressore. R 2 corretto : = Si noti che < R 2, tuttavia se n è grande i due saranno molto vicini. 6-29

30 Copyright © 2012 Pearson Italia, Milano – Torino Misure di bontà dell’adattamento (continua) Esempio del punteggio nei test: (1) = 698,9 – 2,28×STR, R 2 = 0,05, SER = 18,6 (2) = 686,0 – 1,10×STR – 0,65PctEL, R 2 = 0,426, = 0,424, SER = 14,5 Che cosa vi dice questo – precisamente – riguardo la bontà dell’adattamento della regressione (2) rispetto alla regressione (1)? perché l’R 2 e l’ sono così vicini in (2)? 6-30

31 Copyright © 2012 Pearson Italia, Milano – Torino Le assunzioni dei minimi quadrati per la regressione multipla (Paragrafo 6.5) Y i = β 0 + β 1 X 1i + β 2 X 2i + … + β k X ki + u i, i = 1,…,n 1.La distribuzione di u condizionata alle X ha media nulla, cioè E(u i |X 1i = x 1,…, X ki = x k ) = 0. 2.(X 1i,…,X ki,Y i ), i =1,…,n, sono i.i.d. 3.Gli outlier sono improbabili: X 1,…, X k, e Y hanno momenti quarti: E( ) < ∞,…, E( ) < ∞, E( ) < ∞. 4.Non vi è collinearità perfetta. 6-31

32 Copyright © 2012 Pearson Italia, Milano – Torino Assunzione 1: la media condizionata di u date le X incluse è zero. E(u|X 1 = x 1,…, X k = x k ) = 0 Ha la stessa interpretazione del caso della regressione con un singolo regressore. La non validità di questa condizione porta a distorsione da variabili omesse; nello specifico, se una variabile omessa 1.appartiene all’equazione (cioè è in u) e 2.è correlata con una X inclusa allora questa condizione non vale e vi è distorsione da variabili omesse. La soluzione migliore, se possibile, è quella di includere la variabile omessa nella regressione. Una seconda soluzione, correlata alla precedente, è quella di includere una variabile che controlli per la variabile omessa (cfr. Capitolo 7) 6-32

33 Copyright © 2012 Pearson Italia, Milano – Torino Assunzione 2: (X 1i,…,X ki,Y i ), i =1,…,n, sono i.i.d. È soddisfatta automaticamente se i dati sono raccolti mediante campionamento casuale semplice. Assunzione 3: gli outlier sono rari (momenti quarti finiti) È la stessa assunzione descritta per il caso di un regressore singolo. Come in quel caso, l’OLS può essere sensibile agli outlier, perciò occorre controllare i dati (diagrammi a nuvola!) per assicurarsi che non vi siano valori “impazziti” (refusi o errori di codifica). 6-33

34 Copyright © 2012 Pearson Italia, Milano – Torino Assunzione 4: Non vi è collinearità perfetta La collinearità perfetta si ha quando uno dei regressori è funzione lineare esatta degli altri. Esempio: si supponga di includere due volte STR, per errore: regress testscr str str, robust Regression with robust standard errors Number of obs = 420 F( 1, 418) = Prob > F = R-squared = Root MSE = | Robust testscr | Coef. Std. Err. t P>|t| [95% Conf. Interval] str | str | (dropped) _cons |

35 Copyright © 2012 Pearson Italia, Milano – Torino La collinearità perfetta si ha quando uno dei regressori è funzione lineare esatta degli altri. Nella regressione precedente, β 1 è l’effetto su TestScore di una variazione unitaria in STR, tenendo STR costante (???) Torneremo alla collinearità perfetta (e imperfetta) tra breve, con altri esempi… Con le assunzioni dei minimi quadrati, ora possiamo derivare la distribuzione campionaria di,,…,. 6-35

36 Copyright © 2012 Pearson Italia, Milano – Torino La distribuzione degli stimatori OLS nella regressione multipla (Paragrafo 6.6) Sotto le quattro assunzioni dei minimi quadrati, La distribuzione campionaria di ha media β 1 var( ) è inversamente proporzionale a n. Al di là di media e varianza, la distribuzione esatta (n-finita) di è molto complessa; ma per n grande... – è consistente: β 1 (legge dei grandi numeri) – è approssimata da una distribuzione N(0,1) (TLC) –Queste proprietà valgono per,…, Concettualmente, non vi è nulla di nuovo! 6-36

37 Copyright © 2012 Pearson Italia, Milano – Torino Collinearità perfetta e imperfetta (Paragrafo 6.7) La collinearità perfetta si ha quando uno dei regressori è una funzione lineare esatta degli altri. Altri esempi di collinearità perfetta 1.Dal caso precedente: includete STR due volte, 2.Eseguite la regressione di TestScore su una costante, D, e B, dove: D i = 1 se STR ≤ 20, = 0 altrimenti; B i = 1 se STR >20, = 0 altrimenti, perciò B i = 1 – D i e vi è collinearità perfetta. 3.Ci sarebbe collinearità perfetta se l’intercetta (costante) fosse esclusa da questa regressione? Questo esempio è un caso speciale di… 6-37

38 Copyright © 2012 Pearson Italia, Milano – Torino La trappola delle variabili dummy Si supponga di avere un insieme di più variabili binarie (dummy) che sono mutuamente esclusive ed esaustive – cioè esistono più categorie e ogni osservazione ricade in una di esse e solo in una (Matricole, Studenti del secondo anno, Junior, Senior, Altri). Se includete tutte queste variabili dummy e una costante, avrete collinearità perfetta – si parla talvolta di trappola delle variabili dummy. Perché vi è collinearità perfetta in questo caso? Soluzioni alla trappola delle variabili dummy: 1.omettere uno dei gruppi (per esempio Senior), oppure 2.omettere l’intercetta Quali sono le implicazioni di (1) o (2) per l’interpretazione dei coefficienti? 6-38

39 Copyright © 2012 Pearson Italia, Milano – Torino Collinearità perfetta (continua) La collinearità perfetta solitamente riflette un errore nelle definizioni dei regressori, o una stranezza nei dati Se avete collinearità perfetta, il software statistico ve lo farà sapere – bloccandosi, o mostrando un messaggio di errore, o “scaricando” arbitrariamente una delle variabili La soluzione alla collinearità perfetta consiste nel modificare l’elenco di regressori. 6-39

40 Copyright © 2012 Pearson Italia, Milano – Torino Collinearità imperfetta La collinearità imperfetta è ben diversa dalla collinearità perfetta, nonostante la somiglianza dei nomi. La collinearità imperfetta si verifica quando due o più regressori sono altamente correlati. Perché si usa il termine “collinearità”? Se due regressori sono altamente correlati, allora il loro diagramma a nuvola apparirà molto simile a una retta – sono “co-lineari” – ma a meno che la correlazione sia esattamente ±1, tale collinearità è imperfetta. 6-40

41 Copyright © 2012 Pearson Italia, Milano – Torino Collinearità imperfetta (continua) La collinearità imperfetta implica che uno o più dei coefficienti di regressione sarà stimato in modo impreciso. L’idea: il coefficiente di X 1 è l’effetto di X 1 tenendo costante X 2 ; ma se X 1 e X 2 sono altamente correlati, vi è una ridottissima variazione in X 1 quando X 2 è mantenuta costante – perciò i dati non contengono molte informazioni su ciò che accade quando X 1 cambia e X 2 no. In questo caso, la varianza dello stimatore OLS del coefficiente di X 1 sarà grande. La collinearità imperfetta (correttamente) genera grandi errori standard per uno o più dei coefficienti OLS. La matematica? Cfr. il volume stampato, Appendice 6.2 Prossimo argomento: test di ipotesi e intervalli di confidenza… 6-41


Scaricare ppt "Capitolo 6 Regressione lineare con regressori multipli."

Presentazioni simili


Annunci Google