La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Regressione lineare - Esercizi Metodi Quantitativi per Economia, Finanza e Management Esercitazione n°12.

Presentazioni simili


Presentazione sul tema: "Regressione lineare - Esercizi Metodi Quantitativi per Economia, Finanza e Management Esercitazione n°12."— Transcript della presentazione:

1 Regressione lineare - Esercizi Metodi Quantitativi per Economia, Finanza e Management Esercitazione n°12

2 Le date per la consegna del lavoro di gruppo sono inderogabilmente fissate: –lunedì 11 gennaio 2010 entro le ore 12 –lunedì 25 gennaio 2010 entro le ore 12 Le date desame relative alla sessione invernale sono: –lunedì 18 gennaio 2010 –lunedì 1 febbraio 2010 –lunedì 15 febbraio 2010 Consegna lavoro di gruppo e Date appelli

3 Multicollinearità Quando un regressore è combinazione lineare di altri regressori nel modello, le stime sono instabili e hanno standard error elevato. Questo problema è chiamato multicollinearità. La PROC REG fornisce nelloutput un indicatore per ogni regressore per investigare questo problema: Variance Inflation Factors (opzione VIF nel model statment).

4 Per verificare la presenza di multicollinearità regressione lineare di Xj sui rimanenti p-1 regressori - Rj² misura la quota di varianza di Xj spiegata dai rimanenti p-1 regressori valori alti=multicollin. - VIFj = 1 / (1 – Rj²) misura il grado di relazione lineare tra Xj e i rimanenti p-1 regressori valori alti= multicollin. Multicollinearità R2VIF

5 proc reg data=dataset; model variabile_dipendente= regressore_1... regressore_p /option(s); run; Modello di regressione lineare PROC REG – Sintassi OPTIONS: STB calcola i coefficienti standardizzati selection=stepwise applica la procedura stepwise per la selezione dei regressori slentry=… livello di significatività richiesto per il test F parziale affinchè il singolo regressore possa entrare nel modello slstay=… livello di significatività richiesto per il test F parziale affinchè il singolo regressore non sia rimosso dal modello VIF per verificare presenza di multicollinearietàVIF per verificare presenza di multicollinearietà

6 Esempio Lanalisi fattoriale ci permette di risolvere il problema della multicollinearietà, come? 1° Modello di regressione lineare variabile dipendente= SODDISFAZIONE_GLOBALE, regressori= 21 variabili di soddisfazione (livello di soddisfazione relativo a tariffe, promozioni, ecc.) 2° Modello di regressione lineare variabile dipendente= SODDISFAZIONE_GLOBALE, 6 fattori creati con unanalisi fattoriale sulle 21 variabili di soddisfazione (livello di soddisfazione relativo a tariffe, promozioni, ecc.)

7 Esempio Parameter Estimates VariableDFParamete r Standardt ValuePr > |t|Standardize d Variance EstimateErrorEstimateInflation Intercept CambioTariffa_ MMSTuoOperatore_ copertura_ NoScattoRisp_ Autoricarica_ CostoMMS_ NumeriFissi_ DurataMinContratto_ vsPochiNumeri_ diffusione_ ComodatoUso_ ChiarezzaTariffe_ AccessoWeb_ AltriOperatori_ SMSTuoOperatore_ assistenza_ immagine_ ChiamateTuoOperatore_ Promozioni_ CostoSMS_ NavigazioneWeb_ ° Modello di regressione lineare Alcuni dei VIFj presentano valori alti Multicollinearità

8 Esempio Parameter Estimates VariableDFParameterStandardt ValuePr > |t|Standardized Variance EstimateErrorEstimate Inflation Intercept < Factor < Factor < Factor Factor < Factor < Factor < Lanalisi fattoriale ci permette di trasformare i regressori in componenti non correlate e risolvere il problema della multicollinearità. Tutti i Variance Inflation Factors sono uguali a 1, cioè lRj² della regressione lineare di Xj sui rimanenti p-1 regressori è pari a zero. 2° Modello di regressione lineare

9 Osservazioni influenti Se un valore y j è particolarmente inusuale rispetto a tutti gli altri allora la stima del modello di regressione può essere notevolmente influenzata da tale osservazione. Per valutare la presenza di osservazioni influenti si elimina una osservazione per volta e si stima nuovamente il modello. Osservazioni la cui esclusione produce variazioni rilevanti nelle stime dei coefficienti sono dette influenti

10 Una misura di influenza è rappresentata dalla Distanza di Cook che misura la distanza tra la stima dei coefficienti senza li-esima osservazione e con li-esima osservazione. Le unità per cui D i > 1 sono potenzialmente osservazioni influenti Statistiche di influenza

11 Unaltra misura di influenza è rappresentata dal Leverage H che misura quanto unosservazione è lontana dal centro dei dati. Leverage alto per i-esima oss implica che la correlazione tra Yi e il suo valore previsto è quasi 1 Yi ha forte influenza sulla stima del suo valore previsto. Se il valore è piccolo vuol dire che ci sono tante oss che contribuiscono alla stima del valore previsto. Unoss con alto leverage fa spostare di tanto la retta stimata. Le unità per cui H i >2*(p+1)/n sono potenzialmente osservazioni influenti [dove p è il numero di regressori e n il numero di osservazioni] N.B. Tende a segnalare troppe oss influenti e tratta tutti i regressori nello stesso modo!

12 Plot delle statistiche di influenza attenzione alle osservazioni nel quadrante in alto a destra D lev H INFLUENTI - DINFLUENTI – SIA D CHE LEVERAGE H INFLUENTI - LEVERAGE H Statistiche di influenza

13 Sintassi La PROC REG fornisce nelloutput i valori della distanza di Cook e del levarage H per ogni osservazione del dataset: proc reg data=dataset; model variabile_dipendente= regressore_1... regressore_p / influence r; output out=dataset_output cookd=cook H=leverage; run; OPTIONS: Influence e r forniscono una serie di indicatori di influenza tra cui D e H Cookd= crea nel dataset di output una variabile con i valori della Distanza di Cook per ogni osservazione H= crea nel dataset di output una variabile con i valori del Leverage per ogni osservazione

14 Esempio Il data set AZIENDE contiene informazioni relative ai comportamenti di 500 clienti del segmento Aziende di una banca. Lobiettivo è stimare il margine totale del cliente

15 Esempio 1.Modello di regressione lineare usando come variabile dipendente il margine totale del cliente e come regressori le 66 variabili contenute nel data set 2.Procedura di selezione automatica delle variabili (stepwise) 3.Valutazione della bontà del modello 4.Analisi di influenza 5.Eliminazione delle osservazioni influenti 6.Ristima del modello con procedura di selezione automatica delle variabili 7.Valutazione della bontà del modello

16 Esempio Output regressione stepwise : proc reg data=corso.aziende; model tot_margine= lista 66 regressori /stb selection= stepwise slentry=0.01 slstay=0.01; run;

17 Esempio Distanza di Cook>1 e Leverage >0.052 =2*(12+1)/500 oss influente Output analisi influenza : proc reg data=corso.aziende; model tot_margine= lista 12 regressori /stb influence ; output out=aziende_out cookd=cook H=leverage; run;

18 Esempio Come si individuano e eliminano le osservazioni influenti (quelle con Distanza di Cook>1 e Leverage >0.052)? 1.Si esporta il data set aziende_out in excel, 2.si verifica la presenza di osservazioni influenti (vedi aziende_out.xls), 3.se ce ne sono si fa una copia del file chiamandolo aziende_new.xls dove si eliminano le osservazioni influenti 4.si importa il nuovo data set in SAS.

19 Esempio In alternativa in SAS: /*Creazione dei flag per individuare le osservazioni con valori di distanza di cook o valori di leverage sopra soglia: */ data aziende_out; set aziende_out; if cook>1 then flag_cook=1; else flag_cook=0; if leverage>2*(12+1)/500 then flag_leverage=1; else flag_leverage=0; run; /*Quante sono le osservazioni influenti? con distanza di cook>1 e leverage >0.052: */ proc freq data=aziende_out; tables flag_cook*flag_leverage; run; /*Esclusione delle osservazioni influenti*/ data corso.aziende_new; set aziende_out; if flag_cook=1 and flag_leverage=1 then delete; run;

20 Esportazione Esportazione guidata di un file SAS in un file excel

21 Output ristima coefficienti di regressione al netto della osservazione influente : Esempio proc reg data=aziende_new; model tot_margine= lista 66 regressori /stb selection= stepwise slentry=0.01 slstay=0.01; run; N.B.: aziende_new è lo stesso dataset iniziale SENZA losservazione influente

22 E la multicollinearità? La valutazione della bontà del modello ha dato un esito più che positivo Sono state eliminate le osservazioni influenti che producevano variazioni rilevanti nelle stime dei minimi quadrati. ATTENZIONE!! E necessario controllare anche la presenza di multicollinearità che porta a stime instabili con standard error elevato.

23 E la multicollinearità? proc reg data=aziende_new; model tot_margine= lista 9 regressori /stb vif ; run;


Scaricare ppt "Regressione lineare - Esercizi Metodi Quantitativi per Economia, Finanza e Management Esercitazione n°12."

Presentazioni simili


Annunci Google