La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Regressione lineare - Esercizi

Presentazioni simili


Presentazione sul tema: "Regressione lineare - Esercizi"— Transcript della presentazione:

1 Regressione lineare - Esercizi
Metodi Quantitativi per Economia, Finanza e Management Esercitazione n°12

2 Consegna lavoro di gruppo e Date appelli
Le date per la consegna del lavoro di gruppo sono inderogabilmente fissate: lunedì 11 gennaio 2010 entro le ore 12 lunedì 25 gennaio 2010 entro le ore 12 Le date d’esame relative alla sessione invernale sono: lunedì 18 gennaio 2010 lunedì 1 febbraio 2010 lunedì 15 febbraio 2010

3 Multicollinearità Quando un regressore è combinazione lineare di altri regressori nel modello, le stime sono instabili e hanno standard error elevato. Questo problema è chiamato multicollinearità. La PROC REG fornisce nell’output un indicatore per ogni regressore per investigare questo problema: Variance Inflation Factors (opzione VIF nel model statment).

4 Multicollinearità Per verificare la presenza di multicollinearità
VIF 0.1 1.11 0.2 1.25 0.3 1.43 0.4 1.67 0.5 2.00 0.6 2.50 0.7 3.33 0.8 5.00 0.9 10.00 0.95 20.00 0.98 50.00 0.99 100.00 Per verificare la presenza di multicollinearità regressione lineare di Xj sui rimanenti p-1 regressori - Rj² misura la quota di varianza di Xj spiegata dai rimanenti p-1 regressori  valori alti=multicollin. - VIFj = 1 / (1 – Rj²) misura il grado di relazione lineare tra Xj e i rimanenti p-1 regressori  valori alti= multicollin.

5 PROC REG – Sintassi proc reg data=dataset; model variabile_dipendente=
Modello di regressione lineare proc reg data=dataset; model variabile_dipendente= regressore_1 ... regressore_p /option(s); run; OPTIONS: STB calcola i coefficienti standardizzati selection=stepwise applica la procedura stepwise per la selezione dei regressori slentry=… livello di significatività richiesto per il test F parziale affinchè il singolo regressore possa entrare nel modello slstay=… livello di significatività richiesto per il test F parziale affinchè il singolo regressore non sia rimosso dal modello VIF per verificare presenza di multicollinearietà

6 Esempio L’analisi fattoriale ci permette di risolvere il problema della multicollinearietà, come? 1° Modello di regressione lineare variabile dipendente= SODDISFAZIONE_GLOBALE, regressori= 21 variabili di soddisfazione (livello di soddisfazione relativo a tariffe, promozioni, ecc.) 2° Modello di regressione lineare 6 fattori creati con un’analisi fattoriale sulle 21 variabili di soddisfazione (livello di soddisfazione relativo a tariffe, promozioni, ecc.)

7 ChiamateTuoOperatore_2
Esempio 1° Modello di regressione lineare Parameter Estimates Variable DF Parameter Standard t Value Pr > |t| Standardized Variance Estimate Error Inflation Intercept 1 2.62 0.0093 CambioTariffa_2 0.0331 3.64 0.0003 MMSTuoOperatore_2 -0.09 0.9303 copertura_2 1.44 0.1503 NoScattoRisp_2 -0.9 0.3689 Autoricarica_2 -0.35 0.7295 CostoMMS_2 0.3 0.768 NumeriFissi_2 0.0584 1.62 0.1062 DurataMinContratto_2 0.96 0.3358 vsPochiNumeri_2 -0.31 0.7555 diffusione_2 1.01 0.3147 0.0565 ComodatoUso_2 2.26 0.0249 ChiarezzaTariffe_2 1.79 0.0744 AccessoWeb_2 0.42 0.6762 AltriOperatori_2 1.9 0.0586 0.1006 SMSTuoOperatore_2 0.47 0.6354 assistenza_2 0.0504 1.23 0.2183 immagine_2 0.28 0.7803 1.9376 ChiamateTuoOperatore_2 3.47 0.0006 Promozioni_2 0.0426 3.36 0.0009 CostoSMS_2 0.66 0.5117 NavigazioneWeb_2 -0.71 0.4809 Alcuni dei VIFj presentano valori alti Multicollinearità

8 Esempio 2° Modello di regressione lineare
Parameter Estimates Variable DF Parameter Standard t Value Pr > |t| Standardized Variance Estimate Error Inflation Intercept 1 112.38 <.0001 Factor1 8.75 1.00 Factor2 0.437 7.51 Factor3 1.1 0.272 Factor4 11.94 Factor5 4.2 Factor6 5.57 L’analisi fattoriale ci permette di trasformare i regressori in componenti non correlate e risolvere il problema della multicollinearità. Tutti i Variance Inflation Factors sono uguali a 1, cioè l’Rj² della regressione lineare di Xj sui rimanenti p-1 regressori è pari a zero.

9 Osservazioni influenti
Se un valore yj è particolarmente inusuale rispetto a tutti gli altri allora la stima del modello di regressione può essere notevolmente influenzata da tale osservazione. Per valutare la presenza di osservazioni influenti si elimina una osservazione per volta e si stima nuovamente il modello. Osservazioni la cui esclusione produce variazioni rilevanti nelle stime dei coefficienti sono dette influenti

10 Statistiche di influenza
Una misura di influenza è rappresentata dalla Distanza di Cook che misura la distanza tra la stima dei coefficienti senza l’i-esima osservazione e con l’i-esima osservazione. →Le unità per cui Di > 1 sono potenzialmente osservazioni influenti

11 Statistiche di influenza
Un’altra misura di influenza è rappresentata dal Leverage H che misura quanto un’osservazione è lontana dal centro dei dati. →Leverage alto per i-esima oss implica che la correlazione tra Yi e il suo valore previsto è quasi 1Yi ha forte influenza sulla stima del suo valore previsto. Se il valore è piccolo vuol dire che ci sono tante oss che contribuiscono alla stima del valore previsto. Un’oss con alto leverage fa spostare di tanto la retta stimata. →Le unità per cui Hi>2*(p+1)/n sono potenzialmente osservazioni influenti [dove p è il numero di regressori e n il numero di osservazioni] N.B. Tende a segnalare troppe oss influenti e tratta tutti i regressori nello stesso modo!

12 Statistiche di influenza
Plot delle statistiche di influenza  attenzione alle osservazioni nel quadrante in alto a destra D INFLUENTI - D INFLUENTI – SIA D CHE LEVERAGE H INFLUENTI - LEVERAGE H lev H

13 Statistiche di influenza
Sintassi La PROC REG fornisce nell’output i valori della distanza di Cook e del levarage H per ogni osservazione del dataset: proc reg data=dataset; model variabile_dipendente= regressore_1 ... regressore_p / influence r; output out=dataset_output cookd=cook H=leverage; run; OPTIONS: Influence e r forniscono una serie di indicatori di influenza tra cui D e H Cookd= crea nel dataset di output una variabile con i valori della Distanza di Cook per ogni osservazione H= crea nel dataset di output una variabile con i valori del Leverage per ogni osservazione

14 Esempio Il data set AZIENDE contiene informazioni relative ai comportamenti di 500 clienti del segmento Aziende di una banca. L’obiettivo è stimare il margine totale del cliente

15 Esempio Modello di regressione lineare usando come variabile dipendente il margine totale del cliente e come regressori le 66 variabili contenute nel data set Procedura di selezione automatica delle variabili (stepwise) Valutazione della bontà del modello Analisi di influenza Eliminazione delle osservazioni influenti Ristima del modello con procedura di selezione automatica delle variabili

16 Esempio Output regressione stepwise : proc reg data=corso.aziende;
model tot_margine= lista 66 regressori /stb selection= stepwise slentry=0.01 slstay=0.01; run;

17 Esempio Output analisi influenza :
Distanza di Cook>1 e Leverage >0.052 =2*(12+1)/500 → oss influente proc reg data=corso.aziende; model tot_margine= lista 12 regressori /stb influence ; output out=aziende_out cookd=cook H=leverage; run;

18 Esempio Come si individuano e eliminano le osservazioni influenti (quelle con Distanza di Cook>1 e Leverage >0.052)? Si esporta il data set aziende_out in excel, si verifica la presenza di osservazioni influenti (vedi aziende_out.xls), se ce ne sono si fa una copia del file chiamandolo aziende_new.xls dove si eliminano le osservazioni influenti si importa il nuovo data set in SAS.

19 Esempio In alternativa in SAS:
/*Creazione dei flag per individuare le osservazioni con valori di distanza di cook o valori di leverage sopra soglia: */ data aziende_out; set aziende_out; if cook>1 then flag_cook=1; else flag_cook=0; if leverage>2*(12+1)/500 then flag_leverage=1; else flag_leverage=0; run; /*Quante sono le osservazioni influenti? con distanza di cook>1 e leverage >0.052: */ proc freq data=aziende_out; tables flag_cook*flag_leverage; /*Esclusione delle osservazioni influenti*/ data corso.aziende_new; if flag_cook=1 and flag_leverage=1 then delete;

20 Esportazione Esportazione guidata di un file SAS in un file excel

21 Esempio Output ristima coefficienti di regressione al netto della osservazione influente : proc reg data=aziende_new; model tot_margine= lista 66 regressori /stb selection= stepwise slentry=0.01 slstay=0.01; run; N.B.: aziende_new è lo stesso dataset iniziale SENZA l’osservazione influente

22 E la multicollinearità?
La valutazione della bontà del modello ha dato un esito più che positivo Sono state eliminate le osservazioni influenti che producevano variazioni rilevanti nelle stime dei minimi quadrati. ATTENZIONE!! E’ necessario controllare anche la presenza di multicollinearità che porta a stime instabili con standard error elevato.

23 E la multicollinearità?
proc reg data=aziende_new; model tot_margine= lista 9 regressori /stb vif ; run;


Scaricare ppt "Regressione lineare - Esercizi"

Presentazioni simili


Annunci Google