La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Metodi Quantitativi per Economia, Finanza e Management Lezione n° 9.

Presentazioni simili


Presentazione sul tema: "Metodi Quantitativi per Economia, Finanza e Management Lezione n° 9."— Transcript della presentazione:

1 Metodi Quantitativi per Economia, Finanza e Management Lezione n° 9

2 Si vuole trovare la retta lineare migliore data la nuvola di punti Y X Il modello di regressione lineare La stima del modello

3 Equazione teorica  coefficienti non noti Equazione stimata  coefficienti stimati (una delle infinite rette possibili) stime dei coefficienti errore di previsione previsione Il modello di regressione lineare La stima del modello

4 Stimando la retta di regressione si commette un errore di previsione: Metodo dei Minimi Quadrati Y X VALORE STIMATO VALORE OSS. ERRORE Il modello di regressione lineare La stima del modello

5 Obiettivo  trovare la miglior approssimazione lineare della relazione tra Y e X 1,…,X p (trovare le stime dei parametri beta che identificano la “migliore” retta di regressione) Metodo dei minimi quadrati  lo stimatore LS è la soluzione al problema Il modello di regressione lineare La stima del modello

6 Lo stimatore dei Minimi Quadrati: LS è funzione di Y e X ha media ha varianza Il modello di regressione lineare La stima del modello

7 Proprietà dello stimatore LS non distorto consistente (se valgono certe hp su X’X) coincide con lo stimatore di max verosimiglianza sotto hp forti  BLUE (Best Linear Unbiased Estimator) Il modello di regressione lineare La stima del modello

8 Scomposizione della varianza SST=SSE+SSM total sum of squares  variabilità di Y error sum of squares  variabilità dei residui model sum of squares  variabilità spiegata Il modello di regressione lineare La stima del modello

9 Indicatori sintetici di bontà del Modello R-quadro adjusted  OK valori alti R-quadro  OK valori alti Il modello di regressione lineare La stima del modello Test F  OK p-value con valori bassi

10 R-quadro= SSM/SST  misura la % di variabilità di Y spiegata dal modello = capacità esplicativa del modello  misura la variabilità delle osservazioni intorno alla retta di regressione.  SSM=0 (R-quadro=0) il modello non spiega  SSM=SST (R-quadro=1) OK R-quadro adjusted= [1-(1-SSM/SST)]/(n-1)(n-p-1)  come R-quadro ma indipendente dal numero di regressori  combina adattabilità e parsimonia Il modello di regressione lineare La stima del modello

11 Test F per valutare la significatività congiunta dei coefficienti ipotesi nulla statistica test valutazione  se p-value piccolo (rifiuto l’hp di coefficienti tutti nulli) il modello ha buona capacità esplicativa Il modello di regressione lineare La stima del modello

12 Indicatori di bontà del Modello Il modello di regressione lineare La stima del modello Y X Y X Y X R-SQUARE=0.7 F con p-value piccolo R-SQUARE=0.7 F con p-value piccolo R-SQUARE=0.7 F con p-value piccolo

13 Test t per valutare la significatività dei singoli coefficienti ipotesi nulla (j=1,…,p) valutazione  il coefficiente è significativo (significativamente diverso da 0) se il corrispondente p- value è piccolo (ossia, rifiuto l’ipotesi di coefficiente nullo)  il regressore a cui il coefficiente è associato è rilevante per la spiegazione del fenomeno statistica test Il modello di regressione lineare La stima del modello

14 Il modello di regressione lineare Statistiche di Influenza Root MSE55693R-Square0.6207 Dependent Mean32431Adj R-Sq0.6200 Coeff Var171.72861 Parameter Estimates VariableLabelDFParameter Estimate Standard Error t ValuePr > |t| Intercept 1-150162324.86370-6.46<.0001 PAG_ORDPagato in contrassegno11.194330.0548521.78<.0001 PAG_MESPagato con rate mensili12.523410.1010224.98<.0001 TOT_ORDTotale ordini114881683.8870321.76<.0001 LISTANumero di liste di appartenenza1603.365501110.847780.540.5871 SESSOSesso13453.147051994.834681.730.0835 CENResidenza Centro1-6431.884932597.25872-2.480.0133 SUDResidenza Sud1-183902077.96317-8.85<.0001

15 Il modello di regressione lineare 1.Introduzione ai modelli di regressione – Case Study 2.Obiettivi 3.Le ipotesi del modello 4.La stima del modello 5.La valutazione del modello 6.Commenti

16 OUTLIERS ? INFLUENTI ? Il modello di regressione lineare L’analisi di Influenza

17 Osservazione anomala rispetto alla variabilità di Y  non attira a sé il modello in maniera significativa OUTLIER Il modello di regressione lineare L’analisi di Influenza

18 Osservazione anomala rispetto alla variabilità di Y  attira a sé il modello in maniera significativa OUTLIER Il modello di regressione lineare L’analisi di Influenza

19 Valutazione dell’impatto delle singole osservazioni osservazioni outlier che creano distorsione nella stima del modello - plot dei residui - plot X/Y osservazioni influenti che contribuiscono in modo “sproporzionato” alla stima del modello - plot dei residui - statistiche di influenza Il modello di regressione lineare L’analisi di Influenza

20 Leverage H: i-esimo elemento della diagonale della matrice di proiezione. misura quanto un’osservazione è lontana dal centro dei dati (ma tende a segnalare troppe oss influenti e tratta tutti i regressori nello stesso modo)  oss influente se lev H>2*(p+1)/n Distanza di Cook: misura la variazione simultanea dei coefficienti quando un’osservazione viene rimossa  oss influente se D>1 Il modello di regressione lineare Statistiche di Influenza

21 Plot delle statistiche di influenza  attenzione alle osservazioni nel quadrante in alto a destra D lev H INFLUENTI - DINFLUENTI – SIA D CHE LEVERAGE H INFLUENTI - LEVERAGE H Il modello di regressione lineare Statistiche di Influenza

22 Il modello di regressione lineare Statistiche di Influenza Root MSE55693R-Square0.6207 Dependent Mean32431Adj R-Sq0.6200 Coeff Var171.72861 Parameter Estimates VariableLabelDFParameter Estimate Standard Error t ValuePr > |t| Intercept 1-150162324.86370-6.46<.0001 PAG_ORDPagato in contrassegno11.194330.0548521.78<.0001 PAG_MESPagato con rate mensili12.523410.1010224.98<.0001 TOT_ORDTotale ordini114881683.8870321.76<.0001 LISTANumero di liste di appartenenza1603.365501110.847780.540.5871 SESSOSesso13453.147051994.834681.730.0835 CENResidenza Centro1-6431.884932597.25872-2.480.0133 SUDResidenza Sud1-183902077.96317-8.85<.0001

23 Il modello di regressione lineare Statistiche di Influenza

24 Il modello di regressione lineare Statistiche di Influenza DATA REGRESS1 (DROP = COOK H REDD_PRE RES_STUD); SET RESID_0; WHERE COOK < 0.019 & H < 0.015; PROC REG DATA=REGRESS1; MODEL REDD=PAG_ORD PAG_MES TOT_ORD LISTA SESSO CEN SUD ; PAINT RSTUDENT.> 2 / SYMBOL='O'; PAINT RSTUDENT.<-2 / SYMBOL='O'; PLOT RSTUDENT.*P.; PLOT P.*REDD; PLOT COOKD.*H.; RUN;

25 Il modello di regressione lineare Statistiche di Influenza

26 Il modello di regressione lineare Statistiche di Influenza Root MSE52693R-Square0.6204 Dependent Mean30935Adj R-Sq0.6197 Coeff Var170.33339 Parameter Estimates VariableLabelDFParameter Estimate Standard Error t ValuePr > |t| Intercept 1-146242205.46539-6.63<.0001 PAG_ORDPagato in contrassegno11.154190.0548221.05<.0001 PAG_MESPagato con rate mensili12.568760.0956726.85<.0001 TOT_ORDTotale ordini114434674.2608021.41<.0001 LISTANumero di liste di appartenenza1872.661801052.556420.830.4071 SESSOSesso13192.818461889.029311.690.0911 CENResidenza Centro1-6320.888552462.17857-2.570.0103 SUDResidenza Sud1-179231971.41534-9.09<.0001

27 Poche variabili capacità previsiva  fit  parsimonia  interpretabilità  Criteri di selezione valutazioni soggettive confronto tra tutti i possibili modelli algoritmi di selezione automatica Tante variabili capacità previsiva  fit  parsimonia  interpretabilità  Il modello di regressione lineare La selezione dei regressori

28 Procedura di calcolo automatico che seleziona il sottoinsieme di variabili ottimo tra quelli possibili forward selection  inserisce nell’equazione una variabile per volta, basandosi sul contributo del regressore inserito alla spiegazione della variabilità di Y backward selection  rimuove dall’equazione una variabile per volta, basandosi sulla perdita di capacità esplicativa della variabilità di Y conseguente all’eliminazione del regressore forward+backward selection  ogni variabile può entrare/uscire dal modello Il modello di regressione lineare La selezione dei regressori

29 X 1,…,X p non sono vettori linearmente indipendenti forte correlazione tra i regressori (o alcuni di essi)  La varianza dello stimatore dei minimi quadrati tende ad esplodere  Problema di stabilità delle stime Il modello di regressione lineare La Multicollinearità

30 Y X1 X2 Il modello di regressione lineare La Multicollinearità

31 Y X1 X2 Il modello di regressione lineare La Multicollinearità

32 Per verificare la presenza di multicollinearità regressione lineare di X j sui rimanenti p-1 regressori - R j ² misura la quota di varianza di X j spiegata dai rimanenti p-1 regressori  valori alti=multicollin. - VIF j = 1 / (1 – R j ²) misura il grado di relazione lineare tra X j e i rimanenti p-1 regressori  valori alti= multicollin. Il modello di regressione lineare La Multicollinearità

33 Soluzioni rimozione delle variabili correlate selezione di una variabile rappresentativa dal gruppo di variabili legate da relazione lineare analisi delle componenti principali  trasformazione dei regressori in componenti non correlate (nella nuova regressione andranno incluse tutte le componenti principali) Il modello di regressione lineare La Multicollinearità

34 Il modello di regressione lineare La Multicollinearità Parameter Estimates VariableLabelDFDF Parameter Estimate Standard Error t ValuePr > |t|Standardized Estimate Variance Inflation Intercept 1-146242205.46539-6.63<.000100 PAG_ORDPagato in contrassegno11.154190.0548221.05<.00010.368972.96182 PAG_MESPagato con rate mensili12.568760.0956726.85<.00010.275831.01781 TOT_ORDTotale ordini114434674.2608021.41<.00010.374062.94467 LISTANumero di liste di appartenenza1872.661801052.556420.830.40710.008451.00196 SESSOSesso13192.818461889.029311.690.09110.017261.00599 CENResidenza Centro1-6320.888552462.17857-2.570.0103-0.027921.14079 SUDResidenza Sud1-179231971.41534-9.09<.0001-0.101081.19214

35 Il modello di regressione lineare La Multicollinearità Root MSE52693R-Square0.6204 Dependent Mean30935Adj R-Sq0.6197 Coeff Var170.33339 Parameter Estimates VariableLabelDFParameter Estimate Standard Error t ValuePr > |t|Variance Inflation Intercept 130935869.9175135.56<.00010 Factor1 161162870.0360970.30<.00011.00000 Factor2 1-295.62943870.03609-0.340.73401.00000 Factor3 124154870.0360927.76<.00011.00000 Factor4 13446.48124870.036093.96<.00011.00000 Factor5 1861.78906870.036090.990.32201.00000 Factor6 1-13861870.03609-15.93<.00011.00000 Factor7 173.57034870.036090.080.93261.00000

36 Il modello di regressione lineare La Multicollinearità Root MSE52679R-Square0.6203 Dependent Mean30935Adj R-Sq0.6199 Coeff Var170.28930 Parameter Estimates VariableLabelDFDF Parameter Estimate Standard Error t ValuePr > |t | Standardized Estimate Variance Inflation Intercept 130935869.6923835.57<.000100 Factor1 161162869.8109270.32<.00010.715831.00000 Factor3 124154869.8109227.77<.00010.282691.00000 Factor4 13446.48124869.810923.96<.00010.040341.00000 Factor6 1-13861869.81092-15.94<.0001-0.162231.00000

37 Si vuole verificare bontà delle stime adattamento del modello ai dati impatto delle singole osservazioni impatto dei regressori Strumenti test statistici indicatori di performance analisi dei residui analisi degli outliers analisi di influenza valutazione dei coefficienti e correlazioni parziali Il modello di regressione lineare La Valutazione del modello


Scaricare ppt "Metodi Quantitativi per Economia, Finanza e Management Lezione n° 9."

Presentazioni simili


Annunci Google