Metodi Quantitativi per Economia, Finanza e Management Lezione n° 11

Slides:



Advertisements
Presentazioni simili
Statistica Economica I
Advertisements

ITIS “G.Galilei” – Crema Lab. Calcolo e Statistica
Come organizzare i dati per un'analisi statistica al computer?
Tecniche di analisi dei dati e impostazione dellattività sperimentale Relazioni tra variabili: Correlazione e Regressione.
“Teoria e metodi della ricerca sociale e organizzativa”
TESTI UTILI PER PAPER/TESI 1
Analisi dei dati per i disegni ad un fattore
La regressione lineare trivariata
Regressione lineare Esercitazione 24/01/04.
Dipartimento di Economia
Regressione lineare Metodi Quantitativi per Economia, Finanza e Management Esercitazione n°10.
Metodi Quantitativi per Economia, Finanza e Management Lezione n°6
Metodi Quantitativi per Economia, Finanza e Management Lezione n° 10.
Regressione logistica
Metodi Quantitativi per Economia, Finanza e Management Lezione n°6.
Metodi Quantitativi per Economia, Finanza e Management Lezione n°8
Metodi Quantitativi per Economia, Finanza e Management Lezione n°9.
Metodi Quantitativi per Economia, Finanza e Management Lezione n° 11.
redditività var. continua classi di redditività ( < 0 ; >= 0)
Regressione lineare Metodi Quantitativi per Economia, Finanza e Management Esercitazione n°7.
Metodi Quantitativi per Economia, Finanza e Management Lezione n°7.
Metodi Quantitativi per Economia, Finanza e Management Lezione n°8.
Regressione lineare Metodi Quantitativi per Economia, Finanza e Management Esercitazione n°8.
Metodi Quantitativi per Economia, Finanza e Management Lezione n°10.
Ipotesi e proprietà dello stimatore Ordinary Least Squares (OLS)
STATISTICA 6.0: REGRESSIONE LINEARE
IL MODELLO DI REGRESSIONE MULTIPLA
INFERENZA NEL MODELLO DI REGRESSIONE LINEARE MULTIPLA: test sui parametri e scelta del modello (parte 3) Per effettuare test di qualsiasi natura è necessaria.
INFERENZA NEL MODELLO DI REGRESSIONE LINEARE MULTIPLA (parte 1)
MODELLO DI REGRESSIONE LINEARE MULTIPLA
Identificabilità a priori: esperimento “ideale”
Metodi Quantitativi per Economia, Finanza e Management Lezione n° 9.
Corso di biomatematica lezione 7-2: Test di significatività
STATISTICA a.a METODO DEI MINIMI QUADRATI REGRESSIONE
STATISTICA PER LE DECISIONI DI MARKETING
Regressione lineare Metodi Quantitativi per Economia, Finanza e Management Esercitazione n°6.
Interpolazione e regressione
La teoria dei campioni può essere usata per ottenere informazioni riguardanti campioni estratti casualmente da una popolazione. Da un punto di vista applicativo.
Esercizio Regressione DATI Per un campione casuale di 82 clienti di un'insegna della GDO, sono disponibili le seguenti variabili, riferite ad un mese di.
Metodi Quantitativi per Economia, Finanza e Management Lezione n°11 Regressione lineare multipla: Analisi di influenza. Case Study.
Metodi Quantitativi per Economia, Finanza e Management Lezione n°9 Regressione lineare multipla: la stima del modello e la sua valutazione, metodi automatici.
Regressione lineare Metodi Quantitativi per Economia, Finanza e Management Esercitazione n°10.
Metodi Quantitativi per Economia, Finanza e Management Lezione n°13 Regressione Logistica: La stima e l’interpretazione del del modello.
La verifica d’ipotesi Docente Dott. Nappo Daniela
Domande riepilogative per l’esame
Lezione B.10 Regressione e inferenza: il modello lineare
Strumenti statistici in Excell
Il residuo nella predizione
IL CAMPIONE.
Metodi Quantitativi per Economia, Finanza e Management Lezione n°10 Regressione lineare multipla: la valutazione del modello, metodi automatici di selezione.
Metodi Quantitativi per Economia, Finanza e Management Lezione n°9.
Regressione lineare Metodi Quantitativi per Economia, Finanza e Management Esercitazione n°7.
Metodi Quantitativi per Economia, Finanza e Management Lezione n°7.
Regressione lineare - Esercizi
Regressione logistica Metodi Quantitativi per Economia, Finanza e Management Esercitazione n°10.
Regressione lineare - Esercizi Metodi Quantitativi per Economia, Finanza e Management Esercitazione n°9.
Regressione lineare Metodi Quantitativi per Economia, Finanza e Management Esercitazione n°8.
Esercizio Regressione DATI Per un campione casuale di 82 clienti di un'insegna della GDO, sono disponibili le seguenti variabili, riferite ad un mese di.
Metodi Quantitativi per Economia, Finanza e Management Lezione n° 9.
Metodi Quantitativi per Economia, Finanza e Management Lezione n°13.
TRATTAMENTO STATISTICO DEI DATI ANALITICI
DATA MINING PER IL MARKETING (63 ore) Marco Riani Sito web del corso
Regressione semplice e multipla in forma matriciale Metodo dei minimi quadrati Stima di beta Regressione semplice Regressione multipla con 2 predittori.
INFERENZA NEL MODELLO DI REGRESSIONE LINEARE SEMPLICE
Regressione: approccio matriciale Esempio: Su 25 unità sono stati rilevati i seguenti caratteri Y: libbre di vapore utilizzate in un mese X 1: temperatura.
Statistica per l’economia e l’impresa Capitolo 4 MODELLO DI REGRESSIONE LINEARE SEMPLICE.
MODELLO DI REGRESSIONE LINEARE MULTIPLA
Metodi Quantitativi per Economia, Finanza e Management Lezione n°9 Regressione lineare multipla: le ipotesi del modello, la stima del modello.
Metodi Quantitativi per Economia, Finanza e Management Lezione n°9 Regressione lineare multipla: le ipotesi del modello, la stima del modello.
Metodi Quantitativi per Economia, Finanza e Management Lezione n° 9
Transcript della presentazione:

Metodi Quantitativi per Economia, Finanza e Management Lezione n° 11

Il modello di regressione lineare Le ipotesi del modello Equazione di regressione lineare multipla i-esima oss. su Y i-esima oss. su X1 errore relativo all’i-esima oss. intercetta coefficiente di X1 La matrice X=[1,X1,…,Xp] è detta matrice del disegno.

Il modello di regressione lineare Le ipotesi del modello Errori a media nulla Errori con varianza costante (omoschedasticità) Errori non correlati (per ogni i≠j) Errori con distribuzione Normale * 1 – 3  hp deboli 1 – 4  hp forti

Il modello di regressione lineare La stima del modello Stimando la retta di regressione si commette un errore di previsione: Metodo dei Minimi Quadrati VALORE OSS. Y X ERRORE VALORE STIMATO

Il modello di regressione lineare La stima del modello Equazione teorica  coefficienti non noti Equazione stimata  coefficienti stimati (una delle infinite rette possibili) stime dei coefficienti errore di previsione previsione

Il modello di regressione lineare La stima del modello Proprietà dello stimatore LS non distorto consistente (se valgono certe hp su X’X) coincide con lo stimatore di max verosimiglianza sotto hp forti  BLUE (Best Linear Unbiased Estimator) Consistenza vale sotto particolari ho sugli elementi di X’X  si ha consistenza sse gli elementi diagonali della matrice inversa di X’X vanno a 0 per n che va a infinito

Il modello di regressione lineare La stima del modello Indicatori sintetici di bontà del Modello R-quadro  OK valori alti R-quadro adjusted  OK valori alti Test F  OK p-value con valori bassi

Il modello di regressione lineare La stima del modello Test t per valutare la significatività dei singoli coefficienti ipotesi nulla (j=1,…,p) statistica test valutazione  il coefficiente è significativo (significativamente diverso da 0) se il corrispondente p-value è piccolo (ossia, rifiuto l’ipotesi di coefficiente nullo)  il regressore a cui il coefficiente è associato è rilevante per la spiegazione del fenomeno

Il modello di regressione lineare La stima del modello Root MSE 55693 R-Square 0.6207 Dependent Mean 32431 Adj R-Sq 0.6200 Coeff Var 171.72861   Parameter Estimates Variable Label DF Parameter Estimate Standard Error t Value Pr > |t| Intercept 1 -15016 2324.86370 -6.46 <.0001 PAG_ORD Pagato in contrassegno 1.19433 0.05485 21.78 PAG_MES Pagato con rate mensili 2.52341 0.10102 24.98 TOT_ORD Totale ordini 14881 683.88703 21.76 LISTA Numero di liste di appartenenza 603.36550 1110.84778 0.54 0.5871 SESSO Sesso 3453.14705 1994.83468 1.73 0.0835 CEN Residenza Centro -6431.88493 2597.25872 -2.48 0.0133 SUD Residenza Sud -18390 2077.96317 -8.85

Il modello di regressione lineare La stima del modello Interpretazione dei coefficienti impatto di Xj su Y posto che nel modello sono presenti altre variabili tasso di variazione di Y al variare di Xj come varia Y al variare di una unità di Xj se gli altri regressori non variano

Il modello di regressione lineare La stima del modello Segno del coefficiente indica la direzione dell’impatto del regressore a cui è associato segno atteso diverso da quello osservato può indicare interazione tra i regressori (multicollinearità) Ordine di grandezza dipende dall’unità di misura per valutarlo usare coefficienti standardizzati

Il modello di regressione lineare Introduzione ai modelli di regressione – Case Study Obiettivi Le ipotesi del modello La stima del modello La valutazione del modello Commenti

Il modello di regressione lineare L’analisi di Influenza INFLUENTI ? OUTLIERS ? Se hii va a 0 residui standardizzati e studentizzati coincidono. Se hii va a infinito i residui studentizzati sono molto più piccoli di quelli standardizzati. Valori alti di entrambi i residuioutlier Valori alti dei residui studentizzati e bassi dei residui standardizzatioss influente

Il modello di regressione lineare L’analisi di Influenza Osservazione anomala rispetto alla variabilità di Y  non attira a sé il modello in maniera significativa OUTLIER

Il modello di regressione lineare L’analisi di Influenza Osservazione anomala rispetto alla variabilità di Y attira a sé il modello in maniera significativa OUTLIER

Il modello di regressione lineare L’analisi di Influenza Valutazione dell’impatto delle singole osservazioni osservazioni outlier che creano distorsione nella stima del modello - plot dei residui - plot X/Y osservazioni influenti che contribuiscono in modo “sproporzionato” alla stima del modello - statistiche di influenza

Il modello di regressione lineare Statistiche di Influenza Leverage H: i-esimo elemento della diagonale della matrice di proiezione. misura quanto un’osservazione è lontana dal centro dei dati (ma tende a segnalare troppe oss influenti e tratta tutti i regressori nello stesso modo)  oss influente se lev H>2*(p+1)/n Distanza di Cook: misura la variazione simultanea dei coefficienti quando un’osservazione viene rimossa  oss influente se D>1 Leverage alto per i-esima oss la correlazione tra Yi e il suo valore previsto è quasi 1Yi ha forte influenza sulla stima del valore previsto. Se il valore è piccolo vuol dire che ci sono tante oss che contribuiscono alla stima del valore previsto. Un’oss con alto leverage fa spostare di tanto la retta stimata.

Il modello di regressione lineare Statistiche di Influenza Plot delle statistiche di influenza  attenzione alle osservazioni nel quadrante in alto a destra D INFLUENTI - D INFLUENTI – SIA D CHE LEVERAGE H INFLUENTI - LEVERAGE H lev H

Il modello di regressione lineare Statistiche di Influenza Root MSE 55693 R-Square 0.6207 Dependent Mean 32431 Adj R-Sq 0.6200 Coeff Var 171.72861   Parameter Estimates Variable Label DF Parameter Estimate Standard Error t Value Pr > |t| Intercept 1 -15016 2324.86370 -6.46 <.0001 PAG_ORD Pagato in contrassegno 1.19433 0.05485 21.78 PAG_MES Pagato con rate mensili 2.52341 0.10102 24.98 TOT_ORD Totale ordini 14881 683.88703 21.76 LISTA Numero di liste di appartenenza 603.36550 1110.84778 0.54 0.5871 SESSO Sesso 3453.14705 1994.83468 1.73 0.0835 CEN Residenza Centro -6431.88493 2597.25872 -2.48 0.0133 SUD Residenza Sud -18390 2077.96317 -8.85

Il modello di regressione lineare Statistiche di Influenza

Il modello di regressione lineare Statistiche di Influenza DATA REGRESS1 (DROP = COOK H REDD_PRE RES_STUD); SET RESID_0; WHERE COOK < 0.023 & H < 0.015; PROC REG DATA=REGRESS1; MODEL REDD=PAG_ORD PAG_MES TOT_ORD LISTA SESSO CEN SUD ; PAINT RSTUDENT.> 2 / SYMBOL='O'; PAINT RSTUDENT.<-2 / SYMBOL='O'; PLOT RSTUDENT.*P.; PLOT P.*REDD; PLOT COOKD.*H.; RUN;

Il modello di regressione lineare Statistiche di Influenza

Il modello di regressione lineare Statistiche di Influenza

Il modello di regressione lineare Statistiche di Influenza Root MSE 52693 R-Square 0.6204 Dependent Mean 30935 Adj R-Sq 0.6197 Coeff Var 170.33339   Parameter Estimates Variable Label DF Parameter Estimate Standard Error t Value Pr > |t| Intercept 1 -14624 2205.46539 -6.63 <.0001 PAG_ORD Pagato in contrassegno 1.15419 0.05482 21.05 PAG_MES Pagato con rate mensili 2.56876 0.09567 26.85 TOT_ORD Totale ordini 14434 674.26080 21.41 LISTA Numero di liste di appartenenza 872.66180 1052.55642 0.83 0.4071 SESSO Sesso 3192.81846 1889.02931 1.69 0.0911 CEN Residenza Centro -6320.88855 2462.17857 -2.57 0.0103 SUD Residenza Sud -17923 1971.41534 -9.09

Il modello di regressione lineare La selezione dei regressori Poche variabili capacità previsiva  fit  parsimonia  interpretabilità  Tante variabili capacità previsiva  fit  parsimonia  interpretabilità  Criteri di selezione valutazioni soggettive confronto tra tutti i possibili modelli algoritmi di selezione automatica In SAS 9 possibili metodi di selezione delle variabili

Il modello di regressione lineare La selezione dei regressori Procedura di calcolo automatico che seleziona il sottoinsieme di variabili ottimo tra quelli possibili forward selection  inserisce nell’equazione una variabile per volta, basandosi sul contributo del regressore inserito alla spiegazione della variabilità di Y backward selection  rimuove dall’equazione una variabile per volta, basandosi sulla perdita di capacità esplicativa della variabilità di Y conseguente all’eliminazione del regressore forward+backward selection  ogni variabile può entrare/uscire dal modello

Il modello di regressione lineare La Multicollinearità X1,…,Xp non sono vettori linearmente indipendenti forte correlazione tra i regressori (o alcuni di essi) La varianza dello stimatore dei minimi quadrati tende ad esplodere Problema di stabilità delle stime In realtà X ha rango pieno ma esistono delle costanti a1,…,ap non nulle tali per cui sum(aiXi) molto vicina a zero  si ha una quasi dipendenza lineare tra X1,…,Xp. Vedi caso estremo con p=2 e X1=X2  beta1 e beta2 non sono identificabili, si riesce a stimare solo beta1+beta2 (varianza delle stime così grande che può succedere che le stime di beta1 e beta2 abbiano segno opposto pur essendo associate allo stesso regressore.

Il modello di regressione lineare La Multicollinearità Y X1 X2 1

Il modello di regressione lineare La Multicollinearità Y X1 X2 1

Il modello di regressione lineare La Multicollinearità Per verificare la presenza di multicollinearità regressione lineare di Xj sui rimanenti p-1 regressori - Rj² misura la quota di varianza di Xj spiegata dai rimanenti p-1 regressori  valori alti=multicollin. - VIFj = 1 / (1 – Rj²) misura il grado di relazione lineare tra Xj e i rimanenti p-1 regressori  valori alti= multicollin.

Il modello di regressione lineare La Multicollinearità Soluzioni rimozione delle variabili correlate selezione di una variabile rappresentativa dal gruppo di variabili legate da relazione lineare analisi delle componenti principali  trasformazione dei regressori in componenti non correlate (nella nuova regressione andranno incluse tutte le componenti principali) Vanno incluse tutte le CP perché le ultime componenti possono essere rilevanti da un punto di vista previsivo pur non essendolo dal punto di vista della spiegazione della variabilità di X1,…,Xp.

Il modello di regressione lineare La Multicollinearità Parameter Estimates Variable Label DF Parameter Estimate Standard Error t Value Pr > |t| Standardized Estimate Variance Inflation Intercept 1 -14624 2205.46539 -6.63 <.0001 PAG_ORD Pagato in contrassegno 1.15419 0.05482 21.05 0.36897 2.96182 PAG_MES Pagato con rate mensili 2.56876 0.09567 26.85 0.27583 1.01781 TOT_ORD Totale ordini 14434 674.26080 21.41 0.37406 2.94467 LISTA Numero di liste di appartenenza 872.66180 1052.55642 0.83 0.4071 0.00845 1.00196 SESSO Sesso 3192.81846 1889.02931 1.69 0.0911 0.01726 1.00599 CEN Residenza Centro -6320.88855 2462.17857 -2.57 0.0103 -0.02792 1.14079 SUD Residenza Sud -17923 1971.41534 -9.09 -0.10108 1.19214 Vanno incluse tutte le CP perché le ultime componenti Parameter EstimatesVariableLabelDFParameter EstimateStandard Errort ValuePr > |t|Standardized EstimateVariance InflationInterceptIntercept1-146242205.46539-6.63<.000100PAG_ORDPagato in contrassegno11.154190.0548221.05<.00010.368972.96182PAG_MESPagato con rate mensili12.568760.0956726.85<.00010.275831.01781TOT_ORDTotale ordini114434674.2608021.41<.00010.374062.94467LISTANumero di liste di appartenenza1872.661801052.556420.830.40710.008451.00196SESSOSesso13192.818461889.029311.690.09110.017261.00599CENResidenza Centro1-6320.888552462.17857-2.570.0103-0.027921.14079SUDResidenza Sud1-179231971.41534-9.09<.0001-0.101081.19214 essere rilevanti da un punto di vista previsivo pur non essendolo dal punto di vista della spiegazione della variabilità di X1,…,Xp.

Il modello di regressione lineare La Multicollinearità Root MSE 52693 R-Square 0.6204 Dependent Mean 30935 Adj R-Sq 0.6197 Coeff Var 170.33339   Parameter Estimates Variable Label DF Parameter Estimate Standard Error t Value Pr > |t| Variance Inflation Intercept 1 30935 869.91751 35.56 <.0001 Factor1   61162 870.03609 70.30 1.00000 Factor2 -295.62943 -0.34 0.7340 Factor3 24154 27.76 Factor4 3446.48124 3.96 Factor5 861.78906 0.99 0.3220 Factor6 -13861 -15.93 Factor7 73.57034 0.08 0.9326 Vanno incluse tutte le CP perché le ultime componenti Parameter EstimatesVariableLabelDFParameter EstimateStandard Errort ValuePr > |t|Standardized EstimateVariance InflationInterceptIntercept1-146242205.46539-6.63<.000100PAG_ORDPagato in contrassegno11.154190.0548221.05<.00010.368972.96182PAG_MESPagato con rate mensili12.568760.0956726.85<.00010.275831.01781TOT_ORDTotale ordini114434674.2608021.41<.00010.374062.94467LISTANumero di liste di appartenenza1872.661801052.556420.830.40710.008451.00196SESSOSesso13192.818461889.029311.690.09110.017261.00599CENResidenza Centro1-6320.888552462.17857-2.570.0103-0.027921.14079SUDResidenza Sud1-179231971.41534-9.09<.0001-0.101081.19214 essere rilevanti da un punto di vista previsivo pur non essendolo dal punto di vista della spiegazione della variabilità di X1,…,Xp.

Il modello di regressione lineare La Multicollinearità Root MSE 52679 R-Square 0.6203 Dependent Mean 30935 Adj R-Sq 0.6199 Coeff Var 170.28930   Parameter Estimates Variable Label DF Parameter Estimate Standard Error t Value Pr > |t| Standardized Estimate Variance Inflation Intercept 1 30935 869.69238 35.57 <.0001 Factor1   61162 869.81092 70.32 0.71583 1.00000 Factor3 24154 27.77 0.28269 Factor4 3446.48124 3.96 0.04034 Factor6 -13861 -15.94 -0.16223 Vanno incluse tutte le CP perché le ultime componenti Parameter EstimatesVariableLabelDFParameter EstimateStandard Errort ValuePr > |t|Standardized EstimateVariance InflationInterceptIntercept1-146242205.46539-6.63<.000100PAG_ORDPagato in contrassegno11.154190.0548221.05<.00010.368972.96182PAG_MESPagato con rate mensili12.568760.0956726.85<.00010.275831.01781TOT_ORDTotale ordini114434674.2608021.41<.00010.374062.94467LISTANumero di liste di appartenenza1872.661801052.556420.830.40710.008451.00196SESSOSesso13192.818461889.029311.690.09110.017261.00599CENResidenza Centro1-6320.888552462.17857-2.570.0103-0.027921.14079SUDResidenza Sud1-179231971.41534-9.09<.0001-0.101081.19214 essere rilevanti da un punto di vista previsivo pur non essendolo dal punto di vista della spiegazione della variabilità di X1,…,Xp.

Il modello di regressione lineare La Valutazione del modello Si vuole verificare bontà delle stime adattamento del modello ai dati impatto delle singole osservazioni impatto dei regressori Strumenti test statistici indicatori di performance analisi dei residui analisi degli outliers analisi di influenza valutazione dei coefficienti e correlazioni parziali