La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

DATA MINING PER IL MARKETING Andrea Cerioli Sito web del corso IL MODELLO DI REGRESSIONE LINEARE MULTIPLA approccio matriciale.

Presentazioni simili


Presentazione sul tema: "DATA MINING PER IL MARKETING Andrea Cerioli Sito web del corso IL MODELLO DI REGRESSIONE LINEARE MULTIPLA approccio matriciale."— Transcript della presentazione:

1 DATA MINING PER IL MARKETING Andrea Cerioli Sito web del corso IL MODELLO DI REGRESSIONE LINEARE MULTIPLA approccio matriciale + aspetti di inferenza (Capitolo 4 del libro + Appendice A)

2 Modello di regressione nella popolazione e nel campione Qual è la relazione tra e ed ε? Qual è la relazione tra e ed ε? Abbiamo già visto graficamente la relazione nella regressione semplice  ora la deriviamo per esteso Popolazione (  noto) Campione (  stimato)

3 Analisi dei valori previsti H: matrice di previsione (proiezione)  Hat matrix: trasforma y in y cappello

4 Proprietà della matrice H Simmetrica (n  n): H = H’ Simmetrica (n  n): H = H’ Idempotente: HH = H Idempotente: HH = H Per esercizio (esempio investimenti): p. 186 Per esercizio (esempio investimenti): p. 186 Gli elementi h ii sulla diagonale principale della matrice H sono compresi tra 0 e 1  Nel modello di regressione semplice: Gli elementi h ii sulla diagonale principale della matrice H sono compresi tra 0 e 1  Nel modello di regressione semplice: Quindi h ii è elevato se x i è distante dagli altri valori di X: alto leverage Quindi h ii è elevato se x i è distante dagli altri valori di X: alto leverage

5 Cosa succede se h ii è elevato n = 50 Media X = 19.5 Come sopra, ma per la prima osservazione X passa da 17 a 50

6 Nella regressione multipla Traccia di H (somma degli h ii )= k (numero di parametri) Traccia di H (somma degli h ii )= k (numero di parametri) Media degli h ii = k/n Media degli h ii = k/n Solitamente le osservazioni a cui corrisponde Solitamente le osservazioni a cui corrisponde h ii > 2k/n vengono dette punti di leverage: i punti in cui h ii è grande attirano l’iperpiano di regressione Esercizio: grafico (in Excel) degli h ii e identificazione dei punti di leverage: p. 189

7 Analisi dei residui Modello “vero”: Modello “vero”: Modello stimato Modello stimato Pertanto: Pertanto: dove I è la matrice Identità Quindi: e = (I-H)y = (I-H)   le proprietà di e dipendono da quelle della matrice M=I-H

8 Proprietà dei residui (p.187) Che cosa impariamo da tali formule? Pertanto:

9 Il vettore dei residui osservati e ha proprietà diverse dal vettore dei termini aleatori . Infatti Var(  ) =  2 I Il vettore dei residui osservati e ha proprietà diverse dal vettore dei termini aleatori . Infatti Var(  ) =  2 I I punti in cui h ii è grande sono effettivamente punti di leverage. Infatti dalla formula di var(e i ) discende che e i  0 se h ii  1 I punti in cui h ii è grande sono effettivamente punti di leverage. Infatti dalla formula di var(e i ) discende che e i  0 se h ii  1 Le proprietà dei residui osservati dipendono da quelle della matrice M  matrice simmetrica e idempotente (come H) Le proprietà dei residui osservati dipendono da quelle della matrice M  matrice simmetrica e idempotente (come H)

10 Stima di σ 2 Le proprietà di s 2 derivano dalla relazione tra residui e errori Le proprietà di s 2 derivano dalla relazione tra residui e errori DEV(E) = (n-k)s 2 ~  2  2 con gradi di libertà = rango (traccia) matrice idempotente M (v. p. 202) DEV(E) = (n-k)s 2 ~  2  2 con gradi di libertà = rango (traccia) matrice idempotente M (v. p. 202) gradi di libertà = n – k  si “perdono” tanti df quanti sono i parametri da stimare gradi di libertà = n – k  si “perdono” tanti df quanti sono i parametri da stimare e’e = DEV(E) = dev. residua  k = numero di parametri da stimare (esplicative + intercetta) Stima corretta di  2 : s 2 = e’e/(n-k)  n-k = gradi di libertà (df)

11 Scomposizione devianza (mod. con intercetta) DEV(E): gradi di libertà = n – k DEV(E): gradi di libertà = n – k DEV(Y): gradi di libertà = n – 1 (rango matrice A = I – ii’/n, con i = vettore di 1, p. 85)  si “perde” 1 df, come nella stima della media (intercetta del modello senza X) DEV(Y): gradi di libertà = n – 1 (rango matrice A = I – ii’/n, con i = vettore di 1, p. 85)  si “perde” 1 df, come nella stima della media (intercetta del modello senza X) DEV(Y cappello): gradi di libertà = k – 1 (rango matrice A – M)  df = numero parametri delle X DEV(Y cappello): gradi di libertà = k – 1 (rango matrice A – M)  df = numero parametri delle X Vale la relazione: (n – 1) = (n – k) + (k – 1) Vale la relazione: (n – 1) = (n – k) + (k – 1) Tabella riassuntiva: p. 197 Tabella riassuntiva: p. 197

12 Analisi della bontà di adattamento Dalla scomposizione della devianza (modello con intercetta)  def. di R 2 nella regressione multipla: Dalla scomposizione della devianza (modello con intercetta)  def. di R 2 nella regressione multipla: R 2 = DEV(REG)/DEV(Y) = 1 – DEV(E)/DEV(Y) R 2 = quadrato del coefficiente di correlazione tra Y e Y cappello (coeff. corr. lineare multipla: p. 193) Se manca l’intercetta, la scomposizione e la definizione di R 2 sono in termini di somme di quadrati Se manca l’intercetta, la scomposizione e la definizione di R 2 sono in termini di somme di quadrati R 2 = SS(REG)/SS(Y) = 1 – SS(E)/SS(Y) Però non vale più la relazione con la corr. multipla

13 Distribuzione di (p. 191) Sotto quali assunzioni? Correttezza: significato Significato; implicazione dell’inversione di X’X (X’X: simmetrica k×k)

14 Inferenza su un singolo coefficiente di regressione (p. 197) In pratica: stima s 2 invece di  2 (v. output Excel e SPSS)

15 Distribuzione di t j (t-statistica) t j presenta una distribuzione t di Student con n-k gradi di libertà Analogia con la regressione semplice (k=2) Il denominatore è l’errore standard di beta cappello

16 Intervallo di confidenza per β j : Similmente per la verifica dell’ipotesi H 0 : β j = 0 Zone rifiuto/accettazione oppure calcolo p-value

17 Esempio: Dati Investimenti = f(PIL, Trend) Analisi con Excel Coeff.E.S. Stat t Valore di signif. Inf. 95% Sup. 95% Intercetta E PIL (X1) E TREND (X2) E

18 Esistono stimatori “migliori” rispetto a beta cappello?

19 Teorema di Gauss Markov: gli stimatori dei minimi quadrati sono BLUE Significato di questa proprietà nella regressione semplice (p. 151) nella regressione multipla (p. 191) Efficienza (ma anche limiti) degli stimatori dei minimi quadrati

20 Test su un insieme di coefficienti Significato H 0 : β 1 = β 2 = … = β q = 0  q coefficienti sono = 0; i rimanenti r = k – q sono invece ≠ 0 H0 vera  tutte le variabili esplicative X 1 … X q, associate ai coefficienti  1 …  q, NON hanno effetto su Y: scegliamo un modello ridotto senza X 1 … X q H0 falsa  almeno una tra le variabili esplicative X 1 … X q ha effetto su Y: teniamo quindi il modello completo con tutti i coefficienti, non sapendo quale β≠0

21 Test sul modello Si utilizza il test F: rapporto tra devianze Si utilizza il test F: rapporto tra devianze Richiamo alla distribuzione F (pp ) Richiamo alla distribuzione F (pp ) H 0 : β 1 = β 2 = … = β k-1 = 0 (solo β 0 ≠ 0)

22 e’ r e r = Devianza totale  modello senza variabili esplicative, solo con intercetta = media: df = n – 1 e’ r e r = Devianza totale  modello senza variabili esplicative, solo con intercetta = media: df = n – 1 e’e = Devianza residua  modello con tutte le variabili esplicative (k parametri): df = n – k e’e = Devianza residua  modello con tutte le variabili esplicative (k parametri): df = n – k e’ r e r – e’e = Devianza di regressione: df = q = n – 1 – (n – k) = k – 1  numero di coefficienti posti = 0 sotto H 0 (numero di variabili esplicative) e’ r e r – e’e = Devianza di regressione: df = q = n – 1 – (n – k) = k – 1  numero di coefficienti posti = 0 sotto H 0 (numero di variabili esplicative) Rifiuto H 0 se F osservato > percentile distribuzione F al livello di significatività fissato, oppure se p-value è piccolo

23 Esempio Dati investimenti = f(PIL, Trend) Dati investimenti = f(PIL, Trend) ANALISI VARIANZA (ANOVA) gdlSQMQF Significatività F Regressione E-08 Residuo Totale Per esercizio: calcolare indice R 2

24 Esempio investimenti: output SPSS Interpretazione di tutte le quantità riportate Confronto con output Excel

25 Coefficienti standardizzati SPSS riporta anche i coefficienti standardizzati SPSS riporta anche i coefficienti standardizzati Tali coefficienti sono quelli della regressione sulle variabili standardizzate: si elimina l’effetto dell’ordine di grandezza e dell’unità di misura sulle X e su Y Tali coefficienti sono quelli della regressione sulle variabili standardizzate: si elimina l’effetto dell’ordine di grandezza e dell’unità di misura sulle X e su Y I coeff. std. hanno l’obiettivo di essere confrontabili tra loro  dovrebbero misurare l’importanza relativa delle esplicative, senza essere influenzati da unità di misura e ordine di grandezza (ad es.: se β1=0.5 e β2=1 non vuol dire che X2 è più “importante” di X1) I coeff. std. hanno l’obiettivo di essere confrontabili tra loro  dovrebbero misurare l’importanza relativa delle esplicative, senza essere influenzati da unità di misura e ordine di grandezza (ad es.: se β1=0.5 e β2=1 non vuol dire che X2 è più “importante” di X1) Però il concetto di “importanza relativa” è vago: Però il concetto di “importanza relativa” è vago: –Se X ha coeff. std max non è detto che X abbia effetto max su R 2 –coeff. std = r xy ma solo se le X sono incorrelate –i coeff. std “confondono” concetti diversi: l’effetto assoluto su Y (tramite β) e l’effetto della variabilità (tramite  ) Per tali motivi i coeff. std non sono molto utilizzati  il confronto tra le X può essere fatto con le t-statistiche Per tali motivi i coeff. std non sono molto utilizzati  il confronto tra le X può essere fatto con le t-statistiche

26 Intervallo di previsione: intervallo di confidenza del valore y 0 associato ad uno specifico insieme di valori delle variabili esplicative v. §4.13

27 Passo finale: si esplicita y 0 Intervallo di confidenza (di probabilità 1 -  ) per la “nuova” osservazione y 0 : intervallo di previsione di y 0 Esempio investimenti (v. p. 218 per i passaggi) Commento

28 Le diagnostiche del modello di regressione § 4.11 – 4.13 Metodi grafici e semplici trasformazioni dei residui Implementati in SPSS (e in tutti i software) Da usare con cautela

29 Data set per esercitazioni sulla regressione (v. sito del corso) Esercitazione 1: Space Shuttle Challenger Esercitazione 1: Space Shuttle Challenger Esercitazione 2: analisi del mercato immobiliare Esercitazione 2: analisi del mercato immobiliare Esercitazione 3: dati Trade (semplificati) Esercitazione 3: dati Trade (semplificati)


Scaricare ppt "DATA MINING PER IL MARKETING Andrea Cerioli Sito web del corso IL MODELLO DI REGRESSIONE LINEARE MULTIPLA approccio matriciale."

Presentazioni simili


Annunci Google