Analisi Multivariata dei Dati

Slides:



Advertisements
Presentazioni simili
Come organizzare i dati per un'analisi statistica al computer?
Advertisements

Tecniche di analisi dei dati e impostazione dellattività sperimentale Relazioni tra variabili: Correlazione e Regressione.
La regressione lineare trivariata
Analisi di covarianza L'analisi di covarianza è un'analisi a metà strada tra l'analisi di varianza e l'analisi di regressione. Nell'analisi di covarianza.
Analisi di covarianza L'analisi di covarianza è un'analisi a metà strada tra l'analisi di varianza e l'analisi di regressione. Nell'analisi di covarianza.
Analisi multivariata.
Scopo della lezione Regressione lineare multipla Cos’è
Regressione lineare Metodi Quantitativi per Economia, Finanza e Management Esercitazione n°10.
Regressione logistica
Metodi Quantitativi per Economia, Finanza e Management Lezione n°8
Metodi Quantitativi per Economia, Finanza e Management Lezione n°9.
Metodi Quantitativi per Economia, Finanza e Management Lezione n°8.
Regressione lineare Metodi Quantitativi per Economia, Finanza e Management Esercitazione n°8.
Ipotesi e proprietà dello stimatore Ordinary Least Squares (OLS)
STATISTICA 6.0: REGRESSIONE LINEARE
MODELLO DI REGRESSIONE LINEARE MULTIPLA: USO DELLE VARIABILI DUMMY (parte 2) In alcune circostanze è opportuno inserire, come variabili esplicative, delle.
INFERENZA NEL MODELLO DI REGRESSIONE LINEARE MULTIPLA: test sui parametri e scelta del modello (parte 3) Per effettuare test di qualsiasi natura è necessaria.
INFERENZA NEL MODELLO DI REGRESSIONE LINEARE MULTIPLA (parte 1)
MODELLO DI REGRESSIONE LINEARE MULTIPLA
Introduzione alla Regressione Logistica
La regressione logistica binomiale
La logica della regressione
Metodi Quantitativi per Economia, Finanza e Management Lezione n° 9.
Alcune domande agli autori Lo studio affronta un argomento scientifico e/o clinico importante? Lo studio è originale? Lo studio è volto a provare le ipotesi.
Corso di biomatematica lezione 6: la funzione c2
Corso di biomatematica lezione 7-2: Test di significatività
STATISTICA a.a METODO DEI MINIMI QUADRATI REGRESSIONE
Modello di regressione lineare semplice
STATISTICA PER LE DECISIONI DI MARKETING
“Analisi delle serie storiche e applicazioni”
Tecniche descrittive Utilizzano modelli matematici per semplificare le relazioni fra le variabili in studio Il fine è la descrizione semplificata del fenomeno.
Attivazione dei recettori
La ricerca delle relazioni tra fenomeni
Esercizio Regressione DATI Per un campione casuale di 82 clienti di un'insegna della GDO, sono disponibili le seguenti variabili, riferite ad un mese di.
STATISTICA PER LE DECISIONI DI MARKETING Andrea Cerioli Sito web del corso IL MODELLO DI REGRESSIONE LINEARE MULTIPLA Selezione.
DATA MINING PER IL MARKETING
Correlazione e regressione Correlazione Come posso determinare il legame tra due o più variabili? COEFFICIENTE DI CORRELAZIONE (r di Pearson) massimo.
DATA MINING PER IL MARKETING
DATA MINING PER IL MARKETING
Metodi Quantitativi per Economia, Finanza e Management Lezione n°9 Regressione lineare multipla: la stima del modello e la sua valutazione, metodi automatici.
Introduzione alla regressione multipla
Esame di Analisi Multivariata dei Dati
La regressione II Cristina Zogmaister.
Esame di Analisi Multivariata dei Dati
Esame di Analisi Multivariata dei Dati
Domande riepilogative per l’esame
1 Corso di Laurea magistrale in Psicologia Clinica, dello Sviluppo e Neuropsicologia Esame di Analisi Multivariata dei Dati Introduzione all’analisi fattoriale.
Strumenti statistici in Excell
Il residuo nella predizione
Corso di Laurea in Scienze e Tecniche psicologiche
Metodi Quantitativi per Economia, Finanza e Management Lezione n°10 Regressione lineare multipla: la valutazione del modello, metodi automatici di selezione.
Corso di Laurea in Scienze e tecniche psicologiche
1 “Metodi per la Ricerca Sociale e Organizzativa” Corso di Laurea in Scienze dell’Organizzazione Facoltà di Sociologia Università degli Studi di Milano-Bicocca.
1 Corso di Laurea magistrale in Psicologia Clinica, dello Sviluppo e Neuropsicologia Esame di Analisi Multivariata dei Dati General linear model e mixed.
Regressione lineare Metodi Quantitativi per Economia, Finanza e Management Esercitazione n°7.
REGRESSIONE LINEARE Relazione tra una o più variabili risposta e una o più variabili esplicative, al fine di costruire una regola decisionale che permetta.
Regressione lineare - Esercizi
Regressione lineare - Esercizi Metodi Quantitativi per Economia, Finanza e Management Esercitazione n°9.
Regressione lineare Metodi Quantitativi per Economia, Finanza e Management Esercitazione n°8.
Corso di Laurea in Scienze e tecniche psicologiche
Correlazione e regressione lineare
La regressione statistica IL CASO UNIVARIATO Consideriamo due variabili continue proponendoci di INDAGARE se esiste una relazione tra loro. Normalmente.
L’analisi di regressione e correlazione Prof. Luigi Piemontese.
Regressione semplice e multipla in forma matriciale Metodo dei minimi quadrati Stima di beta Regressione semplice Regressione multipla con 2 predittori.
Ottimizzazione dei terreni di coltura Metodi statistici.
Analisi delle osservazioni
INFERENZA NEL MODELLO DI REGRESSIONE LINEARE SEMPLICE
Regressione: approccio matriciale Esempio: Su 25 unità sono stati rilevati i seguenti caratteri Y: libbre di vapore utilizzate in un mese X 1: temperatura.
1 Corso di Laurea in Scienze e Tecniche psicologiche Esame di Psicometria Il T-Test A cura di Matteo Forgiarini.
Corso di Laurea in Scienze e tecniche psicologiche
Transcript della presentazione:

Analisi Multivariata dei Dati Corso di Laurea magistrale in Psicologia Clinica, dello Sviluppo e Neuropsicologia Esame di Analisi Multivariata dei Dati La regressione lineare multipla Martedì 15 ottobre 2012 A cura di Matteo Forgiarini

Esercitazione N°2 – La regressione lineare multipla La regressione multipla Esercitazione N°2 – La regressione lineare multipla Nelle precedenti analisi abbiamo ipotizzato che una variabile dipendente venga spiegata – prevista – da una sola variabile indipendente: abbiamo analizzato il modello di regressione semplice. Ma non sempre la realtà è semplice… In alcuni casi occorre utilizzare più di una variabile indipendente per spiegare (la varianza di) una variabile dipendente. Un modello di regressione che preveda 2 o più variabili indipendenti e una sola variabile dipendete è chiamato modello di regressione multipla.

Esercitazione N°2 – La regressione lineare multipla La regressione multipla Esercitazione N°2 – La regressione lineare multipla Come nella regressione semplice, la costante “a” rappresenta l’intercetta della retta, ovvero il valore di y quando tutte le x hanno valore 0. I coefficienti di regressione b cosa rappresentano? Nella regressione semplice i coefficienti b esprimono l’intero legame tra la x e la y. Nella regressione multipla la loro interpretazione è più complessa… Nella regressione multipla, il coefficiente b di ogni x esprime solo l’effetto diretto della x sulla y al netto degli effetti indiretti prodotti mediante l’interazione con le altre variabili indipendenti. Infatti l’effetto indiretto di una VI sulla y esiste solo se la correlazione tra le VI è diversa da 0; in caso contrario, non essendoci interazione tra le VI, gli effetti indiretti saranno nulli. Il coefficiente di ogni VI è chiamato coefficiente parziale di regressione tra la VI e y ed è ottenuto parzializzando l’effetto delle altre VI su y.

Esercitazione N°2 – La regressione lineare multipla La regressione multipla Esercitazione N°2 – La regressione lineare multipla Con spss è possibile stimare i parametri della retta di regressione multipla… Nell’esempio proposto, la variabile “peso” viene considerata variabile dipendente. Il modello prevede due VI. Selezioniamo questa opzione per ottenere le stime dei coefficienti di un modello di regressione sia con una sola VI sia con le due VI.

Esercitazione N°2 – La regressione lineare multipla La regressione multipla Esercitazione N°2 – La regressione lineare multipla Modello 1: regressione semplice: y=“peso”, x=“potenza del motore”. Modello 1: regressione multipla: y=“peso”, x1=“potenza”,x2=“lunghezza”. I parametri del modello di regressione multipla sono tutti significativi (p-value<0.05). Il modello con due VI infatti ottiene una proporzione di varianza spiegata (0,916) maggiore del modello con una sola VI (0,622). Possiamo concludere che utilizzare anche “lunghezza” per spiegare “peso” migliora significativamente il modello; infatti il coefficiente parziale di regressione stimato per “lunghezza” risulta significativamente diverso da 0 Notiamo come il metodo “stepwise” permetta di confrontare la bontà dei due modelli ottenuti e di verificare la significatività dei parametri di tutti i modelli. Al contrario, con il metodo “enter” vengono considerate contemporaneamente tutte le VI inserite.

Esercitazione N°2 – La regressione lineare multipla La regressione multipla Esercitazione N°2 – La regressione lineare multipla Continuiamo l’analisi degli output del modello di regressione multiplo… I coefficienti parziali di regressione indicano solo l’effetto diretto che ogni VI produce sulla y e vengono infatti stimati parzializzando l’effetto delle altre VI. Il segno della loro stima permette di capire la direzione della relazione (positiva o negativa) tra la VI e la y. Se il segno è positivo al crescere della VI, anche la y cresce; se il segno è negativo, ad un aumento della VI corrisponde una diminuzione della y. In particolare nel modello proposto i coefficienti indicano che il crescere della potenza del motore e della lunghezza, producono un aumento del peso dell’auto. Ma… La stima dei coefficienti parziali non ci permette di comprendere in modo chiaro il contributo unico di ogni VI: per l’analisi di un modello di regressione multipla è importante avere anche una stima della quantità di varianza della y che ogni VI permette di spiegare…

Esercitazione N°2 – La regressione lineare multipla Il contributo unico delle VI Esercitazione N°2 – La regressione lineare multipla In particolare occorre distinguere due indici che permettono di comprendere il contributo unico di ogni VI: Il contributo unico di una VI può essere stimato grazie al quadrato della correlazione parziale: ipotizzando che y venga spiegata da x e w, Pr2yw.x indica l’effetto di w dopo aver rimosso tutta la variabilita’ spiegata da x. Pr2yw.x indica la proporzione di varianza spiegata da w rispetto alla parte di varianza di y che non viene spiegata da x. Il contributo unico di una VI può anche essere valutato come la varianza della y spiegata unicamente dalla VI: ipotizzando che y venga spiegata da x e w, il quadrato della correlazione semi-parziale tra y e w Sr2yw.x indica la varianza di y spiegata unicamente da w.

Esercitazione N°2 – La regressione lineare multipla Il contributo unico delle VI Esercitazione N°2 – La regressione lineare multipla e b a c X W

Esercitazione N°2 – La regressione lineare multipla La correlazione parziale Esercitazione N°2 – La regressione lineare multipla Per stimare i contributi unici di ogni VI in un modello di regressione multipla risulta quindi importante calcolare la matrice di correlazioni parziali tra un set di variabili... Nell’esempio proposto le correlazioni vengono parzializzate mantenendo costante la variabile “lunghezza”. In questa finestra occorre inserire le variabili fra le quali si vuole calcolare la correlazione parziale.

Esercitazione N°2 – La regressione lineare multipla La correlazione parziale Esercitazione N°2 – La regressione lineare multipla La matrice contiene le correlazioni tra le coppie di variabili calcolate parzializzando l’effetto di “lunghezza”. Ogni cella (non appartenente alla diagonale principale) contiene la correlazione prxy.lunghezza. Nell’esempio proposto, 0.894=prpotenza peso.lunghezza è la correlazione parziale tra potenza e peso; pr2=(0,894)2=0,799 indica la proporzione di varianza di “peso” spiegata da “potenza” rispetto alla quantità di varianza di “peso” non spiegata dall’altra VI “lunghezza”. Nell’esempio proposto la correlazione parziale tra “potenza” e “peso” risulta significativa (p.value<0,01): possiamo quindi concludere che rispetto alla varianza di “peso” non spiegata da “lunghezza”, la variabile “potenza” permette di spiegare una quantità di varianza della VD statisticamente significativa.

Esercitazione N°2 – La regressione lineare multipla La correlazione parziale Esercitazione N°2 – La regressione lineare multipla Selezioniamo questa opzione per ottenere le correlazioni semplici, parziali e semi-parziali Attraverso questa procedura possiamo ottenere, oltre alle stime dei coefficienti del modello di regressione multiplo, anche le stime delle correlazioni semplici, parziali e semi-parziali (cfr. diapositive successive) che ci permettono di analizzare più in profondità il contributo unico delle singole variabili.

Esercitazione N°2 – La regressione lineare multipla La correlazione parziale Esercitazione N°2 – La regressione lineare multipla I coefficienti del modello sono uguali a quelli stimati in precedenza. In questa colonna troviamo le correlazioni semplici tra le due VI e la VD. In questa colonna troviamo le correlazioni parziali tra le due VI e la VD; in particolare: 0,894=prpotenza peso.lunghezza; 0,881=prlunghezza peso.potenza. Notiamo che 0,894 corrisponde alla stima ottenuta calcolando la matrice delle correlazioni parziali tra le variabili. Per stimare 0,881 all’interno della matrice delle pr, avremmo dovuto eseguire la medesima procedura per creare la matrice, ma parzializzando l’effetto della variabile “potenza”. Elevando al quadrato le pr possiamo calcolare il contributo unico delle due VI. (0,894)2=0,799; la variabile “potenza” spiega il 79% della varianza di “peso” che non viene spiegata da “lunghezza”. (0,881)2=0,776; la variabile “lunghezza” spiega il 77% della varianza di “peso” che non viene spiegata da “potenza”.

Esercitazione N°2 – La regressione lineare multipla La correlazione semi-parziale Esercitazione N°2 – La regressione lineare multipla Come accennato in precedenza, è possibile stimare il contributo unico di una VI anche mediante la correlazione semi-parziale tra le VI e la VD. In particolare il quadrato della correlazione semi-parziale indica la parte di varianza della VD spiegata unicamente dalla VI al netto della varianza della VD che la VI spiega in comune con le altre VI. Sr2xy.w indica la parte di varianza della y spiegata dalla x al netto della parte di varianza della y che x spiega in comune con w. Correlazioni semi-parziali Nell’esempio proposto, 0,579 indica la correlazione semi-parziale srpotenza peso.lunghezza. In modo analogo 0,542=srlunghezza peso.potenza. Possiamo quindi affermare che la variabile “potenza” spiega, senza tenere conto del contributo in comune con “lunghezza”, il 33,5% della varianza di “peso”: (0,579)2=0,335. Similmente, il contributo unico della variabile “lunghezza” al netto del contributo comune a “potenza” risulta: (0,542)2=0,293: la variabile “lunghezza” spiega il 29,3% della varianza di “peso”.

Esercitazione N°2 – La regressione lineare multipla Una particolarità Esercitazione N°2 – La regressione lineare multipla Procediamo con l’analisi dei tre tipi di correlazione… Notiamo che se ipotizziamo un modello di regressione semplice la correlazione semplice, parziale e semi-parziale sono uguali… perché!?! Perché in un modello di regressione semplice il legame diretto tra x e y è l’unico che vi sia… non esiste altro legame che si debba parzializzare: la proporzione di varianza spiegata di y da parte di x coincide con il contributo unico di x poiché non occorre parzializzare nessun effetto di altre VI: r2xy=pr2xy=sr2xy

Esercitazione N°2 – La regressione lineare multipla L’R2 del modello Esercitazione N°2 – La regressione lineare multipla Regr. Sempl. Regr. Mult. Notiamo come nel modello di regressione semplice la proporzione di varianza spiegata dalla VI sia coincidente con il quadrato della correlazione semplice corr(xy): R2=0,7892=0,622. Nel modello di regressione multipla è più complesso: la proporzione di varianza spiegata R2 del modello è formata dai contributi di ogni variabile… R2=r2potenza peso + sr2lunghezza peso.potenza=(0,789)2 + (0,542)2=0,622 + 0,293=0,9157 R2=r2lunghezza peso + sr2potenza peso.lunghezza=(0,762)2 + (0,579)2=0,58 + 0,335=0,9152