Corso di Laurea in Scienze e tecniche psicologiche

Slides:



Advertisements
Presentazioni simili
MODELLO DI REGRESSIONE LINEARE MULTIPLA
Advertisements

1 Corso di Laurea magistrale in Psicologia Clinica, dello Sviluppo e Neuropsicologia Esame di Analisi Multivariata dei Dati Introduzione all’analisi fattoriale.
Corso di Laurea in Scienze e Tecniche psicologiche
Analisi Multivariata dei Dati
Corso di Laurea in Scienze e tecniche psicologiche
L’analisi di regressione e correlazione Prof. Luigi Piemontese.
Statistica descrittiva: le variabili Frequenze: tabelle e grafici Indici di posizione, di dispersione e di forma Media e varianza di dati raggruppati Correlazione.
PRIMI CONCETTI ESEMPI INTRODUTTIVI DEFINIZIONI INTRODUZIONE ALLE FUNZIONI.
Consentono di descrivere la variabilità all’interno della distribuzione di frequenza tramite un unico valore che ne sintetizza le caratteristiche.
Il metodo STATIS (L’Hermier des Plantes, 1976; Escoufier, 1983; Lavit et al., 1994) STATIS = Structuration des Tableaux A Trois IndiceS Tecnica esplorativa.
PENSARE DA ECONOMISTI equilibrio e empirismo
Corso di Analisi Statistica per le imprese
Precorso di Statistica per le Lauree Magistrali
Differenziale di una funzione
Analisi dei flussi finanziari
Analisi dei Dati – Tabelle e Grafici
Variabili casuali a più dimensioni
Corso di Analisi Statistica per le Imprese Cross tabulation e relazioni tra variabili Prof. L. Neri a.a
GLI STRUMENTI AUSILIARI
La registrazione di un’immobilizzazione tecnica
La circonferenza nel piano cartesiano
Corso di Laurea in Scienze e tecniche psicologiche
Le equazioni di II°Grado
x : variabile indipendente
Metodi Quantitativi per Economia, Finanza e Management Lezione n°12 Regressione Logistica: Le ipotesi del modello, la stima del modello.
Esame di Analisi Multivariata dei Dati
Simulazione esame Analisi Multivariata dei Dati
L’analisi della varianza:
La circonferenza nel piano cartesiano
L’analisi del comportamento delle imprese (seconda parte)
PIANIFICAZIONE DEI TRASPORTI Regressione lineare
Analisi delle Traiettorie: Modelli di Crescita Latente (LGM)
x : variabile indipendente
Equazioni differenziali
Corso di Laurea in Scienze e Tecniche psicologiche
APPUNTI DI STATISTICA INFERENZIALE
FUNZIONI MATEMATICHE DANIELA MAIOLINO.
Intervalli di Fiducia Introduzione Intervalli di fiducia per la media – Caso varianza nota Intervalli di fiducia per la media – Caso varianza non nota.
Confronto tra diversi soggetti:
Precorso di Statistica per le Lauree Magistrali
Fisica: lezioni e problemi
INFERENZA NEL MODELLO DI REGRESSIONE LINEARE SEMPLICE
Statistica descrittiva bivariata
Analisi Cereali per la prima colazione
Momenti e valori attesi
I numeri relativi DEFINIZIONE. Si dicono numeri relativi tutti i numeri interi, razionali e irrazionali dotati di segno (positivo o negativo). ESEMPI Numeri.
Statistica descrittiva bivariata
Statistica descrittiva bivariata
Modelli politropici.
LA RETTA.
Metodi Quantitativi per Economia, Finanza e Management Lezione n°9 Regressione lineare multipla: le ipotesi del modello, la stima del modello.
Riduzione dei Dati.
Metodi Quantitativi per Economia, Finanza e Management Lezione n°9 Regressione lineare multipla: le ipotesi del modello, la stima del modello.
Esercizio La popolazione di adulti presenta una media di ansia pari a 4. Ad un campione di 35 soggetti con disturbo ossessivo compulsivo è stato somministrato.
Precorso di Statistica per le Lauree Magistrali
Corso di Analisi Statistica per le imprese
Metodi Quantitativi per Economia, Finanza e Management Lezione n° 9
Associazione tra due variabili
INFERENZA NEL MODELLO DI REGRESSIONE LINEARE SEMPLICE
Test per campioni indipendenti
I sistemi di equazioni di I grado
Ch Chimica Attività di recupero durante le vacanze di Natale
Interazioni tra v.i.: analisi di moderazione
Variabile interveniente
Statistica descrittiva bivariata
Esercitazione 8 Correzione simulazione esame AMD
AMD Esercitazione 3 Giulio Costantini.
Correlazione e regressione
Metodologia Sperimentale Agronomica / Metodi Statistici per la Ricerca Ambientale Marco Acutis a.a CdS.
Transcript della presentazione:

Corso di Laurea in Scienze e tecniche psicologiche Esame di Psicometria La regressione lineare multipla A cura di Matteo Forgiarini matteo.forgiarini@unimib.it Modificate da Giulio Costantini

Riepilogo della lezione 2 Punti Z Covarianza e correlazione Relazioni lineari tra variabili Regressione lineare semplice Correlazione e regressione non dimostrano causalità

Regressione lineare multipla

La regressione lineare multipla La regressione multipla La regressione lineare multipla Nelle precedenti analisi abbiamo ipotizzato che una variabile dipendente venga spiegata – prevista – da una sola variabile indipendente: abbiamo analizzato il modello di regressione semplice. Ma non sempre la realtà è semplice… In alcuni casi occorre utilizzare più di una variabile indipendente per spiegare (la varianza di) una variabile dipendente. Un modello di regressione che preveda 2 o più variabili indipendenti e una sola variabile dipendete è chiamato modello di regressione multipla.

La regressione lineare multipla La regressione multipla La regressione lineare multipla I coefficienti di regressione b1 b2 etc. cosa rappresentano? Nella regressione semplice i coefficienti b esprimono l’intero legame tra la x e la y. Nella regressione multipla la loro interpretazione è più complessa… Come nella regressione semplice, la costante b0 rappresenta l’intercetta della retta, ovvero il valore di y quando tutte le x hanno valore 0. Nella regressione multipla, il coefficiente bi di ogni xi esprime la variazione attesa della y al variare di un’unità della xi quando tutti gli altri predittori x assumono un valore costante (potete osservarlo facilmente dall’equazione immaginando cosa succede se tutte le X tranne una assumono un certo valore, ad esempio 0 è il caso più semplice). Si interpreta come l’effetto di una certa variabile indipendente X al netto di tutte le altre. Il coefficiente b di ogni X è chiamato coefficiente parziale di regressione tra la VI e y ed è ottenuto parzializzando l’effetto delle altre VI su y.

La regressione lineare multipla La regressione multipla La regressione lineare multipla Con spss è possibile stimare i parametri della retta di regressione multipla… Selezioniamo questa opzione per ottenere le stime dei coefficienti di un modello di regressione sia con una sola VI sia con le due VI. Nell’esempio proposto, la variabile “peso” viene considerata variabile dipendente. Il modello prevede due VI.

La regressione lineare multipla La regressione multipla La regressione lineare multipla Modello 1: regressione semplice: y=“peso”, x=“potenza del motore”. Modello 1: regressione multipla: y=“peso”, x1=“potenza”, x2=“lunghezza”. I parametri del modello di regressione multipla sono tutti significativi (p-value<0.05). Il modello con due VI infatti ottiene una proporzione di varianza spiegata (0,916) maggiore del modello con una sola VI (0,622). Possiamo concludere che utilizzare anche “lunghezza” per spiegare “peso” migliora significativamente il modello; infatti il coefficiente parziale di regressione stimato per “lunghezza” risulta significativamente diverso da 0 Notiamo come il metodo “stepwise” permetta di confrontare la bontà dei due modelli ottenuti e di verificare la significatività dei parametri di tutti i modelli. Al contrario, con il metodo “enter” vengono considerate contemporaneamente tutte le VI inserite.

La regressione lineare multipla La regressione multipla La regressione lineare multipla Continuiamo l’analisi degli output del modello di regressione multiplo… I coefficienti parziali di regressione indicano solo l’effetto diretto che ogni VI produce sulla y e vengono infatti stimati parzializzando l’effetto delle altre VI. Il segno della loro stima permette di capire la direzione della relazione (positiva o negativa) tra la VI e la y. Se il segno è positivo al crescere della VI, anche la y cresce; se il segno è negativo, ad un aumento della VI corrisponde una diminuzione della y. In particolare nel modello proposto i coefficienti indicano che il crescere della potenza del motore e della lunghezza, producono un aumento del peso dell’auto. Ma… La stima dei coefficienti parziali non ci permette di comprendere in modo chiaro il contributo unico di ogni VI: per l’analisi di un modello di regressione multipla è importante avere anche una stima della quantità di varianza della y che ogni VI permette di spiegare…

La regressione lineare multipla Il contributo unico delle VI La regressione lineare multipla In particolare occorre distinguere due indici che permettono di comprendere il contributo unico di ogni VI: Il contributo unico di una VI può essere stimato grazie al quadrato della correlazione parziale: ipotizzando che y venga spiegata da x e w, Pr2yw.x indica l’effetto di w dopo aver rimosso tutta la variabilita’ spiegata da x. Pr2yw.x indica la proporzione di varianza spiegata da w rispetto alla parte di varianza di y che non viene spiegata dalle altre variabili indipendenti. Il contributo unico di una VI, es. w, può anche essere valutato come la varianza della y spiegata unicamente da w e non dalle altre variabili indipendenti: ipotizzando che y venga spiegata da x e w, il quadrato della correlazione semi- parziale (SPSS lo chiama “parte”) tra y e w Sr2yw.x indica la varianza di y spiegata unicamente da w e non da x.La correlazione semiparziale al quadrato Sr2yw.x corrisponde anche all’incremento di R2 passando da un modello in cui x è l’unico predittore ad un modello in cui sia x sia w predicono y.

La regressione lineare multipla Il contributo unico delle VI La regressione lineare multipla e b a c X W

La regressione lineare multipla La correlazione parziale La regressione lineare multipla Per stimare i contributi unici di ogni VI in un modello di regressione multipla risulta quindi importante calcolare la matrice di correlazioni parziali tra un set di variabili...

La regressione lineare multipla La correlazione parziale La regressione lineare multipla Correlazione r di ordine zero | Correlazione parziale pr | Correlazione semiparziale sr Nell’esempio proposto, pr peso lunghezza.potenza = 0.881. È la correlazione parziale tra lunghezza e peso, tolto l’effetto di potenza. pr2=(0.881)2=0.776 indica che la porzione di varianza della variabile dipendente «potenza» spiegata da «lunghezza» una volta rimosso l’effetto di «peso», sul totale della varianza non spiegata dall’altro predittore è il 77.6%. sr peso lunghezza.potenza = 0.542 è la correlazione semiparziale tra lunghezza e peso, tolto l’effetto di peso. sr2=(0.542)2=0.294 indica la proporzione di varianza di «peso» spiegata unicamente da «lunghezza», sul totale della varianza della variabile dipendente «peso», è il 29.4%. Questo significa anche che la differenza di R2 se «lunghezza» è incluso o escluso come predittore è il 29.4% (vedi prossima slide).

includendo solo potenza o anche lunghezza come predittori La regressione lineare multipla Questa tabellina è stata calcolata in precedenza e mostra il valore di R2 includendo solo potenza o anche lunghezza come predittori R2 con solo potenza come predittore = .622 R2 con anche lunghezza come predittore = .916 Differenza = .294 Quant’è la sr2 peso lunghezza.potenza? È proprio .294!

La regressione lineare multipla L’R2 del modello La regressione lineare multipla Regr. Sempl. Regr. Mult. Notiamo come nel modello di regressione semplice la proporzione di varianza spiegata dalla VI sia coincidente con il quadrato della correlazione semplice corr(xy): R2=0,7892=0,622. Nel modello di regressione multipla è più complesso: la proporzione di varianza spiegata R2 del modello è formata dai contributi di ogni variabile… R2=r2potenza peso + sr2lunghezza peso.potenza=(0,789)2 + (0,542)2=0,622 + 0,294=0,916 R2=r2lunghezza peso + sr2potenza peso.lunghezza=(0,762)2 + (0,579)2=0,581 + 0,335=0,916

La regressione lineare multipla Una particolarità La regressione lineare multipla Notiamo che se ipotizziamo un modello di regressione semplice la correlazione semplice, parziale e semi-parziale sono uguali… perché!?! Perché in un modello di regressione semplice il legame diretto tra x e y è l’unico che vi sia… non esiste altro legame che si debba parzializzare: la proporzione di varianza spiegata di y da parte di x coincide con il contributo unico di x poiché non occorre parzializzare nessun effetto di altre VI: r2xy=pr2xy=sr2xy