Analisi multivariata
Tipi di relazioni tra variabili Stabilire l’esistenza di una covariazione tra due variabili non equivale a provare che esiste un rapporto di causazione diretta tra la variabile indipendente e la variabile dipendente.
Tipi di relazioni tra variabili Affinché il rapporto di causa effetto sussista é ovviamente necessario che la manipolazione della variabile indipendente preceda l’osservazione della variabile dipendente, ma é anche necessario che la relazione tra le due variabili non si riveli essere una relazione spuria.
Tipi di relazioni tra variabili Per verificare che una relazione sia spuria occorre passare da una analisi bivariata ad una analisi multivariata.
Relazioni spurie Una relazione spuria é una relazione di covarianzione che non deriva direttamente dall’effetto della variabile indipendente.
Relazioni spurie Esempio: relazione tra numero di pompieri e gravità dei danni prodotti da un incendio.
Relazioni spurie A= numero di pompieri, B=danni prodotti; C=gravità dell’incendio
Relazioni spurie A= numero di pompieri, B=danni prodotti; C=gravità dell’incendio Attenzione! Rimuovendo C scompare anche la covariazione tra A e B.
Relazioni spurie N.B.: Non tutte le relazioni spurie sono così facilmente individuabili come tali.
Relazioni interpretabili Si può anche dare il caso in cui l’effetto di A su B non é diretto ma é mediato da una terza variabile C che si trova al centro di una catena causale.
Relazioni interpretabili Esempio: la relazione tra A e B è interpretabile se è nota C.
Relazioni interpretabili Esempio: la relazione tra A e B è interpretabile se è nota C.
Causazione multipla il motivo sostanziale per cui é necessario considerare analisi multivariata é che raramente il comportamento oggetto di studio é determinato da un solo fattore. Più comunemente diverse cause si affiancano nel determinare gli esiti di una misura.
Causazione multipla
Causazione multipla Per valutare correttamente l’effetto delle diverse variabili indipendenti sulla variabile dipendente è necessario tenere conto delle relazioni di covarianza che possono eventualmente intercorrere tra di esse.
Causazione multipla Nel caso in cui le due variabili indipendenti siano parametriche, se si suppone che esse abbiano un effetto additivo sulla variabile dipendente si può adottare come modello di analisi dei dati il modello di regressione lineare multipla.
Regressione lineare multipla Si tratta di un disegno correlazionale. Nel caso trivariato abbiamo due predittori (X1 e X2) ed un criterio (Y).
Regressione lineare multipla Esempio: Consideriamo l’esempio in cui la variabile dipendente Y sia un indice della gravità dei sintomi psicotici in una popolazione di pazienti schizzofrenici sottoposti a terapia farmacologica e a psicoterapia.
Regressione lineare multipla Esempio: immaginiamo di voler analizzare contemporaneamente la relazione tra la durata dei due trattamenti e la gravità dei sintomi attivi.
Regressione lineare multipla Avremo quindi un disegno trivariato in cui i predittori sono: X1 = durata del trattamento farmacologico X2 = durata del trattamento psicoterapeutico mentre il criterio é Y = indice della gravità dei sintomi psicotici.
Regressione lineare multipla Avremo quindi un disegno trivariato in cui i predittori sono: X1 = durata del trattamento farmacologico X2 = durata del trattamento psicoterapeutico mentre il criterio é Y = indice della gravità dei sintomi psicotici.
Regressione lineare multipla Supponiamo di riscontrare che le due variabili indipendenti non siano tra loro correlate; possiamo visualizzare la loro relazione con Y con un diagramma di Eulero-Venn.
Regressione lineare multipla Assenza di correlazione tra i predittori
Regressione lineare multipla Potrebbe darsi tuttavia il caso che i predittori siano correlati: potremmo trovare che i sintomi psicotici più resistenti ai farmaci siano anche più difficili da trattare con la psicoterapia.
Regressione lineare multipla Presenza di correlazione tra i predittori
Regressione lineare multipla In presenza di correlazione tra i predittori abbiamo quindi una quota di variabilità di Y che é spiegata congiuntamente da X1 e X2, ed una quota di variabilità di Y che invece é spiegata separatamente dalle due variabili indipendenti.