La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

MODELLI NON PARAMETRICI

Presentazioni simili


Presentazione sul tema: "MODELLI NON PARAMETRICI"— Transcript della presentazione:

1 MODELLI NON PARAMETRICI

2 Uso dei Modelli in Statistica
Modelli come generalizzazione delle procedure Modello Lineare Generale (GLM) Regressione Logistica Modelli come descrizione di realtà sperimentali complesse Analisi Fattoriale MDS Analisi delle corrispondenze Modello di Rasch

3 Analisi dei Modelli Definizione del modello Stima dei parametri
Valutazione della bontà del modello (**Calcolo della significatività**)

4 Modelli a struttura PREDETERMINATA
Definizione della struttura del modello sulla base di ipotesi a priori Stima del valore dei parametri Calcolo dei limiti di confidenza dei parametri Calcolo della significatività Ipotesi nulla: parametri = 0 Possibile inferenza

5 Modelli a struttura STIMATA
Stima della struttura del modello sulla base dei dati sperimentali Stima del valore dei parametri *Calcolo dei limiti di confidenza dei parametri *Calcolo della significatività (su nuovi dati sperimentali) * opzionale: calcolato solo in alcune situazioni Ipotesi nulla: valori sperimentali = valori del modello Solo valore descrittivo

6 Ipotesi nulla Test statistici creati per la falsificazione dell’ipotesi nulla Asimmetria delle zone di falsificazione e non-falsificazione dell’ipotesi nulla Inadeguatezza dei test per la conferma dell’ipotesi nulla

7 Analisi della Regressione Lineare

8 Analisi della Regressione Polinomiale

9 Materiali e metodi 116 studenti divisi in modo random in due sottogruppi Questionario sulle modalità di utilizzo di Internet a cinque sottoscale con punteggi da -4 a +4 Analisi Fattoriale e Analisi della Regressione

10 Analisi Fattoriale

11 Regressione Multipla

12 Conclusione Nei modelli a struttura PREDETERMINATA l’affidabilità dei parametri viene misurata dalla loro variabilità, dai limiti di confidenza che delimitano la regione entro cui potrebbe trovarsi la ‘vera’ relazione, se le ipotesi sul modello sono corrette

13 Conclusione Nei modelli a struttura STIMATA, la struttura del modello viene determinata sui dati sperimentali ma la variabilità del numero dei parametri non viene fornita. Viene fornita una misura della loro capacità di rappresentare in modo ‘ADEGUATO’ i dati sperimentali

14 CONFRONTO FRA MODELLI PARAMETRICI E NON PARAMETRICI
“Accuracy and certainty are competitors: The surer we want to be, the less we must demand” Basic Ideas of Scientific Sampling di Alan Stuart, Griffin, London 1968

15 Variabili Qualitative
In alcuni casi il fenomeno in esame può essere valutato solo da variabili qualitative (Es. dipendenza o non dipendenza da droga) VANTAGGI: corrispondono a situazioni più definite (presenza o assenza di una patologia) SVANTAGGI: minor precisione nella misura

16 Due serie di dati correlati Due serie di dati indipendenti
TEST NON PARAMETRICI Una serie di dati - Binomiale - Chi quadrato Due serie di dati correlati - McNemar (proporzioni) -  Segno (distribuzione dei valori) - Wilcoxon Più serie di dati correlati - Friedman Due serie di dati indipendenti - Mann-Whitney -  Kolmogorov-Smirnov Più serie di dati indipendenti - Kruskall-Wallis

17 MODELLI NON PARAMETRICI
Misure di associazione Tavole di contingenza: associazione fra due variabili qualitative Modelli Log-Lineari: associazione fra più variabili qualitative Modelli Regressivi Regressione Logistica: modello generale in cui è possibile esprimere una variabile qualitativa (dicotomica) come funzione di una o più variabili sia qualitative che quantitative.

18 Regressione Logistica
Modello a struttura PREDETERMINATA per variabili qualitative dicotomiche Tecnica non parametrica

19 Regressione Logistica Procedura
La variabile è trasformata in logit ovvero legata ai fattori che la influenzano da una funzione logaritmica logit (variabile)= b0 + b1  x1 + b2  x2 …

20 Regressione Logistica
Trasforma la variabile qualitativa dicotomica (evento, non evento) in una variabile quantitativa utilizzando il parametro odds 1.Variabile 0,1 2.Probabilità 3.Odds 

21 Regressione Logistica
Per poter utilizzare una equazione nel campo dei numeri reali si esegue una ulteriore trasformazione logarimica che prende il nome di logit Odds logit (valore - )

22 Regressione Logistica
Logaritmo: funzione inversa dell’esponente Logaritmo naturale (Ln) di x è l’esponente da dare a e (numero naturale e = 2.718) per ottenere x Ln 5 = 1.6 perché = 5

23 Regressione Logistica
Proprietà dei logaritmi Ln 1 = 0 Ln 0 = -  Ln +  = + 

24 Regressione Logistica
La variabile può essere vista come funzione dei fattori in un modello regressivo: logit (variabile)= b0 + b1  x1 + b2  x2 + b3  x3

25 Regressione Logistica
2. Procedura: VALUTAZIONE della Bontà del modello - stima dei parametri b Diversi metodi di approssimazione A blocchi: valuta tutti i parametri assieme tramite il criterio di tolleranza (esclude le variabili che apportano poca informazione al modello) Per passi o per esclusione: toglie o aggiunge i parametri a seconda dell’apporto di questi alla significatività del modello

26 Regressione Logistica Procedura
Stima dei Parametri (b) viene fatta con metodo a successive approssimazioni. Il loro significato si può dedurre dall’odds ratio:

27 Regressione Logistica
Nella regressione logistica il modello non è lineare ma esponenziale e i parametri vengono scelti attraverso il principio del massimo likelyhood Il likelyhood ratio, utilizzato anche per il modello Log lineare, è la probabilità che i dati sperimentali siano stati generati dal modello

28 Regressione Logistica
3. Valutazione della bontà del modello Statistica Wald Tuttavia, la statistica Wald non può esser usata da sola poiché quando il valore assoluto di b diventa molto grande, l’errore standard sarà anche esso grande e la statistica Wald assumerà valori molto piccoli che facilmente falsificheranno l’ipotesi nulla anche quando non sarebbe da falsificare.

29 Regressione Logistica
Significatività La significatività dei parametri relativi ai fattori si può anche verificare attraverso l’intervallo di confidenza attorno all’esponenziale di b per ciascun fattore

30 Regressione Logistica
La regressione logistica fornisce le significatività per: il modello globale i singoli parametri, togliendo gli effetti dei parametri già considerati

31 Regressione Logistica
Il contributo di ciascun fattore e il senso della sua influenza sulla variabile dipendente è stimato attraverso l’esponenziale di b (odds ratio)

32 Regressione Logistica Esempio
logit (risposta aggressiva)= b0 + b1  x1 + b2  x2+ b3  x3 Dove il logit della probabilità di rispondere in modo aggressivo è visto in funzione di una costante b0 sommata al contributo dato da ciascun fattore al quale il modello ha attribuito il valore 1 moltiplicato per il suo coefficiente bn Attraverso la regressione logistica tutte le variabili categoriche vengono trasformate in variabili dicotomiche (con valori 0,1) B1 è il parametro relativo all’essere maschi B2 è il parametro relativo all’età B3 è il parametro relativo alla professione di dipendente

33 Regressione Logistica

34 Regressione Logistica

35 Regressione Logistica
Exp(b) L’esponenziale di b relativo al genere è dato dal rapporto fra l’odds di rispondere con un comportamento aggressivo essendo femmina diviso l’odds di rispondere con un comportamento aggressivo essendo maschi.

36 Analisi Log - lineare SCOPO: studia la relazione fra più di due variabili qualitative categoriche TIPO DI PROCEDURA: modello logistico applicato a una tavola di contingenza multidimensionale

37 Analisi Log lineare Tavola di contingenza multidimensionale: ogni cella è vista come combinazione di due o più variabili Esempio

38 Analisi Log lineare Applicare più test χ² per analizzare ciascuna combinazione sarebbe una procedura non corretta perché: Aumento dell’errore alpha Lettura dei risultati non comprensibile

39 Analisi Log lineare Date le tre variabili da studiare nella loro relazione è possibile analizzare: Ogni confronto binario L’interazione fra tutte le variabili

40 Analisi Log lineare Modello Log lineare attraverso un’unica procedura di analisi rappresenta tutte le possibili combinazioni in modo indipendente le une dalle altre. Struttura modello Stima dei parametri e valutazione della bontà del modello

41 Analisi Log lineare Struttura: logaritmo delle frequenze di ogni combinazione possibile in funzione dei valori delle varie componenti di classificazione Tuttavia… Scopo del modello è rappresentare adeguatamente i dati sperimentali con il numero minore di relazioni fra le variabili.

42 Analisi Log lineare Tutte le variabili sono considerate come variabili indipendenti o fattori, la variabile dipendente è il numero di casi in ogni cella, ovvero la frequenza osservata, che è proprio l’indice dell’interazione fra le variabili in studio.

43 Analisi Log lineare Stima dei parametri:
Calcolo del logaritmo delle frequenze osservate in base al modello Calcolo delle frequenze attese Confronto frequenze attese con le frequenze osservate Valutazione della bontà del modello

44 Analisi Log lineare Una volta calcolate le frequenze attese per ogni cella si calcolano i punti z dal rapporto di ciascun parametro e il suo errore standard. Per verificare se il modello rappresenta sufficientemente i dati si può considerare il test sull’ipotesi nulla che λ sia uguale a zero attraverso i limiti di falsificazione della distribuzione z.

45 Analisi Log lineare I dati sperimentali possono produrre diversi modelli Log Lineari. Il modello è definito saturo quando rappresenta tutte le possibili combinazioni fra le celle; non saturato quando solo alcune delle interazioni sono considerate.

46 Analisi Log lineare Nel modello gerarchico l’effetto interazione (definito termine di ordine superiore in quanto comprende in sé più termini) è accostato a termini di ordine inferiore. Attraverso questo modello è possibile considerare solo gli effetti di ordine superiore o inferiore

47 Analisi Log lineare Il Goodness of fit test è basato sul Χ2 e testa la probabilità che quel particolare modello (Fij ) rappresenti bene i dati sperimentali (Fij ). È calcolato tramite la formula:

48 Analisi Log lineare Il Likelyhood ratio test: la probabilità che raccolti quei dati sperimentali essi siano generati dal modello ed è dato dal logaritmo del rapporto fra valori sperimentali e teorici per tutte le possibili condizioni.

49 Tecniche descrittive Utilizzano modelli matematici per semplificare le relazioni fra le variabili in studio Il fine è la descrizione semplificata del fenomeno attraverso il modello di riferimento

50 Tecniche descrittive Metodo: il modello è creato ad hoc sui dati sperimentali Diversi livelli di complessità del modello a seconda del fenomeno in studio Esempi: distribuzioni di probabilità, analisi fattoriale, analisi discriminante, cluster analysis

51 Tecniche descrittive Applicazioni:
Indagini esplorative sui dati sperimentali per la successiva formulazione di idee Verifica della validità interna e esterna di test psicometrici

52 Analisi Discriminante
Fine: suddividere il campione in gruppi Metodo Fase di addestramento Fase di analisi

53 Analisi Discriminante
Assunti: I fattori predittivi devono avere distribuzione gaussiana I fattori devono essere scarsamente correlati fra loro Le correlazioni devono essere costanti all’interno dei gruppi Le medie e deviazioni standard dei fattori non devono essere correlate fra loro

54 Analisi Discriminante
La fase di addestramento utilizza un campione di soggetti, di cui si conosce l’appartenenza a uno dei gruppi considerati, per calcolare i parametri necessari alla classificazione di un nuovo soggetto

55 Analisi Discriminante
I valori prodotti dalla funzione discriminante hanno media = zero, varianza = 1 e garantiscano la massima differenza possibile fra le medie di gruppo

56 Analisi Discriminante
La fase di analisi applica i parametri calcolati per la classificazione di nuovi soggetti in una delle classi possibili La classificazione si basa sul calcolo di una funzione in grado di fornire un valore soglia opportunamente determinato che discrimini i gruppi

57 Analisi Discriminante
Funzione ottenuta come combinazione lineare dei parametri misurati, cioè come somma dei parametri moltiplicati per opportuni coefficienti dik= b0k+bjkxi1+…bpkxip dik è il valore della k funzione discrimante relativa al soggetto i bjk è il valore del coefficiente j per la funzione k p è il numero dei fattori predittivi xij è il valore dovuto al fattore j per il soggetto i

58 Analisi Discriminante
Parametri determinati in modo che: i valori prodotti dalla funzione discriminante abbiano media zero, varianza unitaria garantiscano la massima differenza possibile fra le medie di gruppo

59 Analisi Discriminante
Per ogni soggetto viene calcolata la probabilità di appartenere a ciascun gruppo e si procede all’assegnazione del soggetto al gruppo per cui è maggiore la probabilità di appartenenza

60 Analisi Discriminante
2 gruppi: la soglia che divide i due gruppi è situata nel punto di mezzo delle due medie di gruppo Più di 2 gruppi: le funzioni utilizzate sono tante quante il numero dei gruppi meno uno (non è possibile usare una sola soglia ma occorre calcolare la probabilità di appartenenza del soggetto al gruppo)

61 Analisi Discriminante
Al termine della fase di apprendimento è possibile riassegnare i soggetti ai gruppi di appartenenza utilizzando le funzioni discriminanti calcolate Questa operazione permette di valutare l’efficienza del sistema di classificazione

62 Analisi Discriminante
Successo dipende: dall’efficienza con cui abbiamo creato le funzioni di classificazione dalle ipotesi che abbiamo formulato dai parametri che abbiamo conseguentemente considerato

63 Analisi Discriminante
Utilizzo: Sistema di classificazione in grado di classificare ogni nuovo soggetto senza conoscere realmente a quale gruppo appartiene Individuare quali fattori incidono maggiormente nella discriminazione fra più gruppi

64 Cluster Analysis Scopo: individuare la miglior suddivisione in gruppi del campione in esame Cluster: addensamento attorno a un valore centrale in uno spazio a n dimensioni

65 Cluster Analysis Assunti:
Variabili che determinano la suddivisione devono essere a distribuzione gaussiana Individua i gruppi in modo che siano massimamente omogenei al loro interno e eterogenei fra loro

66 Cluster Analysis La distanza fra i gruppi viene calcolata sulle medie dei gruppi che devono essere il più diverse possibili Metodo per creare la distanza: Distanza euclidea: la somma dei quadrati delle differenze di tutte le variabili utilizzate (trsformate in variabili z)

67 Cluster Analysis Il numero dei gruppi è stabilito dal ricercatore in base alle considerazioni teoriche sul fenomeno in studio

68 Cluster Analysis La funzione dell’analisi dei cluster è quella di classificare i casi in un certo numero di gruppi senza che venga richiesta una preliminare identificazione dei gruppi. Questi gruppi possono essere utilizzati in ulteriori analisi statistiche per la verifica di ipotesi riguardanti nuove variabili non utilizzate nella classificazione

69 ANALISI FATTORIALE Tecnica esplorativa che indaga la relazione fra più variabili al fine di individuare un modello in grado di sintetizzare l’informazione Il modello di riferimento ha puro valore descrittivo in quanto determinato dalla procedura matematica con cui è stimato

70 Cos’è l’analisi fattoriale?
Statistica inferenziale vs Statistica descrittiva Rappresentazione delle variabili in studio. Aumentare la quantità di informazioni relative ai dati raccolti ed alle variabili considerate. Rappresentazione più efficace ed utile possibile dei dati. Semplificazione dei dati per migliorare la loro interpretazione. Confermare, dimostrare un’ipotesi di partenza. - H di partenza - Variabili dipendenti - Fattori - Strumenti di raccolta dati - Analisi dei dati - Eventuale falsificazione dell’H0

71 Cos’è l’analisi fattoriale?
Nasce in ambito medico-psicologico: Utilizzata soprattutto per validare i questionari perché fornisce informazioni relative alla struttura dei dati. E’ una procedura matematica. Spesso viene sovrastimata da molti autori. Non ci permette di arrivare alla conferma di un’H di partenza ma è una tecnica vantaggiosa, per questo ampiamente usata, che ci fornisce informazioni difficili da ottenere in altro modo.

72 Come lavora l’Analisi Fattoriale Operazioni matematiche
Variabili di partenza Quantitative, gaussiane, correlate fra loro che vengono analizzate allo stesso livello. Matrice di correlazione Estrazione di fattori ortogonali Rotazione Operazioni matematiche

73 Scopi principali 1. Riduzione del numero di variabili in studio (ma non dell’informazione). 2. Trasformazione delle varabili in studio in variabili indipendenti fra loro* 3. Individuazione delle sorgenti delle variabili** 4. Assegnazione di significato reale a tali variabili***

74 Critiche: Ruolo indiscusso: Vantaggi:
Trova variabili artificiali, aleatorie, è possibile rintracciarne un numero infinito. Sono indipendenti tra loro, per questo non riflettono la realtà psicologica dove è difficile trovare fenomeni non correlati. Ruolo indiscusso: Validazione di questionari e riduzione del numero di variabili in studio, non correlate tra loro - Riduzione delle variabili ma non dell’informazione utile. - Creazione di fattori che rappresentano la stessa realtà ma che sono indipendenti fra loro. - Non vengono considerate le differenze fra le diverse variabili. Vantaggi:

75 I OPERAZIONE: Creazione della Matrice di Correlazione
La prima matrice di correlazione estratta dall’analisi è la matrice di correlazione R. Mostra tutte le relazioni possibili tra le variabili. Le variabili vengono correlate a due a due. Due variabili sono statisticamente correlate fra loro quando al variare di una anche l’altra varia. Avremo un numero di nuove variabili, fattori, corrispondente al numero delle variabili iniziali, item. Avremo una varianza complessiva uguale al numero delle variabili iniziali, perché ogni item ha varianza 1 e media 0.

76 II OPERAZIONE: Estrazione dei Fattori
Metodi di estrazione: Metodo delle componenti principali Metodo della massima verosimiglianza Metodo dei minimi quadrati ….

77 Standardizzazione dei dati raccolti
I punteggi grezzi vengono trasformati in punti z, ovvero vengono standardizzati Una variabile gaussiana è detta variabile Z quando ha: = 0 ; S = (N = 0; 1) Semplifica i conti. Permette il confronto di punteggi appartenenti a diversi questionari. Cos’è la varianza? Può essere vista come la quantità d’informazione trasportata da ogni parametro. Maggiore è la variabilità e maggiore è l’informazione. La varianza complessiva risulta ora uguale al numero totale delle variabili considerate.

78 Metodo delle componenti principali
Tale metodo permette di creare variabili artificiali, dette fattori, fra loro ortogonali (correlazione = 0). I fattori sono combinazioni lineari delle variabili sperimentali, si ottengono cioè dalla somma dei prodotti delle singole variabili sperimentali, o meglio dei loro valori z, per gli opportuni coefficienti. Il valore e il segno di questi coefficienti indicano quanto e come il singolo fattore sia legato alle diverse variabili sperimentali. I fattori non hanno più varianza = 1 Utilizza un processo a cascata per cui il primo fattore spiega il massimo della varianza, ed è il più importante. Si avvale del calcolo degli AUTOVALORI e degli AUTOVETTORI dalla matrice di correlazione.

79 Cosa sono gli AUTOVALORI e gli AUTOVETTORI?
Vengono calcolati direttamente dalla matrice di correlazione R attraverso un processo algebrico. Autovalori = la quantità di varianza di un fattore, la comunalità. Autovettori = sono i fattori o componenti. R x AUTOVETTORE = AUTOVETTORE x AUTOVALORE AUTOVETTORE x R dev’essere uguale a se stesso a meno di una costante che si chiama AUTOVALORE.

80 Come decidere quanti fattori tenere?
1. Posso decidere un numero preciso da tenere (sottoscale). 2. Posso decidere la percentuale di informazione spiegata che voglio tenere (60-65%). 3. Tengo solo i fattori con varianza maggiore o uguale ad 1.

81 A cosa mi servono le nuove variabili?
- Compattazione dei dati. - Tengo un numero inferiore di dati, perdo una parte accettabile d’informazione ed ho una interpretazione delle variabili in studio. - Guardo il legame tra fattori e variabili di partenza. - Osservando la matrice per colonna posso indagare quanto i singoli fattori sono correlati alle variabili di partenza. - Osservando la matrice per riga è possibile decidere quali sono gli item da scartare in relazione alla loro correlazione con i fattori (quelli meno correlati).

82 E’ possibile calcolare il valore ad ogni fattore soggetto per soggetto.
Tali punteggi saranno variabili Z con media = 0 e varianza = 1. Punteggio grezzo del soggetto 1 all’item 1 Coefficiente di correlazione tra item 1 e fattore 1 X Faccio la stessa cosa con tutti gli item (1, 2, 3, …), sommo tutti i prodotti ed ottengo il punteggio del soggetto 1 al fattore 1.

83 Metodo dei minimi quadrati
Minimizza la somma dei quadrati degli scarti fra i dati osservati e la matrice di correlazione prodotta dal modello.

84 Metodo della Massima Verosimiglianza
Questa tecnica affronta la casualità in termini inversi rispetto alla probabilità: Parte dai dati sperimentali e si chiede che probabilità c’è di avere una distribuzione del fenomeno di un certo tipo. Lavora per approssimazioni successive e stima una matrice di correlazione e un’insieme di varianze che rappresentano i dati sperimentali, eliminando la ridondanza con la minima dispersione d’informazione.

85 Lo sopo principale è quello di rappresentare al meglio la realtà.
L’Analisi Fattoriale è utilizzata per studiare modelli che rappresentino al meglio la realtà, caratterizzati da legami tra item e fattori, in altre parole modelli a variabili artificiali, latenti. La tecnica della Massima Verosimiglianza ci offre la miglior rappresentazione della realtà possibile e ci da anche la misura di quanto bene riesca a rappresentarla!

86 Tale tecnica parte dall’estrazione dei fattori delle Componenti Principali.
Vengono modificati i fattori per rappresentare al meglio gli item sperimentali. Aumenta e diminuisce la varianza dei fattori e contemporaneamente vengono modificati anche gli altri fattori finchè non trova la combinazione di fattori, varianze, che rappresentano al meglio la realtà. Quando fermarsi? Ogni volta che si fa una modifica viene applicato il test del Chi2 per misurare la bontà dell’adattamento dei dati. La significatività indica che la modifica apportata è significativamente migliore rispetto ai fattori delle Componenti Principali (e della modifica precedente). Il valore reale (dati grezzi) è differente dal valore dei fattori (calcolato), così il Chi2 confronta le due situazioni relative agli stessi dati e ci dice quanto è reale la rappresentazione attuale.

87 Ottengo anche in questo caso delle variabili ortogonali ma non avrò il primo fattore con la maggior quantità d’informazione spiegata e i fattori successivi con varianza man mano sempre minore. C’è una distribuzione equa, più simile possibile alla realtà dell’informazione. Per creare fattori non ridondanti non è necessario creare un fattore principale con effetto a cascata sulla quantità di varianza degli altri, anzi la maggior parte dei questionari distribuisce in modo equo l’informazione fra i diversi item..

88 Massima Verosimiglianza Componenti Principali
Calcola i fattori attraverso una formula diretta. Offre la miglior condensazione di varianza,con la minima dispersione d’informazione; questo non significa che rappresenta la realtà nel miglior modo. Al variare del numero di fattori da tenere l’ analisi non cambia Usa la tecnica delle approssimazioni successive. Trova i fattori che meglio rappresentano la realtà. Non lavora con troppe o troppo poche variabili. Se vario il numero di fattori che sono interessato a tenere devo rifare l’analisi. Maggiore sarà il numero delle variabili di partenza e maggiore sarà la differenza dei risultati delle due analisi.

89 III Operazione: Rotazione dei fattori
Modifica la relazione esistente tra item e fattori attraverso una rotazione dei fattori. Con la rotazione operiamo una combinazione lineare dei fattori di partenza in modo da modificare la loro relazione con gli item. Tali fattori possono rimanere fra loro ortogonali oppure divenire non ortogonali. Nasce principalmente da due critiche: Vengono scoperte variabili latenti indipendenti. Vengono dati dei nomi ai fattori. La rotazione rende i fattori maggiormente interpretabili. Una diversa interpretazione dei fattori, e del loro legame con gli item, modifica l’interpretazione, il significato della ricerca!

90 La rotazione può essere ORTOGONALE oppure OBLIQUA.
Mentre la rotazione ORTOGONALE mantiene l’indipendenza dei fattori, la rotazione OBLIQUA rende i fattori correlati fra loro. Le rotazioni sono meglio interpretabili attraverso un grafico cartesiano dove gli assi rappresentano i fattori e le coordinate sono date dalle correlazioni della matrice R. Con la rotazione ORTOGONALE ruoto rigidamente gli assi cartesiani ed essi rimangono ortogonali e la somma totale delle varianze rimane uguale al totale della variabili di partenza. Con la rotazione OBLIQUA gli assi cartesiani non sono più perpendicolari fra loro ma obliqui, quindi non sono più indipendenti ma correlati e la somma totale delle varianze non corrisponderà più al numero totale delle variabili di partenza.

91 Tecniche di rotazione:
Varimax Method. Effettua una rotazione ortogonale che minimizza il numero di variabili che sono fortemente correlate con ogni fattore. Il peso dei fattori è così distribuito più uniformemente e l’interpretazione dei fattori è semplificata. Quartimax Method. Ha un funzionamento opposto a quello della Varimax. Minimizza il numero di fattori necessari a spiegare ciascuna variabile. Semplifica la spiegazione delle variabili osservate. Equamax Method. È una combinazione fra il varimax e il quartimax. Oblimin Rotation: Rotazione obliqua che cerca di adattare i fattori agli item e li correla. Promax Rotation. Rotazione obliqua. E’ un metodo più diretto che cerca la rotazione che meglio si adatta a rappresentare i fattori con un singolo item e lo fa direttamente.

92 MISURA della CORRELAZIONE

93 Correlazione fra più variabili di uno stesso campione
Analisi della correlazione Analisi della regressione Analisi della covarianza Analisi della correlazione parziale

94 Analisi della Correlazione
Scopo: analizzare la relazione fra variabili quantitative (a distribuzione gaussiana o non gaussiana) Fornisce sia il senso della relazione che la significatività

95 Analisi della Correlazione
Correlazioni parametriche: r di Pearson Correlazioni non parametriche: Tau di Kendall Rho di Spearman

96 Analisi della Correlazione
r di Pearson Misura dell’associazione lineare fa due variabili. I valori del coefficiente vanno da -1 a 1. Il segno del coefficiente indica una relazione positiva o negativa. Il suo valore assoluto indica la forza della relazione. Dipende dalla numerosità campionaria quindi va associato alla significatività

97 Analisi della Correlazione
Tau di Kendall Rho di Spearman Entrambi misura dell’associazione non parametrica basata su dati o ordinali o a ranghi. I valori di entrambi i coefficienti vanno da -1 a 1. Il segno del coefficiente indica una relazione positiva o negativa. Il suo valore assoluto indica la forza della relazione. Dipendono dalla numerosità campionaria quindi va associato alla significatività Esempio

98 Analisi della Correlazione
Utilizzi Misura dell’associazione fra variabili Verifica dell’attendibilità e della validità di questionari

99 Relazione fra risultati prodotti da diverse ricerche
Misura dell’effect-size Meta analisi Review

100 Effect size o forza dell’effetto
Grado con cui il fenomeno è presente nella popolazione Intensità della relazione fra fattore e variabile dipendente Confronto fra variabilità dovuta ai fattori e la variabilità totale Variabilità misurata come varianza spiegata Diversi indici a seconda dei dati e dei test utilizzati

101 Meta Analisi Scopo: permette di confrontare i risultati di diverse ricerche riguardanti uno stesso argomento nonostante siano basate su numerosità campionaria diverse e diversi test statistici utilizzati Finalità: comprendere il funzionamento del fenomeno da studi diversi a volte discordanti

102 Meta Analisi Per evitare di fare confronti inutili occorre specificare ovvero delimitare l’ambito di analisi in modo da semplificare il problema e quindi l’interpretazione dei risultati Limitare le variabili in studio e eventualmente applicare più di una metanalisi ES. Studio dell’effetto dell’ansia sulle prestazioni cognitive: quali indici di ansia considerare?

103 Raccolta e codifica degli studi
Meta Analisi Procedimento: Raccolta e codifica degli studi Calcolo degli indici di confronto Sintesi: calcolo dell’effetto medio Interpretazione dei risultati

104 Meta Analisi: 1. Raccolta e codifica
Gli studi raccolti devono essere adeguati e di ampia numerosità per evitare l’errore dovuto alle pubblicazioni (pubblication bias) e all’errore di campionamento Definire l’ipotesi di riferimento che specifica le variabili da utilizzare (fattori o predittori, covariate o moderatori) Pesare gli studi in base alla correttezza metodologica (es attraverso intention to treat analysis)

105 Meta Analisi: 2. Calcolo degli indici di confronto
Valutazione delle differenze fra le medie rapportate alla deviazione standard casuale Tale valutazione, nel caso di due gruppi indipendenti, può essere calcolata dalla formula

106 Meta Analisi: 2. Calcolo degli indici di confronto
Nel caso conosciamo solo la numerosità dei gruppi e il valore del parametro t possiamo ottenere lo stesso indice dalla formula

107 Meta Analisi: 3. Calcolo dell’effetto medio
Effetto medio: media degli effetti nelle diverse ricerche effettuate Permette di ottenere una valutazione complessiva dei risultati

108 Meta Analisi: 4. Interpretazione
Permette di trasformare le descrizioni delle ricerche effettuate su un particolare argomento in una valutazione obiettiva dei risultati ottenuti Tuttavia necessitano di una interpretazione dettagliata e motivata dell’analisi Inoltre considera solo le ricerche pubblicate


Scaricare ppt "MODELLI NON PARAMETRICI"

Presentazioni simili


Annunci Google