La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

MODELLI NON PARAMETRICI. Uso dei Modelli in Statistica Modelli come generalizzazione delle procedure *Modello Lineare Generale (GLM) *Regressione Logistica.

Presentazioni simili


Presentazione sul tema: "MODELLI NON PARAMETRICI. Uso dei Modelli in Statistica Modelli come generalizzazione delle procedure *Modello Lineare Generale (GLM) *Regressione Logistica."— Transcript della presentazione:

1 MODELLI NON PARAMETRICI

2 Uso dei Modelli in Statistica Modelli come generalizzazione delle procedure *Modello Lineare Generale (GLM) *Regressione Logistica Modelli come descrizione di realtà sperimentali complesse *Analisi Fattoriale *MDS *Analisi delle corrispondenze *Modello di Rasch

3 Analisi dei Modelli 1.Definizione del modello 2.Stima dei parametri 3.Valutazione della bontà del modello 4.(**Calcolo della significatività**)

4 Modelli a struttura PREDETERMINATA Definizione della struttura del modello sulla base di ipotesi a priori Stima del valore dei parametri Calcolo dei limiti di confidenza dei parametri Calcolo della significatività *Ipotesi nulla: parametri = 0 *Possibile inferenza

5 Modelli a struttura STIMATA Stima della struttura del modello sulla base dei dati sperimentali Stima del valore dei parametri *Calcolo dei limiti di confidenza dei parametri *Calcolo della significatività (su nuovi dati sperimentali) * opzionale: calcolato solo in alcune situazioni *Ipotesi nulla: valori sperimentali = valori del modello *Solo valore descrittivo

6 Ipotesi nulla Test statistici creati per la falsificazione dellipotesi nulla Asimmetria delle zone di falsificazione e non-falsificazione dellipotesi nulla Inadeguatezza dei test per la conferma dellipotesi nulla

7 Analisi della Regressione Lineare

8 Analisi della Regressione Polinomiale

9 Materiali e metodi 116 studenti divisi in modo random in due sottogruppi Questionario sulle modalità di utilizzo di Internet a cinque sottoscale con punteggi da -4 a +4 Analisi Fattoriale e Analisi della Regressione

10 Analisi Fattoriale

11 Regressione Multipla

12 Conclusione Nei modelli a struttura PREDETERMINATA laffidabilità dei parametri viene misurata dalla loro variabilità, dai limiti di confidenza che delimitano la regione entro cui potrebbe trovarsi la vera relazione, se le ipotesi sul modello sono corrette

13 Nei modelli a struttura STIMATA, la struttura del modello viene determinata sui dati sperimentali ma la variabilità del numero dei parametri non viene fornita. Viene fornita una misura della loro capacità di rappresentare in modo ADEGUATO i dati sperimentali Conclusione

14 CONFRONTO FRA MODELLI PARAMETRICI E NON PARAMETRICI Accuracy and certainty are competitors: The surer we want to be, the less we must demand Basic Ideas of Scientific Sampling di Alan Stuart, Griffin, London 1968

15 Variabili Qualitative In alcuni casi il fenomeno in esame può essere valutato solo da variabili qualitative (Es. dipendenza o non dipendenza da droga) VANTAGGI: corrispondono a situazioni più definite (presenza o assenza di una patologia) SVANTAGGI: minor precisione nella misura

16 TEST NON PARAMETRICI Una serie di dati - Binomiale - Chi quadrato Due serie di dati correlati - McNemar (proporzioni) - Segno (distribuzione dei valori) - Wilcoxon Più serie di dati correlati - Friedman Due serie di dati indipendenti - Mann-Whitney - Kolmogorov-Smirnov Più serie di dati indipendenti - Kruskall-Wallis

17 MODELLI NON PARAMETRICI Misure di associazione Tavole di contingenza: associazione fra due variabili qualitative Modelli Log-Lineari: associazione fra più variabili qualitative Modelli Regressivi Regressione Logistica: modello generale in cui è possibile esprimere una variabile qualitativa (dicotomica) come funzione di una o più variabili sia qualitative che quantitative.

18 Regressione Logistica Modello a struttura PREDETERMINATA per variabili qualitative dicotomiche Tecnica non parametrica

19 Procedura 1.La variabile è trasformata in logit ovvero legata ai fattori che la influenzano da una funzione logaritmica logit (variabile)= b 0 + b 1 x 1 + b 2 x 2 …

20 Trasforma la variabile qualitativa dicotomica (evento, non evento) in una variabile quantitativa utilizzando il parametro odds 1.Variabile0,1 2.Probabilità Odds 0

21 Per poter utilizzare una equazione nel campo dei numeri reali si esegue una ulteriore trasformazione logarimica che prende il nome di logit Oddslogit (valore )

22 Logaritmo: funzione inversa dellesponente Logaritmo naturale (Ln) di x è lesponente da dare a e (numero naturale e = 2.718) per ottenere x Ln 5 = 1.6 perché = 5

23 Proprietà dei logaritmi Ln 1 = 0 Ln 0 = - Ln + = +

24 La variabile può essere vista come funzione dei fattori in un modello regressivo: logit (variabile)= b 0 + b 1 x 1 + b 2 x 2 + b 3 x 3

25 2. Procedura: VALUTAZIONE della Bontà del modello - stima dei parametri b Diversi metodi di approssimazione –A blocchi: valuta tutti i parametri assieme tramite il criterio di tolleranza (esclude le variabili che apportano poca informazione al modello) –Per passi o per esclusione: toglie o aggiunge i parametri a seconda dellapporto di questi alla significatività del modello

26 Procedura 2.Stima dei Parametri (b) viene fatta con metodo a successive approssimazioni. Il loro significato si può dedurre dallodds ratio:

27 Nella regressione logistica il modello non è lineare ma esponenziale e i parametri vengono scelti attraverso il principio del massimo likelyhood Il likelyhood ratio, utilizzato anche per il modello Log lineare, è la probabilità che i dati sperimentali siano stati generati dal modello

28 3. Valutazione della bontà del modello Statistica Wald Tuttavia, la statistica Wald non può esser usata da sola poiché quando il valore assoluto di b diventa molto grande, lerrore standard sarà anche esso grande e la statistica Wald assumerà valori molto piccoli che facilmente falsificheranno lipotesi nulla anche quando non sarebbe da falsificare.

29 Significatività La significatività dei parametri relativi ai fattori si può anche verificare attraverso lintervallo di confidenza attorno allesponenziale di b per ciascun fattore

30 La regressione logistica fornisce le significatività per: il modello globale i singoli parametri, togliendo gli effetti dei parametri già considerati

31 Il contributo di ciascun fattore e il senso della sua influenza sulla variabile dipendente è stimato attraverso lesponenziale di b (odds ratio)

32 Esempio logit (risposta aggressiva)= b 0 + b 1 x 1 + b 2 x 2 + b 3 x 3 Dove il logit della probabilità di rispondere in modo aggressivo è visto in funzione di una costante b 0 sommata al contributo dato da ciascun fattore al quale il modello ha attribuito il valore 1 moltiplicato per il suo coefficiente b n Attraverso la regressione logistica tutte le variabili categoriche vengono trasformate in variabili dicotomiche (con valori 0,1) B1 è il parametro relativo allessere maschi B2 è il parametro relativo alletà B3 è il parametro relativo alla professione di dipendente

33

34

35 Exp(b) Lesponenziale di b relativo al genere è dato dal rapporto fra lodds di rispondere con un comportamento aggressivo essendo femmina diviso lodds di rispondere con un comportamento aggressivo essendo maschi.

36 SCOPO: studia la relazione fra più di due variabili qualitative categoriche TIPO DI PROCEDURA: modello logistico applicato a una tavola di contingenza multidimensionale Analisi Log - lineare

37 Tavola di contingenza multidimensionale: ogni cella è vista come combinazione di due o più variabili Esempio

38 Applicare più test χ² per analizzare ciascuna combinazione sarebbe una procedura non corretta perché: Aumento dellerrore alpha Lettura dei risultati non comprensibile

39 Date le tre variabili da studiare nella loro relazione è possibile analizzare: Ogni confronto binario Linterazione fra tutte le variabili

40 Modello Log lineare attraverso ununica procedura di analisi rappresenta tutte le possibili combinazioni in modo indipendente le une dalle altre. 1.Struttura modello 2.Stima dei parametri e valutazione della bontà del modello

41 Struttura: logaritmo delle frequenze di ogni combinazione possibile in funzione dei valori delle varie componenti di classificazione Tuttavia… Scopo del modello è rappresentare adeguatamente i dati sperimentali con il numero minore di relazioni fra le variabili.

42 Tutte le variabili sono considerate come variabili indipendenti o fattori, la variabile dipendente è il numero di casi in ogni cella, ovvero la frequenza osservata, che è proprio lindice dellinterazione fra le variabili in studio.

43 Stima dei parametri: 1.Calcolo del logaritmo delle frequenze osservate in base al modello 2.Calcolo delle frequenze attese 3.Confronto frequenze attese con le frequenze osservate 4.Valutazione della bontà del modello

44 Una volta calcolate le frequenze attese per ogni cella si calcolano i punti z dal rapporto di ciascun parametro e il suo errore standard. Per verificare se il modello rappresenta sufficientemente i dati si può considerare il test sullipotesi nulla che λ sia uguale a zero attraverso i limiti di falsificazione della distribuzione z.

45 I dati sperimentali possono produrre diversi modelli Log Lineari. Il modello è definito saturo quando rappresenta tutte le possibili combinazioni fra le celle; non saturato quando solo alcune delle interazioni sono considerate.

46 Nel modello gerarchico leffetto interazione (definito termine di ordine superiore in quanto comprende in sé più termini) è accostato a termini di ordine inferiore. Attraverso questo modello è possibile considerare solo gli effetti di ordine superiore o inferiore

47 Il Goodness of fit test è basato sul Χ 2 e testa la probabilità che quel particolare modello (F ij ) rappresenti bene i dati sperimentali (F ij ). È calcolato tramite la formula:

48 Il Likelyhood ratio test: la probabilità che raccolti quei dati sperimentali essi siano generati dal modello ed è dato dal logaritmo del rapporto fra valori sperimentali e teorici per tutte le possibili condizioni.

49 Tecniche descrittive Utilizzano modelli matematici per semplificare le relazioni fra le variabili in studio Il fine è la descrizione semplificata del fenomeno attraverso il modello di riferimento

50 Tecniche descrittive Metodo: il modello è creato ad hoc sui dati sperimentali Diversi livelli di complessità del modello a seconda del fenomeno in studio Esempi: distribuzioni di probabilità, analisi fattoriale, analisi discriminante, cluster analysis

51 Tecniche descrittive Applicazioni: Indagini esplorative sui dati sperimentali per la successiva formulazione di idee Verifica della validità interna e esterna di test psicometrici

52 Analisi Discriminante Fine: suddividere il campione in gruppi Metodo 1.Fase di addestramento 2.Fase di analisi

53 Analisi Discriminante Assunti: I fattori predittivi devono avere distribuzione gaussiana I fattori devono essere scarsamente correlati fra loro Le correlazioni devono essere costanti allinterno dei gruppi Le medie e deviazioni standard dei fattori non devono essere correlate fra loro

54 Analisi Discriminante La fase di addestramento utilizza un campione di soggetti, di cui si conosce lappartenenza a uno dei gruppi considerati, per calcolare i parametri necessari alla classificazione di un nuovo soggetto

55 Analisi Discriminante I valori prodotti dalla funzione discriminante hanno media = zero, varianza = 1 e garantiscano la massima differenza possibile fra le medie di gruppo

56 Analisi Discriminante La fase di analisi applica i parametri calcolati per la classificazione di nuovi soggetti in una delle classi possibili La classificazione si basa sul calcolo di una funzione in grado di fornire un valore soglia opportunamente determinato che discrimini i gruppi

57 Analisi Discriminante Funzione ottenuta come combinazione lineare dei parametri misurati, cioè come somma dei parametri moltiplicati per opportuni coefficienti d ik = b 0k +b jk x i1 +…b pk x ip d ik è il valore della k funzione discrimante relativa al soggetto i b jk è il valore del coefficiente j per la funzione k p è il numero dei fattori predittivi x ij è il valore dovuto al fattore j per il soggetto i

58 Analisi Discriminante Parametri determinati in modo che: 1. i valori prodotti dalla funzione discriminante abbiano media zero, varianza unitaria 2.garantiscano la massima differenza possibile fra le medie di gruppo

59 Analisi Discriminante Per ogni soggetto viene calcolata la probabilità di appartenere a ciascun gruppo e si procede allassegnazione del soggetto al gruppo per cui è maggiore la probabilità di appartenenza

60 Analisi Discriminante 2 gruppi: la soglia che divide i due gruppi è situata nel punto di mezzo delle due medie di gruppo Più di 2 gruppi: le funzioni utilizzate sono tante quante il numero dei gruppi meno uno (non è possibile usare una sola soglia ma occorre calcolare la probabilità di appartenenza del soggetto al gruppo)

61 Analisi Discriminante Al termine della fase di apprendimento è possibile riassegnare i soggetti ai gruppi di appartenenza utilizzando le funzioni discriminanti calcolate Questa operazione permette di valutare lefficienza del sistema di classificazione

62 Analisi Discriminante Successo dipende: dallefficienza con cui abbiamo creato le funzioni di classificazione dalle ipotesi che abbiamo formulato dai parametri che abbiamo conseguentemente considerato

63 Analisi Discriminante Utilizzo: Sistema di classificazione in grado di classificare ogni nuovo soggetto senza conoscere realmente a quale gruppo appartiene Individuare quali fattori incidono maggiormente nella discriminazione fra più gruppi

64 Cluster Analysis Scopo: individuare la miglior suddivisione in gruppi del campione in esame Cluster: addensamento attorno a un valore centrale in uno spazio a n dimensioni

65 Cluster Analysis Assunti: Variabili che determinano la suddivisione devono essere a distribuzione gaussiana Individua i gruppi in modo che siano massimamente omogenei al loro interno e eterogenei fra loro

66 Cluster Analysis La distanza fra i gruppi viene calcolata sulle medie dei gruppi che devono essere il più diverse possibili Metodo per creare la distanza: Distanza euclidea: la somma dei quadrati delle differenze di tutte le variabili utilizzate (trsformate in variabili z)

67 Cluster Analysis Il numero dei gruppi è stabilito dal ricercatore in base alle considerazioni teoriche sul fenomeno in studio

68 Cluster Analysis La funzione dellanalisi dei cluster è quella di classificare i casi in un certo numero di gruppi senza che venga richiesta una preliminare identificazione dei gruppi. Questi gruppi possono essere utilizzati in ulteriori analisi statistiche per la verifica di ipotesi riguardanti nuove variabili non utilizzate nella classificazione

69 ANALISI FATTORIALE Tecnica esplorativa che indaga la relazione fra più variabili al fine di individuare un modello in grado di sintetizzare linformazione Il modello di riferimento ha puro valore descrittivo in quanto determinato dalla procedura matematica con cui è stimato

70 Cosè lanalisi fattoriale? Statistica descrittiva Rappresentazione delle variabili in studio. Aumentare la quantità di informazioni relative ai dati raccolti ed alle variabili considerate. Rappresentazione più efficace ed utile possibile dei dati. Semplificazione dei dati per migliorare la loro interpretazione. Statistica inferenziale vs Confermare, dimostrare unipotesi di partenza. - H di partenza - Variabili dipendenti - Fattori - Strumenti di raccolta dati - Analisi dei dati - Eventuale falsificazione dellH0

71 Nasce in ambito medico-psicologico: Utilizzata soprattutto per validare i questionari perché fornisce informazioni relative alla struttura dei dati. E una procedura matematica. Spesso viene sovrastimata da molti autori. Non ci permette di arrivare alla conferma di unH di partenza ma è una tecnica vantaggiosa, per questo ampiamente usata, che ci fornisce informazioni difficili da ottenere in altro modo. Cosè lanalisi fattoriale?

72 Come lavora lAnalisi Fattoriale Variabili di partenza Operazioni matematiche Quantitative, gaussiane, correlate fra loro che vengono analizzate allo stesso livello. Matrice di correlazione Estrazione di fattori ortogonali Rotazione

73 Scopi principali 2. Trasformazione delle varabili in studio in variabili indipendenti fra loro* 1. Riduzione del numero di variabili in studio (ma non dellinformazione). 3. Individuazione delle sorgenti delle variabili** 4. Assegnazione di significato reale a tali variabili***

74 Trova variabili artificiali, aleatorie, è possibile rintracciarne un numero infinito. Sono indipendenti tra loro, per questo non riflettono la realtà psicologica dove è difficile trovare fenomeni non correlati. Validazione di questionari e riduzione del numero di variabili in studio, non correlate tra loro - Riduzione delle variabili ma non dellinformazione utile. - Creazione di fattori che rappresentano la stessa realtà ma che sono indipendenti fra loro. - Non vengono considerate le differenze fra le diverse variabili. Ruolo indiscusso: Vantaggi: Critiche:

75 I OPERAZIONE: Creazione della Matrice di Correlazione La prima matrice di correlazione estratta dallanalisi è la matrice di correlazione R. Mostra tutte le relazioni possibili tra le variabili. Le variabili vengono correlate a due a due. Due variabili sono statisticamente correlate fra loro quando al variare di una anche laltra varia. Avremo un numero di nuove variabili, fattori, corrispondente al numero delle variabili iniziali, item. Avremo una varianza complessiva uguale al numero delle variabili iniziali, perché ogni item ha varianza 1 e media 0.

76 II OPERAZIONE: Estrazione dei Fattori Metodi di estrazione: - Metodo delle componenti principali - Metodo della massima verosimiglianza - Metodo dei minimi quadrati - ….

77 I punteggi grezzi vengono trasformati in punti z, ovvero vengono standardizzati Standardizzazione dei dati raccolti Una variabile gaussiana è detta variabile Z quando ha: = 0 ; S = 1 (N = 0; 1) Semplifica i conti. Permette il confronto di punteggi appartenenti a diversi questionari. Cosè la varianza? Può essere vista come la quantità dinformazione trasportata da ogni parametro. Maggiore è la variabilità e maggiore è linformazione. La varianza complessiva risulta ora uguale al numero totale delle variabili considerate.

78 Metodo delle componenti principali Tale metodo permette di creare variabili artificiali, dette fattori, fra loro ortogonali (correlazione = 0). I fattori sono combinazioni lineari delle variabili sperimentali, si ottengono cioè dalla somma dei prodotti delle singole variabili sperimentali, o meglio dei loro valori z, per gli opportuni coefficienti. Il valore e il segno di questi coefficienti indicano quanto e come il singolo fattore sia legato alle diverse variabili sperimentali. I fattori non hanno più varianza = 1 Utilizza un processo a cascata per cui il primo fattore spiega il massimo della varianza, ed è il più importante. Si avvale del calcolo degli AUTOVALORI e degli AUTOVETTORI dalla matrice di correlazione.

79 Cosa sono gli AUTOVALORI e gli AUTOVETTORI? Vengono calcolati direttamente dalla matrice di correlazione R attraverso un processo algebrico. Autovalori = la quantità di varianza di un fattore, la comunalità. Autovettori = sono i fattori o componenti. R x AUTOVETTORE = AUTOVETTORE x AUTOVALORE AUTOVETTORE x R devessere uguale a se stesso a meno di una costante che si chiama AUTOVALORE.

80 Come decidere quanti fattori tenere? 1. Posso decidere un numero preciso da tenere (sottoscale). 2. Posso decidere la percentuale di informazione spiegata che voglio tenere (60-65%). 3. Tengo solo i fattori con varianza maggiore o uguale ad 1.

81 A cosa mi servono le nuove variabili? - Compattazione dei dati. - Tengo un numero inferiore di dati, perdo una parte accettabile dinformazione ed ho una interpretazione delle variabili in studio. - Guardo il legame tra fattori e variabili di partenza. - Osservando la matrice per colonna posso indagare quanto i singoli fattori sono correlati alle variabili di partenza. - Osservando la matrice per riga è possibile decidere quali sono gli item da scartare in relazione alla loro correlazione con i fattori (quelli meno correlati).

82 E possibile calcolare il valore ad ogni fattore soggetto per soggetto. Tali punteggi saranno variabili Z con media = 0 e varianza = 1. Punteggio grezzo del soggetto 1 allitem 1 Coefficiente di correlazione tra item 1 e fattore 1 Faccio la stessa cosa con tutti gli item (1, 2, 3, …), sommo tutti i prodotti ed ottengo il punteggio del soggetto 1 al fattore 1. X

83 Metodo dei minimi quadrati Minimizza la somma dei quadrati degli scarti fra i dati osservati e la matrice di correlazione prodotta dal modello.

84 Metodo della Massima Verosimiglianza Questa tecnica affronta la casualità in termini inversi rispetto alla probabilità: Parte dai dati sperimentali e si chiede che probabilità cè di avere una distribuzione del fenomeno di un certo tipo. Lavora per approssimazioni successive e stima una matrice di correlazione e uninsieme di varianze che rappresentano i dati sperimentali, eliminando la ridondanza con la minima dispersione dinformazione.

85 Lo sopo principale è quello di rappresentare al meglio la realtà. LAnalisi Fattoriale è utilizzata per studiare modelli che rappresentino al meglio la realtà, caratterizzati da legami tra item e fattori, in altre parole modelli a variabili artificiali, latenti. La tecnica della Massima Verosimiglianza ci offre la miglior rappresentazione della realtà possibile e ci da anche la misura di quanto bene riesca a rappresentarla!

86 Tale tecnica parte dallestrazione dei fattori delle Componenti Principali. Vengono modificati i fattori per rappresentare al meglio gli item sperimentali. Aumenta e diminuisce la varianza dei fattori e contemporaneamente vengono modificati anche gli altri fattori finchè non trova la combinazione di fattori, varianze, che rappresentano al meglio la realtà. Quando fermarsi? Ogni volta che si fa una modifica viene applicato il test del Chi2 per misurare la bontà delladattamento dei dati. La significatività indica che la modifica apportata è significativamente migliore rispetto ai fattori delle Componenti Principali (e della modifica precedente). Il valore reale (dati grezzi) è differente dal valore dei fattori (calcolato), così il Chi2 confronta le due situazioni relative agli stessi dati e ci dice quanto è reale la rappresentazione attuale.

87 Ottengo anche in questo caso delle variabili ortogonali ma non avrò il primo fattore con la maggior quantità dinformazione spiegata e i fattori successivi con varianza man mano sempre minore. Cè una distribuzione equa, più simile possibile alla realtà dellinformazione. Per creare fattori non ridondanti non è necessario creare un fattore principale con effetto a cascata sulla quantità di varianza degli altri, anzi la maggior parte dei questionari distribuisce in modo equo linformazione fra i diversi item..

88 Componenti Principali Massima Verosimiglianza Calcola i fattori attraverso una formula diretta. Offre la miglior condensazione di varianza,con la minima dispersione dinformazione; questo non significa che rappresenta la realtà nel miglior modo. Al variare del numero di fattori da tenere l analisi non cambia Usa la tecnica delle approssimazioni successive. Trova i fattori che meglio rappresentano la realtà. Non lavora con troppe o troppo poche variabili. Se vario il numero di fattori che sono interessato a tenere devo rifare lanalisi. Maggiore sarà il numero delle variabili di partenza e maggiore sarà la differenza dei risultati delle due analisi.

89 Modifica la relazione esistente tra item e fattori attraverso una rotazione dei fattori. Con la rotazione operiamo una combinazione lineare dei fattori di partenza in modo da modificare la loro relazione con gli item. Tali fattori possono rimanere fra loro ortogonali oppure divenire non ortogonali. III Operazione: Rotazione dei fattori Nasce principalmente da due critiche: 1.Vengono scoperte variabili latenti indipendenti. 2.Vengono dati dei nomi ai fattori. La rotazione rende i fattori maggiormente interpretabili. Una diversa interpretazione dei fattori, e del loro legame con gli item, modifica linterpretazione, il significato della ricerca!

90 Mentre la rotazione ORTOGONALE mantiene lindipendenza dei fattori, la rotazione OBLIQUA rende i fattori correlati fra loro. Con la rotazione ORTOGONALE ruoto rigidamente gli assi cartesiani ed essi rimangono ortogonali e la somma totale delle varianze rimane uguale al totale della variabili di partenza. Con la rotazione OBLIQUA gli assi cartesiani non sono più perpendicolari fra loro ma obliqui, quindi non sono più indipendenti ma correlati e la somma totale delle varianze non corrisponderà più al numero totale delle variabili di partenza. Le rotazioni sono meglio interpretabili attraverso un grafico cartesiano dove gli assi rappresentano i fattori e le coordinate sono date dalle correlazioni della matrice R. La rotazione può essere ORTOGONALE oppure OBLIQUA.

91 Varimax Method. Effettua una rotazione ortogonale che minimizza il numero di variabili che sono fortemente correlate con ogni fattore. Il peso dei fattori è così distribuito più uniformemente e linterpretazione dei fattori è semplificata. Tecniche di rotazione: Quartimax Method. Ha un funzionamento opposto a quello della Varimax. Minimizza il numero di fattori necessari a spiegare ciascuna variabile. Semplifica la spiegazione delle variabili osservate. Equamax Method. È una combinazione fra il varimax e il quartimax. Oblimin Rotation: Rotazione obliqua che cerca di adattare i fattori agli item e li correla. Promax Rotation. Rotazione obliqua. E un metodo più diretto che cerca la rotazione che meglio si adatta a rappresentare i fattori con un singolo item e lo fa direttamente.

92 MISURA della CORRELAZIONE

93 Correlazione fra più variabili di uno stesso campione Analisi della correlazione Analisi della regressione Analisi della covarianza Analisi della correlazione parziale

94 Analisi della Correlazione Scopo: analizzare la relazione fra variabili quantitative (a distribuzione gaussiana o non gaussiana) Fornisce sia il senso della relazione che la significatività

95 Analisi della Correlazione Correlazioni parametriche: r di Pearson Correlazioni non parametriche: Tau di Kendall Rho di Spearman

96 Analisi della Correlazione r di Pearson Misura dellassociazione lineare fa due variabili. I valori del coefficiente vanno da -1 a 1. Il segno del coefficiente indica una relazione positiva o negativa. Il suo valore assoluto indica la forza della relazione. Dipende dalla numerosità campionaria quindi va associato alla significatività

97 Analisi della Correlazione Tau di Kendall Rho di Spearman Entrambi misura dellassociazione non parametrica basata su dati o ordinali o a ranghi. I valori di entrambi i coefficienti vanno da -1 a 1. Il segno del coefficiente indica una relazione positiva o negativa. Il suo valore assoluto indica la forza della relazione. Dipendono dalla numerosità campionaria quindi va associato alla significatività Esempio

98 Analisi della Correlazione Utilizzi Misura dellassociazione fra variabili Verifica dellattendibilità e della validità di questionari

99 Relazione fra risultati prodotti da diverse ricerche Misura delleffect-size Meta analisi Review

100 Effect size o forza delleffetto Grado con cui il fenomeno è presente nella popolazione Intensità della relazione fra fattore e variabile dipendente Confronto fra variabilità dovuta ai fattori e la variabilità totale Variabilità misurata come varianza spiegata Diversi indici a seconda dei dati e dei test utilizzati

101 Meta Analisi Scopo: permette di confrontare i risultati di diverse ricerche riguardanti uno stesso argomento nonostante siano basate su numerosità campionaria diverse e diversi test statistici utilizzati Finalità: comprendere il funzionamento del fenomeno da studi diversi a volte discordanti

102 Meta Analisi Per evitare di fare confronti inutili occorre specificare ovvero delimitare lambito di analisi in modo da semplificare il problema e quindi linterpretazione dei risultati Limitare le variabili in studio e eventualmente applicare più di una metanalisi ES. Studio delleffetto dellansia sulle prestazioni cognitive: quali indici di ansia considerare?

103 Meta Analisi Procedimento: 1.Raccolta e codifica degli studi 2.Calcolo degli indici di confronto 3.Sintesi: calcolo delleffetto medio 4.Interpretazione dei risultati

104 Meta Analisi: 1. Raccolta e codifica Gli studi raccolti devono essere adeguati e di ampia numerosità per evitare lerrore dovuto alle pubblicazioni (pubblication bias) e allerrore di campionamento Definire lipotesi di riferimento che specifica le variabili da utilizzare (fattori o predittori, covariate o moderatori) Pesare gli studi in base alla correttezza metodologica (es attraverso intention to treat analysis)

105 Valutazione delle differenze fra le medie rapportate alla deviazione standard casuale Tale valutazione, nel caso di due gruppi indipendenti, può essere calcolata dalla formula Meta Analisi: 2. Calcolo degli indici di confronto

106 Nel caso conosciamo solo la numerosità dei gruppi e il valore del parametro t possiamo ottenere lo stesso indice dalla formula Meta Analisi: 2. Calcolo degli indici di confronto

107 Effetto medio: media degli effetti nelle diverse ricerche effettuate Permette di ottenere una valutazione complessiva dei risultati Meta Analisi: 3. Calcolo delleffetto medio

108 Permette di trasformare le descrizioni delle ricerche effettuate su un particolare argomento in una valutazione obiettiva dei risultati ottenuti Tuttavia necessitano di una interpretazione dettagliata e motivata dellanalisi Inoltre considera solo le ricerche pubblicate Meta Analisi: 4. Interpretazione


Scaricare ppt "MODELLI NON PARAMETRICI. Uso dei Modelli in Statistica Modelli come generalizzazione delle procedure *Modello Lineare Generale (GLM) *Regressione Logistica."

Presentazioni simili


Annunci Google