Disegni di Ricerca e Analisi dei Dati in Psicologia Clinica Indici di Affidabilità
L’Attendibilità È il livello in cui una misura è libera da errore di misura È la proporzione di variabilità della misurazione che è effettivamente riferibile a reali differenze tra i soggetti sottoposti a misurazione È il grado in cui misure effettuate su soggetti (pazienti) che non sono cambiati nel tempo risultano stabili sotto diversi punti di vista: Consistenza interna - Inter-rater Test-retest - Intra-rater
Consistenza Interna È il livello di interrelazione tra gli item In una scala o (sottoscala) unidimensionale, la consistenza interna indica quanto gli item misurano il medesimo costrutto I principali metodi che vengono utilizzati per calcolare la consistenza interna sono i seguenti: Split-Half Kuder-Richardson Formula-20 Alpha di Cronbach Per IRT si usano indici di fit globale ad esempio gli indici di separazione dei soggetti
Split-Half Si fonda su tre Step fondamentali: Divisione in due parti del test: -prima e seconda parte? -divisione random? -divisione pari-dispari? 2) Calcolo del Coefficiente di Pearson fra i punteggi delle due parti 3) Correzione dell’affidabilità attraverso la formula “profetica” di Spearman-Brown
Calcolo del Coefficiente r di Pearson N è il numero di soggetti o di coppie di osservazione x è il punteggio ottenuto dai vari soggetti alla prima variabile y è il punteggio ottenuto dai vari soggetti alla seconda variabile
Formula “profetica” di Spearman-Brown rtot indica il valore di correlazione stimato per l’intero test rpd indica il valore di correlazione tra i punteggi ottenuti agli item pari (p) e dispari (d).
Kuder-Richardson Formula-20 Chiamata solitamente KR-20. È adatta per test in cui vi siano item DICOTOMICI, OMOGENEI e valutabili come GIUSTO-SBAGLIATO. K è il numero di item del test è la variaza dei punteggi dell’intero test è la sommatoria del prodotto, per ogni item, della proporzione di risposte corrette e di risposte sbagliate
Alpha di Cronbach La formula fu derivata da Cronbach nel 1951 e fu in seguito più volte modificata. Potrebbe essere inteso come la media di tutti i possibili split half ottenuti come indicato in precedenza. Rispetto alla KR-20 è applicabile anche ad item con più di due alternative. L’Alpha di Cronbach ha di fatto sostituito la KR-20 anche nello studio della consistenza interna di strumenti a rispostadicotomica. Un indice collegato per il calcolo della consistenza interna è la Correlazione item-totale
Alpha di Cronbach K indica il numero degli item Indica la sommatoria della varianza dei punteggi ottenuti in ogni item. Indica la varianza dei punteggi totali Il valore del coefficiente alpha varia tra 0 e 1.
Alpha di Cronbach Standardizzata K rappresenta il numero degli item r rappresenta la media di tutti i coefficienti di correlazione di Pearson calcolato tra tutti gli item
Correlazione Item-totale È un importante indice di consistenza interna Valuta il valore della correlazione tra il punteggio ottenuto all’item i e il totale della scala a cui viene eliminata la risposta ad i È interessante per valutare quanto un item è rappresentativo della scala nella quale è inserito. Varia in un range tra -1 e 1. La formula (con opportuni adattamenti) è uguale a quella del coefficiente r di Pearson.
Inter-rater Reliability L’inter-rater reliability (affidabilità tra valutatori o anche “accordo fra giudici”) misura il grado in cui le valutazioni di due o più giudici (clinici, educatori, operatori, ecc.) siano conformi aldilà del caso. Se prendiamo ad esempio due clinici chiamati a valutare in maniera indipendente la presenza o l’assenza in un paziente di un set di elementi diagnostici, sarà importante poter misurare quanto l’accordo tra di loro vada aldilà del semplice caso (con due valutatori ci si attenderebbe un accordo casuale del 50%). Al fine di poter misurare l’accordo tra i giudici è necessario che: - venga chiarito in maniera inequivocabile l’oggetto della valutazione; - i due giudici siano indipendenti nello svolgere la loro valutazione; - venga chiarita in maniera efficace la regola di attribuzione dei punteggi.
Inter-rater Reliability: K di Cohen Tra tutti gli indici statistici che misurano l’accordo fra giudici il K di Cohen (Cohen, 1968) è senza dubbio il più interessante. Questo indice (che varia tra -1 e 1) consente di ottenere un valore che rappresenta il livello di accordo tra giudici tenendo conto della probabilità di accordo dovuta al caso. Il calcolo dell’indice si basa sulla seguente formula: Dove: Aoss= Numero di Accordi Osservati Aatt= Numero di Accordi Attesi N= Numero Totale delle osservazioni
Inter-rater Reliability: K di Cohen Al fine di poter risolvere la formula presentata occorre ricordare che il numero di accordi attesi (così come avveniva per il calcolo del Chi-quadrato…!!!) si ottiene moltiplicando i marginali di riga e di colonna tra di loro e dividendo per N. Ad esempio in una tabella 2✕2 dove due operatori OPa e OPb devono indicare la presenza “1” o l’assenza “0” di una serie di sintomi in un paziente si avrà la seguente situazione: OPb 0 OPb 1 OPa 0 AO0 01 TOTOPa 0 OPa 1 10 AO1 TOTOPa 1 TOTOPb 0 TOTOPb 1 N Dalla tabella delle frequenze osservate è possibile passare a quella delle frequenze attese attraverso le formule seguenti
Inter-rater Reliability: K di Cohen OPb 0 OPb 1 OPa 0 AA0 01 TOTOPa 0 OPa 1 10 AA1 TOTOPa 1 TOTOPb 0 TOTOPb 1 N
Inter-rater Reliability: K di Cohen Dalla prima tabella (frequenze osservate) è possibile ricavare un primo indice detto “indice di concordanza” (IC) che si ottiene attraverso la seguente formula: Dalle informazioni contenute nelle due tabelle è possibile ricavare l’indice K che può essere calcolato applicando la seguente formula: Naturalmente è possibile estendere la precedente formula a casi in cui siano presenti più livelli di risposta (ad esempio 0,1,2).
K di Cohen (esercizio) Si calcoli il valore dell’indice di concordanza IC e il valore del K di Cohen a partire dalla seguente tabella delle frequenze osservate. Si proceda calcolando i valori attesi. OPb 0 OPb 1 OPa 0 3 2 ? OPa 1 52
K di Cohen: Interpretazione Non si può affermare che esistano linee guida universali per l’interpretazione dell’indice K come scarso, buono, ottimo. Diversi autori hanno proposto differenti soluzioni. Seppure diverse nella forma tali linee guida appaiono uniformi nella sostanza attribuendo in linea generale le seguenti categorie interpretative: K<0= disaccordo 0<K<.20= accordo molto scarso .20<K<.40(o .45)= accordo scarso .40 (o .45)<K< .60 = accordo discreto .60<K<.75 (o .80) = accordo buono .75 (o .80)<K<1= accordo eccellente
Statistica sul Soggetto Singolo: il Test C Il Test C (Von Neumann, 1941; Caracciolo, Larcan &Camma, 1986) consente di valutare il livello di inclinazione delle curve nelle singole fasi di un esperimento. Principalmente tale test consente di valutare se il trend di un set di misurazioni sia stazionario o segua una direzione (in aumento o in diminuzione). Il Test C si applica su una serie di misurazioni (almeno 8) condotte su SOGGETTO SINGOLO. Il test misura la probabilità con cui i punti di una serie temporale siano disposti a caso. Se tale probabilità appare essere inferiore ad un valore critico (arbitrariamente fissato) si conclude che esiste un trend significativo.
Statistica sul Soggetto Singolo: il Test C Il calcolo del valore C avviene attraverso la seguente formula: dove: Xi= l’osservazione al tempo i; Xi+1= l’osservazione al tempo i+1 (successivo); = valore medio delle osservazioni.
Statistica sul Soggetto Singolo: il Test C Al fine di valutare la significatività del valore osservato per il Test C occorre far riferimento alla distribuzione normale attraverso la statistica Z. Al fine di calcolare il punto Z corrispondente al valore di C calcolato occorre prima ricavare l’errore standard di C attraverso la seguente formula: Con N = numero di osservazioni. Il punto Z è infine ottenibile dividendo i valore di C per il suo errore standard: Il valore critico di Z con α=0.05 è 1.64, mentre con α=0.01 è 2.17. Valori di Z calcolato superiori al cut-off stabilito indicano un trend significativo.
Il Test C: nota bene Occorre notare che il valore osservato del Test C può essere solo positivo. In altre parole sia che il trend sia crescente o decrescente il valore del test sarà sempre positivo. Ciò porta ad una ulteriore evidenza ossia che sarebbe sbagliato affermare che se il Test C presenta un valore significativo esso non potrebbe essere definito come “signifcativamente crescente” o “significativamente decrescente”. Nonostante ciò, essendo che il test può assumere solo valori positivi, il livello di significatività da individuare (lo Z critico) è quello relativo ad una ipotesi monodirezionale destra piuttosto che bidirezionale. Da un punto di vista interpretativo si può affermare che un trend è significativo oppure no, l’analisi grafica può suggerire in forma descrittiva l’andamento del trend (che comunque ci si aspetta segua la direzione ipotizzata teoricamente).