La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Roberto Bolzani & Mariagrazia Benassi Teorie e Tecniche di Psicometria.

Presentazioni simili


Presentazione sul tema: "Roberto Bolzani & Mariagrazia Benassi Teorie e Tecniche di Psicometria."— Transcript della presentazione:

1 Roberto Bolzani & Mariagrazia Benassi Teorie e Tecniche di Psicometria

2 Introduzione Legge statistica e legge deterministica Le principali definizioni di probabilità Proprietà della probabilità Programma del Corso

3 Parametri statistici Parametri descrittivi Distribuzioni di probabilità Densità di probabilità Le principali distribuzioni di probabilità

4 Il test statistico Logica del test statistico Lipotesi nulla Significatività Potenza del test Numerosità del campione

5 Test parametrici Il t-test Analisi della varianza Analisi della regressione Analisi per prove ripetute Analisi multivariata Il modello lineare generale

6 Test non-parametrici Confronto fra variabili qualitative Le tavole di contingenza La regressione logistica

7 Bibliografia Bolzani R., Canestrari R. (1994) Logica del test statistico. Milano, Casa Editrice Ambrosiana. Bolzani R. (1999) Problemi di statistica. Milano, Casa Editrice Ambrosiana. Bolzani R., Benassi M. (2003) Tecniche Psicometriche. Roma, Carocci

8 Introduzione Legge deterministica: corrispondenza univoca fra due eventi, causa ed effetto. Legge probabilistica: corrispondenza fra un evento e un insieme di possibili eventi

9 Finalità della Ricerca Scientifica Dimostrazione di leggi scientifiche su base sperimentale Interpretazione dei dati sperimentali

10 Definizioni di probabilità Classica. Dato un insieme di eventi equiprobabili la probabilità di un evento è data da numero di eventi favorevoli numero di casi possibili Frequentista. La probabilità di un evento è la frequenza con cui esso si presenta in un numero molto elevato di prove.

11 Definizioni di probabilità Assiomatica. La probabilità è definita dalle condizioni: Ad ogni evento A corrisponde un valore p(A) maggiore o uguale a zero La probabilità di tutti gli eventi possibili è uno La probabilità che si verifichi A o B, essendo A e B mutuamente escludenti, è data dalla somma della probabilità di A e della probabilità di B

12 In formule: p(A) 0 p( ) = 1 p(A o B) = p(A) + p(B) se p(A&B)=0

13 Definizioni di probabilità Soggettiva. La probabilità di un evento E è la misura del grado di fiducia che un individuo coerente attribuisce, secondo le sue informazioni, allavverarsi di E. coerenza informazione

14 Il Paradosso di Bertrand Problema: Calcolare la probabilità di trovare una corda casuale di una circonferenza più lunga del lato del triangolo equilatero iscritto.

15 1 a Soluzione: Scegliere un punto interno alla circonferenza inscritta p=1/4

16 2 a Soluzione: Scegliamo il punto dorigine della corda nellapice del triangolo p=1/3

17 3 a Soluzione: Scegliere un punto casuale su un raggio della circonferenza p=1/2

18 Proprietà della Probabilità La probabilità di un evento impossibile è zero. Non vale la proposizione inversa. Se la probabilità è zero l'evento non è necessariamente impossibile. Es. La probabilità di ottenere 7 nel lancio di un dado a sei facce è zero. La probabilità di avere su infiniti lanci di una moneta nemmeno un risultato 'testa' è zero ma l'evento non è impossibile.

19 La probabilità di un evento certo è uno. Non vale la proposizione inversa. Es. La probabilità di ottenere un numero compreso fra uno e sei in un lancio di un dado è uno. La probabilità di avere su infiniti lanci di una moneta almeno un risultato 'testa' è uno pur non essendo l'evento certo.

20 Probabilità condizionata: p(A|B) = probabilità che avvenga A essendo avvenuto B. Es. probabilità di ottenere 12 in due lanci di un dado sapendo che nel primo lancio è risultato 6.

21 Eventi indipendenti: A e B sono indipendenti quando lavverarsi di uno non influenza lavverarsi dellaltro. Cioè p(A|B) = p(A) Es. la probabilità di avere testa nel primo lancio e croce nel secondo

22 Eventi disgiunti: A e B sono eventi disgiunti se il verificarsi dell'uno esclude il verificarsi dell'altro. Es. testa e croce

23 Evento prodotto: Evento in cui si verifica sia A che B: p(A&B) = p(A) p(B|A). Se A e B sono indipendenti: p(A&B)= p(A) p(B)

24 Evento somma: Evento in cui si verifica A o B o, se non sono disgiunti, entrambi: p(A+B) = p(A) + p(B) p(A&B) Es. Nel lancio di un dado: P(pari)=1/2 P(<4)= 1/2 P(pari e <4) = 1/6 P(pari o <4)= 1/2+1/2-1/6 = 5/6

25 Evento complementare: Evento in cui non si verifica A: p(Ã)=1 p(A). Es. il complementare del risultato 6 è il risultato 1 o 2 o 3 o 4 o 5.

26 Parametri descrittivi Frequenza di un evento: Numero di volte in cui si verifica un evento diviso per il numero totale delle occorrenze.

27 Media: somma di tutti i valori di una variabile divisa per il numero totale dei valori. Varianza: somma dei quadrati degli scarti dei singoli valori dalla media divisa per i gradi di libertà. Deviazione standard: radice quadrata della varianza

28 Valore atteso (Expected value) –caso discreto –caso continuo Varianza: valore atteso degli scarti al quadrato

29 Legge dei grandi numeri: Al crescere del numero delle prove dove p E è la probabilità dell'evento E, f E la sua frequenza, una costante qualsiasi > 0.

30 Percentile: ordinando i casi secondo il valore di una variabile, l'n-esimo percentile è il limite al di sotto del quale si trova l'n% dei casi. Mediana: punto che divide la popolazione in due parti di uguale numerosità. Corrisponde al 50 percentile. Moda: valore per cui si ha un picco di frequenza. Caratterizza la distribuzione, che risulta unimodale, bimodale etc. a seconda dei picchi presenti.

31 Distribuzioni di Probabilità Insieme dei valori di probabilità che competono a ciascun valore della variabile. Funzione di distribuzione: funzione che rappresenta per ogni x la probabilità di ottenere un valore minore o uguale a x.

32 Se la variabile è discreta abbiamo una probabilità per ogni valore x discreto della variabile. La funzione di distribuzione si ottiene sommando le probabilità di tutti i casi aventi un valore inferiore ad X.

33 Se la variabile è continua la probabilità di un singolo valore della variabile è nulla essendo la probabilità di un valore su infiniti valori possibili. La funzione di distribuzione viene allora definita da La funzione f(x) è la densità di probabilità e rappresenta la probabilità che il valore di x sia compreso in un intervallo infinitesimo, diviso per lampiezza dellintervallo.

34 DISTRIBUZIONE UNIFORME Distribuzione relativa ad una variabile discreta o continua avente uguale probabilità per ciascun suo valore.

35 Distribuzione Binomiale Se il risultato di una prova può essere il successo S o l'insuccesso I con uguale probabilità p=q=1/2, i risultati possibili di due prove sono SS SI IS II ciascuno con probabilità 1/4.

36 In generale su n prove la probabilità di s successi è data da: dove

37 Se p=q=1/2 La distribuzione sarà simmetrica

38 Funzione di Distribuzione (Distribuzione Cumulativa)

39 Se la probabilità di successo p è diversa dalla probabilità di insuccesso q=1 p allora la probabilità di s successi è data da

40 Se La distribuzione sarà asimmetrica

41 Funzione di Distribuzione (Distribuzione Cumulativa)

42

43

44

45 DISTRIBUZIONE NORMALE (GAUSSIANA ) Limite della distribuzione binomiale. Curva degli errori. Distribuzione a massima entropia.

46 Limite della distribuzione binomiale. Al crescere di n la distribuzione binomiale tende ad una distribuzione normale con media np e varianza npq.

47 Curva degli errori. Condizioni: un errore è la somma di molte componenti di uguale ampiezza le diverse componenti sono fra loro indipendenti ciascuna componente è positiva o negativa con uguale probabilità allora l'ampiezza dell'errore ha una distribuzione normale.

48 Distribuzione a massima entropia. La distribuzione normale è la distribuzione di probabilità con la massima entropia per una variabile compresa fra e + ed avente un data media e varianza. È quindi la distribuzione meno strutturata, la più casuale.

49 Una generica variabile normale con media e varianza ² è indicata con N(, ²) e la sua densità di probabilità è

50 Essendo la distribuzione di una variabile continua il suo valore per un dato x corrisponde alla densità di probabilità per quel valore.

51

52 Posizione massima (giace sulla media) Altezza del massimo (tanto più è grande la varianza tanto più la curva è allargata)

53 Una variabile normale a media zero e varianza unitaria è detta variabile z o standard, si indica con N(0,1) e la sua densità di probabilità è data da

54 DISTRIBUZIONE 2 Essendo la distribuzione di una variabile continua il suo valore per un dato x corrisponde alla densità di probabilità per quel valore. 2 = z z z 3 2 +…..+ z n 2 z: N(0,1)

55 χ² 10 gl χ² 4 gl

56 DISTRIBUZIONE t Distribuzione di una variabile rapporto fra una variabile N(0,1) e la radice quadrata di una variabile 2 divisa per i gradi di libertà.È simmetrica e tende alla normale. Ha espressione

57 DISTRIBUZIONE F Distribuzione di una variabile rapporto di due variabili 2 divise per i rispettivi gradi di libertà. Ha espressione

58 Statistica descrittiva Rappresentazione sintetica dei diversi valori relativi ai soggetti di un determinato gruppo (media, frequenza, percentuale etc.) Riguarda esclusivamente i soggetti esaminati. RACCOLTA DATI DESCRIZIONE DATI IDEA GENERALE

59 Statistica inferenziale Saggia l'influenza di alcuni fattori sui parametri Classifica soggetti in vari gruppi Prevede l'andamento di certi parametri. Riguarda concetti generali e quindi tutti i possibili soggetti che rispondono a certe caratteristiche.

60 Procedimento

61 Ipotesi la cui accettazione renderebbe falsa l'idea da verificare. Viene in genere indicata con H0. Ipotesi Sperimentale Ipotesi Nulla Ho

62 Campione Idoneo a confermare l'idea. Rappresentativo dell'intera popolazione (casuale, sufficientemente ampio) Conforme alle richieste del test che si intende utilizzare (distribuzione, indipendenza ) Scelta del Campione

63 TEST Creati per essere applicati in modo indipendente. Richiedono che i dati sperimentali abbiano determinate distribuzioni teoriche (continuità, normalità..) In grado di falsificare tipi determinati di ipotesi nulle Test Statistico

64 SIGNIFICATIVITÀ: Probabilità di respingere l'ipotesi nulla pur essendo questa vera. Si stabilisce a priori quale probabilità di errore consideriamo accettabile per la verifica (livello di significatività normalmente 0.05 o 0.01). Significatività p

65 Non respingo Ho Respingo Ho

66 Processi Decisionali

67 Errori di Decisione

68 POTENZA DI UN TEST Probabilità di respingere H0 quando H0 è falsa. È dato da 1.Dipende : da H0 e da H1 dalla numerosità del campione dalla minima differenza apprezzabile dalla varianza casuale

69 H0H0 H1H1

70 Non falsificazione di H 0 : l'ipotesi nulla è vera scarsa potenza del test: il campione ha varianza elevata scarsa numerosità del campione il campione non soddisfa le condizioni relative alla distribuzione il campione non è rappresentativo dell'intera popolazione non sufficiente separazione fra H0 e H1

71 INTERVALLO DI CONFIDENZA: rappresenta la zona, attorno al parametro stimato sperimentalmente, in cui potrebbe cadere il valore vero del parametro con una probabilità 1. Ha la stessa estensione dell'intervallo attorno all'ipotesi nulla. Se nell'intervallo di confidenza cade il valore di H0 non si può respingere l'ipotesi nulla.


Scaricare ppt "Roberto Bolzani & Mariagrazia Benassi Teorie e Tecniche di Psicometria."

Presentazioni simili


Annunci Google