Teorie e Tecniche di Psicometria

Slides:



Advertisements
Presentazioni simili
Elementi di calcolo delle probabilità
Advertisements

La probabilità nei giochi
2. Introduzione alla probabilità
La probabilità.
Matematica I: Calcolo differenziale, Algebra lineare, Probabilità e statistica Giovanni Naldi, Lorenzo Pareschi, Giacomo Aletti Copyright © The.
Corsi Abilitanti Speciali Classe 59A III semestre - 3
1 2. Introduzione alla probabilità Definizioni preliminari: Prova: è un esperimento il cui esito è aleatorio Spazio degli eventi elementari : è linsieme.
Inferenza Statistica Le componenti teoriche dell’Inferenza Statistica sono: la teoria dei campioni la teoria della probabilità la teoria della stima dei.
Definizioni di probabilità
Definizioni Chiamiamo esperimento aleatorio ogni fenomeno del mondo reale alle cui manifestazioni può essere associata una situazione di incertezza. Esempi:
Progetto Pilota 2 Lettura e interpretazione dei risultati
Torna alla prima pagina Sergio Console Calcolo Combinatorio e cenni di calcolo delle Probabilità Istituzioni di Matematiche Scienze Naturali.
Processi Aleatori : Introduzione – Parte I
Corso di biomatematica Lezione 2: Probabilità e distribuzioni di probabilità Davide Grandi.
Corso di Probabilità e Inferenza 1
Impostazione Assiomatica del Calcolo della Probabilità
Concetti legati all’incertezza statistica
Analisi della varianza
Regressione Logistica
Seminario di Metodologia della Ricerca Psicologica
La probabilità Schema classico.
Le distribuzioni campionarie
QUALCHE LUCIDO DI RIPASSO… 1. Esperimento casuale ( e. aleatorio) risultato Esperimento condotto sotto leffetto del caso: non è possibile prevederne il.
PROBABILITA : se un EVENTO si verifica in h modi diversi su n possibili (POPOLAZIONE) p = h/n Questa definizione è talvolta applicabile a priori (es. lancio.
1.PROBABILITÀ A. Federico ENEA; Fondazione Ugo Bordoni Scuola estiva di fonetica forense Soriano al Cimino 17 – 21 settembre 2007.
Errori casuali Si dicono casuali tutti quegli errori che possono avvenire, con la stessa probabilità, sia in difetto che in eccesso. Data questa caratteristica,
Calcolo delle probabilità Nacci Spagnuolo Audino Calcolo delle probabilità
LA PROBABILITA’ La probabilità nella concezione classica
La teoria dei campioni può essere usata per ottenere informazioni riguardanti campioni estratti casualmente da una popolazione. Da un punto di vista applicativo.
Le variabili casuali e la loro distribuzione di probabilità Generalmente, lanciando un dado, si considera il valore numerico della faccia uscita.
Impostazione Assiomatica del Calcolo della Probabilità
Cap. 15 Caso, probabilità e variabili casuali Cioè gli ingredienti matematici per fare buona inferenza statistica.
è … lo studio delle caratteristiche di regolarità dei fenomeni casuali
Rischio e Probabilità. Probabilità di un Evento P(E)  P(E)=1 o 100% => evento certo;  P(E) molto piccolo => evento improbabile;  P(E)=0 o 0% => evento.
Calcolo combinatorio e probabilità
PROBABILITA’ Scienza che studia i fenomeni retti dal caso EVENTO (E): avvenimento che può accadere oppure no 1.certo: se si verifica sempre (es. nel lancio.
Evento: “Fatto o avvenimento che già si è verificato o che può verificarsi ….” Gli eventi di cui ci occuperemo saranno soltanto gli eventi casuali, il.
ATTIVITÀ PIANO LAUREE SCIENTIFICHE Laboratorio di Statistica
Domande riepilogative per l’esame
IL CAMPIONE.
Calcolo delle probabilità a cura di Maurizio Brizzi
“Teoria e metodi della ricerca sociale e organizzativa”
Master in Neuropsicologia ClinicaElementi di Statistica I 17 maggio / 23 Analisi bivariata Per ogni unità statistica si considerano congiuntamente.
2) PROBABILITA’ La quantificazione della ‘possibilità’ del verificarsi di un evento casuale E è detta probabilità P(E) Definizione classica: P(E) è il.
Spiegazione di alcuni concetti
Distribuzioni di probabilità di uso frequente
PROBABILITÀ Corsi Abilitanti Speciali Classe 59A III semestre - 2.
Esercizio Regressione DATI Per un campione casuale di 82 clienti di un'insegna della GDO, sono disponibili le seguenti variabili, riferite ad un mese di.
Eventi aleatori Un evento è aleatorio (casuale) quando non si può prevedere con certezza se avverrà o meno I fenomeni (eventi) aleatori sono studiati.
La distribuzione campionaria della media
UNIVERSITA’ DEGLI STUDI DI PERUGIA
ELEMENTI DI CALCOLO DELLE PROBABILITA’
Metodologia della ricerca e analisi dei dati in (psico)linguistica 24 Giugno 2015 Statistica inferenziale
TRATTAMENTO STATISTICO DEI DATI ANALITICI
La covarianza.
Operazioni di campionamento CAMPIONAMENTO Tutte le operazioni effettuate per ottenere informazioni sul sito /area da monitorare (a parte quelle di analisi)
16) STATISTICA pag.22. Frequenze frequenza assoluta (o frequenza): numero che esprime quante volte un certo valore compare in una rilevazione statistica.
Elementi di statistica e probabilità Misure Meccaniche e Termiche - Università di Cassino 2 Eventi aleatori e deterministici Un evento aleatorio può.
DIPENDENZA STATISTICA TRA DUE CARATTERI Per una stessa collettività può essere interessante studiare più caratteri presenti contemporaneamente in ogni.
Elementi di teoria della probabilità e distribuzioni di probabilità.
In alcuni casi gli esiti di un esperimento possono essere considerati numeri naturali in modo naturale. Esempio: lancio di un dado In atri casi si definisce.
La probabilità matematica
1 DISTRIBUZIONI DI PROBABILITÁ. 2 distribu- zione che permette di calcolare le probabilità degli eventi possibili A tutte le variabili casuali, discrete.
ELEMENTI DI CALCOLO DELLE PROBABILITA’. Evento Aleatorio Un evento si dice aleatorio se può o non può verificarsi (Alea in greco vuol dire dado)
1 TEORIA DELLA PROBABILITÁ. 2 Cenni storici i primi approcci alla teoria della probabilità sono della metà del XVII secolo (Pascal, Fermat, Bernoulli)
Probabilità Definizione di probabilità La definizione di probabilità si basa sul concetto di evento, ovvero sul fatto che un determinato esperimento può.
INFERENZA NEL MODELLO DI REGRESSIONE LINEARE SEMPLICE
Un evento è un fatto che può accadere o non accadere. Se esso avviene con certezza si dice evento certo, mentre se non può mai accadere si dice evento.
Teoria dei Sistemi di Trasporto Tematica 4: Elementi minimi di teoria della probabilità.
Transcript della presentazione:

Teorie e Tecniche di Psicometria Roberto Bolzani & Mariagrazia Benassi

Programma del Corso Introduzione Legge statistica e legge deterministica Le principali definizioni di probabilità Proprietà della probabilità

Programma del Corso Parametri statistici Parametri descrittivi Distribuzioni di probabilità Densità di probabilità Le principali distribuzioni di probabilità

Programma del Corso Il test statistico Logica del test statistico L’ipotesi nulla Significatività Potenza del test Numerosità del campione

Programma del Corso Test parametrici Il t-test Analisi della varianza Analisi della regressione Analisi per prove ripetute Analisi multivariata Il modello lineare generale

Programma del Corso Test non-parametrici Confronto fra variabili qualitative Le tavole di contingenza La regressione logistica

Bibliografia Bolzani R., Canestrari R. (1994) Logica del test statistico. Milano, Casa Editrice Ambrosiana. Bolzani R. (1999) Problemi di statistica. Milano, Casa Editrice Ambrosiana. Bolzani R., Benassi M. (2003) Tecniche Psicometriche. Roma, Carocci

Introduzione Legge deterministica: corrispondenza univoca fra due eventi, causa ed effetto. Legge probabilistica: corrispondenza fra un evento e un insieme di possibili eventi

Finalità della Ricerca Scientifica Dimostrazione di leggi scientifiche su base sperimentale Interpretazione dei dati sperimentali

Definizioni di probabilità Classica. Dato un insieme di eventi equiprobabili la probabilità di un evento è data da numero di eventi favorevoli numero di casi possibili Frequentista. La probabilità di un evento è la frequenza con cui esso si presenta in un numero molto elevato di prove.

Definizioni di probabilità Assiomatica. La probabilità è definita dalle condizioni: Ad ogni evento A corrisponde un valore p(A) maggiore o uguale a zero La probabilità di tutti gli eventi possibili è uno La probabilità che si verifichi A o B, essendo A e B mutuamente escludenti, è data dalla somma della probabilità di A e della probabilità di B

In formule: p(A)  0 p() = 1 p(A o B) = p(A) + p(B) se p(A&B)=0

Definizioni di probabilità Soggettiva. La probabilità di un evento E è la misura del grado di fiducia che un individuo coerente attribuisce, secondo le sue informazioni, all’avverarsi di E. coerenza informazione

Il Paradosso di Bertrand Problema: Calcolare la probabilità di trovare una corda casuale di una circonferenza più lunga del lato del triangolo equilatero iscritto.

Il Paradosso di Bertrand 1a Soluzione: Scegliere un punto interno alla circonferenza inscritta p=1/4

Il Paradosso di Bertrand 2a Soluzione: Scegliamo il punto d’origine della corda nell’apice del triangolo p=1/3

Il Paradosso di Bertrand 3a Soluzione: Scegliere un punto casuale su un raggio della circonferenza p=1/2

Proprietà della Probabilità La probabilità di un evento impossibile è zero. Non vale la proposizione inversa. Se la probabilità è zero l'evento non è necessariamente impossibile. Es. La probabilità di ottenere 7 nel lancio di un dado a sei facce è zero. La probabilità di avere su infiniti lanci di una moneta nemmeno un risultato 'testa' è zero ma l'evento non è impossibile.

Proprietà della Probabilità La probabilità di un evento certo è uno. Non vale la proposizione inversa. Es. La probabilità di ottenere un numero compreso fra uno e sei in un lancio di un dado è uno. La probabilità di avere su infiniti lanci di una moneta almeno un risultato 'testa' è uno pur non essendo l'evento certo.

Proprietà della Probabilità Probabilità condizionata: p(A|B) = probabilità che avvenga A essendo avvenuto B. Es. probabilità di ottenere 12 in due lanci di un dado sapendo che nel primo lancio è risultato 6.

Proprietà della Probabilità Eventi indipendenti: A e B sono indipendenti quando l’avverarsi di uno non influenza l’avverarsi dell’altro. Cioè p(A|B) = p(A) Es. la probabilità di avere testa nel primo lancio e croce nel secondo

Proprietà della Probabilità Eventi disgiunti: A e B sono eventi disgiunti se il verificarsi dell'uno esclude il verificarsi dell'altro. Es. testa e croce

Proprietà della Probabilità Evento prodotto: Evento in cui si verifica sia A che B: p(A&B) = p(A)  p(B|A). Se A e B sono indipendenti: p(A&B)= p(A)  p(B)

Proprietà della Probabilità Evento somma: Evento in cui si verifica A o B o, se non sono disgiunti, entrambi: p(A+B) = p(A) + p(B) ‑ p(A&B) Es. Nel lancio di un dado: P(pari)=1/2 P(<4)= 1/2 P(pari e <4) = 1/6 P(pari o <4)= 1/2+1/2-1/6 = 5/6

Proprietà della Probabilità Evento complementare: Evento in cui non si verifica A: p(Ã)=1 ‑ p(A). Es. il complementare del risultato 6 è il risultato 1 o 2 o 3 o 4 o 5.

Parametri descrittivi Frequenza di un evento: Numero di volte in cui si verifica un evento diviso per il numero totale delle occorrenze.

Parametri descrittivi Media: somma di tutti i valori di una variabile divisa per il numero totale dei valori. Varianza: somma dei quadrati degli scarti dei singoli valori dalla media divisa per i gradi di libertà. Deviazione standard: radice quadrata della varianza

Parametri descrittivi Valore atteso (Expected value) caso discreto caso continuo Varianza: valore atteso degli scarti al quadrato

Parametri descrittivi Legge dei grandi numeri: Al crescere del numero delle prove dove pE è la probabilità dell'evento E, fE la sua frequenza,  una costante qualsiasi > 0.

Parametri descrittivi Percentile: ordinando i casi secondo il valore di una variabile, l'n-esimo percentile è il limite al di sotto del quale si trova l'n% dei casi. Mediana: punto che divide la popolazione in due parti di uguale numerosità. Corrisponde al 50 percentile. Moda: valore per cui si ha un picco di frequenza. Caratterizza la distribuzione, che risulta unimodale, bimodale etc. a seconda dei picchi presenti.

Distribuzioni di Probabilità Insieme dei valori di probabilità che competono a ciascun valore della variabile. Funzione di distribuzione: funzione che rappresenta per ogni x la probabilità di ottenere un valore minore o uguale a x.

Distribuzioni di Probabilità Se la variabile è discreta abbiamo una probabilità per ogni valore x discreto della variabile. La funzione di distribuzione si ottiene sommando le probabilità di tutti i casi aventi un valore inferiore ad X.

Distribuzioni di Probabilità Se la variabile è continua la probabilità di un singolo valore della variabile è nulla essendo la probabilità di un valore su infiniti valori possibili. La funzione di distribuzione viene allora definita da La funzione f(x) è la densità di probabilità e rappresenta la probabilità che il valore di x sia compreso in un intervallo infinitesimo, diviso per l’ampiezza dell’intervallo.

Distribuzioni di Probabilità DISTRIBUZIONE UNIFORME Distribuzione relativa ad una variabile discreta o continua avente uguale probabilità per ciascun suo valore.

Distribuzione Binomiale Distribuzioni di Probabilità Distribuzione Binomiale Se il risultato di una prova può essere il successo S o l'insuccesso I con uguale probabilità p=q=1/2, i risultati possibili di due prove sono SS SI IS II ciascuno con probabilità 1/4.

Distribuzione Binomiale In generale su n prove la probabilità di s successi è data da: dove

Distribuzione Binomiale Se p=q=1/2 La distribuzione sarà simmetrica

Distribuzione Binomiale Funzione di Distribuzione (Distribuzione Cumulativa)

Distribuzione Binomiale Se la probabilità di successo p è diversa dalla probabilità di insuccesso q=1‑p allora la probabilità di s successi è data da

Distribuzione Binomiale Se La distribuzione sarà asimmetrica

Distribuzione Binomiale Funzione di Distribuzione (Distribuzione Cumulativa)

Test con la distribuzione binomiale

Test con la distribuzione binomiale

Test con la distribuzione binomiale

Distribuzioni di Probabilità DISTRIBUZIONE NORMALE (GAUSSIANA) Limite della distribuzione binomiale. Curva degli errori. Distribuzione a massima entropia.

DISTRIBUZIONE NORMALE (GAUSSIANA) Limite della distribuzione binomiale. Al crescere di n la distribuzione binomiale tende ad una distribuzione normale con media np e varianza npq.

DISTRIBUZIONE NORMALE (GAUSSIANA) Curva degli errori. Condizioni: un errore è la somma di molte componenti di uguale ampiezza le diverse componenti sono fra loro indipendenti ciascuna componente è positiva o negativa con uguale probabilità allora l'ampiezza dell'errore ha una distribuzione normale.

DISTRIBUZIONE NORMALE (GAUSSIANA) Distribuzione a massima entropia. La distribuzione normale è la distribuzione di probabilità con la massima entropia per una variabile compresa fra ‑ e + ed avente un data media e varianza. È quindi la distribuzione meno strutturata, la più casuale.

DISTRIBUZIONE NORMALE (GAUSSIANA) Una generica variabile normale con media  e varianza ² è indicata con N(,²) e la sua densità di probabilità è

DISTRIBUZIONE NORMALE (GAUSSIANA) Essendo la distribuzione di una variabile continua il suo valore per un dato x corrisponde alla densità di probabilità per quel valore.

DISTRIBUZIONE NORMALE (GAUSSIANA)

DISTRIBUZIONE NORMALE (GAUSSIANA) Posizione massima (giace sulla media) Altezza del massimo (tanto più è grande la varianza tanto più la curva è allargata)

DISTRIBUZIONE NORMALE (GAUSSIANA) Una variabile normale a media zero e varianza unitaria è detta variabile z o standard, si indica con N(0,1) e la sua densità di probabilità è data da

Distribuzioni di Probabilità DISTRIBUZIONE 2 Essendo la distribuzione di una variabile continua il suo valore per un dato x corrisponde alla densità di probabilità per quel valore. 2 = z12+ z22+ z32+…..+ zn2 z: N(0,1)

Distribuzioni di Probabilità Distribuzione χ² χ² 4 gl χ² 10 gl

Distribuzioni di Probabilità DISTRIBUZIONE t Distribuzione di una variabile rapporto fra una variabile N(0,1) e la radice quadrata di una variabile 2 divisa per i gradi di libertà.È simmetrica e tende alla normale. Ha espressione

Distribuzioni di Probabilità DISTRIBUZIONE F Distribuzione di una variabile rapporto di due variabili 2 divise per i rispettivi gradi di libertà. Ha espressione

Statistica descrittiva Riguarda esclusivamente i soggetti esaminati. Rappresentazione sintetica dei diversi valori relativi ai soggetti di un determinato gruppo (media, frequenza, percentuale etc.) Riguarda esclusivamente i soggetti esaminati. RACCOLTA DATI DESCRIZIONE DATI IDEA GENERALE

Statistica inferenziale ‑Saggia l'influenza di alcuni fattori sui parametri ‑Classifica soggetti in vari gruppi ‑Prevede l'andamento di certi parametri. Riguarda concetti generali e quindi tutti i possibili soggetti che rispondono a certe caratteristiche.

Statistica inferenziale Procedimento

Statistica inferenziale Procedimento Ipotesi Sperimentale Ipotesi Nulla Ho Ipotesi la cui accettazione renderebbe falsa l'idea da verificare. Viene in genere indicata con H0.

Statistica inferenziale Procedimento Ipotesi Sperimentale Ipotesi Nulla Ho Scelta del Campione Campione Idoneo a confermare l'idea. Rappresentativo dell'intera popolazione (casuale, sufficientemente ampio) Conforme alle richieste del test che si intende utilizzare (distribuzione, indipendenza)

Statistica inferenziale Procedimento Ipotesi Sperimentale Ipotesi Nulla Ho Scelta del Campione Test Statistico TEST Creati per essere applicati in modo indipendente. Richiedono che i dati sperimentali abbiano determinate distribuzioni teoriche (continuità, normalità ..) In grado di falsificare tipi determinati di ipotesi nulle

Statistica inferenziale Procedimento Ipotesi Sperimentale Ipotesi Nulla Ho Scelta del Campione Test Statistico Significatività p SIGNIFICATIVITÀ: Probabilità di respingere l'ipotesi nulla pur essendo questa vera. Si stabilisce a priori quale probabilità di errore consideriamo accettabile per la verifica (livello di significatività normalmente 0.05 o 0.01).

Statistica inferenziale Procedimento Ipotesi Sperimentale Ipotesi Nulla Ho Scelta del Campione Test Statistico Respingo Ho Significatività p Non respingo Ho

Processi Decisionali

Statistica inferenziale Falsificazione Ho Errori di Decisione

Statistica inferenziale Falsificazione Ho POTENZA DI UN TEST Probabilità di respingere H0 quando H0 è falsa. È dato da 1‑. Dipende : da H0 e da H1 dalla numerosità del campione dalla minima differenza apprezzabile dalla varianza casuale

Statistica inferenziale Falsificazione Ho   H0 H1

Statistica inferenziale Falsificazione Ho Non falsificazione di H0: l'ipotesi nulla è “vera” scarsa potenza del test: il campione ha varianza elevata scarsa numerosità del campione il campione non soddisfa le condizioni relative alla distribuzione il campione non è rappresentativo dell'intera popolazione non sufficiente separazione fra H0 e H1

Statistica inferenziale Falsificazione Ho INTERVALLO DI CONFIDENZA: rappresenta la zona, attorno al parametro stimato sperimentalmente, in cui potrebbe cadere il valore vero del parametro con una probabilità 1‑. Ha la stessa estensione dell'intervallo attorno all'ipotesi nulla. Se nell'intervallo di confidenza cade il valore di H0 non si può respingere l'ipotesi nulla.