2.VARIABILI CONTINUE A. Federico ENEA; Fondazione Ugo Bordoni Scuola estiva di fonetica forense Soriano al Cimino 17 – 21 settembre 2007.

Slides:



Advertisements
Presentazioni simili
8) GLI INTERVALLI DI CONFIDENZA
Advertisements

Le distribuzioni di probabilità continue
2. Introduzione alla probabilità
Variabili aleatorie discrete e continue
Approssimazione e convergenza
Distribuzione Normale o Curva di Gauss
STATISTICA DESCRITTIVA
Intervalli di confidenza
Proprietà degli stimatori
1 2. Introduzione alla probabilità Definizioni preliminari: Prova: è un esperimento il cui esito è aleatorio Spazio degli eventi elementari : è linsieme.
3. STATISTICA A. Federico ENEA; Fondazione Ugo Bordoni Scuola estiva di fonetica forense Soriano al Cimino 17 – 21 settembre 2007.
Fondamenti della Misurazione
Analisi dei dati per i disegni ad un fattore
Classificatore bayesiano
Funzione di distribuzione (detta anche cumulativa o di ripartizione)
Metodi Quantitativi per Economia, Finanza e Management Lezione n° 11.
Inferenza statistica per un singolo campione
Valutazione delle ipotesi
INFERENZA NEL MODELLO DI REGRESSIONE LINEARE MULTIPLA (parte 1)
Processi Aleatori : Introduzione – Parte I
Abbiamo visto un esempio di applicazione del teorema, ma a noi interessa l’applicazione del Teorema di Bayes alla combinazione delle informazioni, ovvero.
Distribuzioni di probabilità
Appunti di inferenza per farmacisti
Corso di biomatematica lezione 4: La funzione di Gauss
Corso di biomatematica Lezione 2: Probabilità e distribuzioni di probabilità Davide Grandi.
STATISTICA a.a PARAMETRO t DI STUDENT
Stima dei parametri di una distribuzione
Modelli probabilistici
Impostazione Assiomatica del Calcolo della Probabilità
Lezione 8 Numerosità del campione
Num / 36 Lezione 9 Numerosità del campione.
Lezione 4 Probabilità.
PROBABILITÀ La probabilità è un giudizio che si assegna ad un evento e che si esprime mediante un numero compreso tra 0 e 1 1 Evento con molta probabilità.
STATISTICA PER LA RICERCA SPERIMENTALE E TECNOLOGICA
Le distribuzioni campionarie
Teorie e Tecniche di Psicometria
1.PROBABILITÀ A. Federico ENEA; Fondazione Ugo Bordoni Scuola estiva di fonetica forense Soriano al Cimino 17 – 21 settembre 2007.
Unità 2 Distribuzioni di probabilità Misure di localizzazione Misure di variabilità Asimmetria e curtosi.
Errori casuali Si dicono casuali tutti quegli errori che possono avvenire, con la stessa probabilità, sia in difetto che in eccesso. Data questa caratteristica,
Errori casuali Si dicono casuali tutti quegli errori che possono avvenire, con la stessa probabilità, sia in difetto che in eccesso. Data questa caratteristica,
STATISTICA PER LA RICERCA SPERIMENTALE E TECNOLOGICA
STATISTICA PER LA RICERCA SPERIMENTALE E TECNOLOGICA
Impostazione Assiomatica del Calcolo della Probabilità
Cap. 15 Caso, probabilità e variabili casuali Cioè gli ingredienti matematici per fare buona inferenza statistica.
Lezione B.10 Regressione e inferenza: il modello lineare
Corso di Analisi Statistica per le Imprese
Strumenti statistici in Excell
IL CAMPIONE.
Calcolo delle probabilità a cura di Maurizio Brizzi
“Teoria e metodi della ricerca sociale e organizzativa”
Test basati su due campioni Test Chi - quadro
Intervallo di Confidenza Prof. Ing. Carla Raffaelli A.A:
La variabile casuale (v.c.) è un modello matematico in grado di interpretare gli esperimenti casuali. Infatti gli eventi elementari  che compongono lo.
Modelli di variabili casuali
Intervalli di confidenza
Eventi aleatori Un evento è aleatorio (casuale) quando non si può prevedere con certezza se avverrà o meno I fenomeni (eventi) aleatori sono studiati.
La distribuzione campionaria della media
Elaborazione statistica di dati
TRATTAMENTO STATISTICO DEI DATI ANALITICI
La covarianza.
Operazioni di campionamento CAMPIONAMENTO Tutte le operazioni effettuate per ottenere informazioni sul sito /area da monitorare (a parte quelle di analisi)
DATA MINING PER IL MARKETING (63 ore) Marco Riani Sito web del corso
In alcuni casi gli esiti di un esperimento possono essere considerati numeri naturali in modo naturale. Esempio: lancio di un dado In atri casi si definisce.
1 DISTRIBUZIONI DI PROBABILITÁ. 2 distribu- zione che permette di calcolare le probabilità degli eventi possibili A tutte le variabili casuali, discrete.
1 VARIABILI CASUALI. 2 definizione Una variabile casuale è una variabile che assume determinati valori in modo casuale (non deterministico). Esempi l’esito.
INFERENZA NEL MODELLO DI REGRESSIONE LINEARE SEMPLICE
Scienze tecniche e psicologiche
Psicometria modulo 1 Scienze tecniche e psicologiche Prof. Carlo Fantoni Dipartimento di Scienze della Vita Università di Trieste Implementazione.
Introduzione all’inferenza
Teoria dei Sistemi di Trasporto Tematica 4: Elementi minimi di teoria della probabilità.
Transcript della presentazione:

2.VARIABILI CONTINUE A. Federico ENEA; Fondazione Ugo Bordoni Scuola estiva di fonetica forense Soriano al Cimino 17 – 21 settembre 2007

Se un esperimento consiste, ad esempio, nel misurare la prima formante di una vocale, lo spazio degli eventi S si può far corrispondere a tutti i punti di un intervallo di un asse reale: si ha in questo caso uno spazio degli eventi descritto da una variabile continua. Se le misure sono più duna, come nel caso che si misurino tutte le formanti, lo spazio degli eventi è multidimensionale e continuo. Un vettore X S è un evento necessariamente associato ad una misura di probabilità nulla. La ripartizione in sottoinsiemi s S dello spazio degli eventi lascia la possibilità di misure di probabilità non nulle associate ai sottoinsiemi perché sono a tutti gli effetti eventi discreti. VARIABILI E SPAZI CONTINUI

ESPERIMENTI NEGLI SPAZI CONTINUI Il risultato di un esperimento può essere rappresentato da p numeri reali, X = x 1, x 2, … x p…… definiti in un dominio S in uno spazio degli eventi multidimensionale (multivariato), S p. Gli assiomi probabilistici ed i teoremi del calcolo delle probabilità vengono adattati alle variabili continue riconducendo lo spazio ad un reticolo numerabile di intervalli. Ad ogni sottodominio elementare s i S si può associare una probabilità cui si possono applicare i principi degli spazi discreti degli eventi.

FUNZIONI DI DENSITÀ E DISTRIBUZIONE La prima delle proprietà si esprime nel continuo al seguente modo: P(E i ) = Si p(X) d X ; P(S) = 1. La funzione p(x) è definita in modo che si possa calcolare la probabilità di un sottoinsieme E i attraverso la sua integrazione locale. Il calcolo delle probabilità negli spazi continui è dominato da queste funzioni note come funzioni di densità di probabilità, p.d.f. = p(X). Si tratta di funzioni associate ad altre funzioni, dette di distribuzione di probabilità, che sono gli integrali definiti delle p.d.f. corrispondenti alla probabilità che la variabile vettoriale sia inferiore ad un valore dato, X 0, argomento della P.D.F., cioà che X < X 0.

MOMENTI DELLA pdf I momenti della funzione si definiscono per p=1: M k = (x k ) = S x k p(x) d x ed in particolare la media: (x ) = = S x p(x) d x e la varianza: (x- ) 2 = 2 = S (x- ) 2 p(x) d x Queste definizioni sono immediatamente generalizzabili ai momenti di ordine superiore ed alle pdf multivariate. Si può dimostrare che la conoscenza dei momenti di tutti gli ordini consente di specificare la funzione pdf in tutti i punti.

ALCUNE LEGGI Si definiscono alcune leggi indipendenti dalla pdf: Diseguaglianza di Markov: sia x una variabile aleatoria positiva con un valore atteso = E(x). Per ogni 0: P(x ) / che corrisponde allidea che man mano che cresce rispetto a la probabilità deve diminuire.

ALCUNE LEGGI Diseguaglianza di Cebychev: applicando la legge di Markov alla distanza euclidea dalla media della variabile x, (x- ) 2, per qualunque k>0: P(|x- | k ) 1/k 2 Diseguaglianza di Chernoff: se nella diseguaglianza precedente si inserisce la media di un campione di n estrazioni indipendenti di una popolazione: x = 1/n i x i si ottiene: P(|x- | k) 2 /nk 2 che tende a zero al crescere di n.

GRANDI NUMERI Teorema dei grandi numeri o di Bernoulli: La frequenza relativa di qualunque evento casuale converge alla sua probabilità allaumentare del numero delle prove Si ottiene direttamente dalla diseguaglianza di Chernoff applicata ad una variabile binomiale bernoulliana [0;1] e dalla definizione di media, che corrisponde alla frequenza di tale variabile e che deve convergere al valore della probabilità p dellestrazione dell1.

LIMITE CENTRALE Teorema del limite centrale: Per un campione di n estrazioni x 1, x 2,... x n ; qualunque sia la funzione di densità di probabilità p(x), la variabile: y = n -½ k (x k - ) converge in distribuzione ad una particolare funzione, denominata p.d.f. Normale, N(, 2 )

LA DISTRIBUZIONE NORMALE DI GAUSS Per p=1 la distribuzione normale ha la forma: N(, 2 ) = (2 2 ) -½ exp [-(x- ) 2 /2 2 )] interamente definita dai parametri, 2, quindi dai momenti del primo e secondo ordine.

CONVERGENZA ALLA DISTRIBUZIONE NORMALE La immagine mostra la rapida convergenza alla normale di una media di n numeri a distribuzione uniforme.

LA DISTRIBUZIONE DEI QUADRATI La somma y dei quadrati di p variabili normali a media nulla =0 ed a varianza unitaria 2 =1 ha una distribuzione chi-quadratica con p gradi di libertà: 2 (y)= [2 p/2 (1/2p)] -1 y p/2-1 e -y/2

LA FUNZIONE DI VEROSIMIGLIANZA Sia stata estratta una sequenza di n vettori indipendenti X i costituenti un campione X e sia assegnata una famiglia di k p.d.f.s, f 1, f 2, … f K. La probabilità congiunta della sequenza è diversa per ciascuna delle k ipotesi, corrispondenti a k diverse attribuzioni del campione. La funzione di verosimiglianza dellipotesi k-esima è una densità di probabilità congiunta, quindi un prodotto del tipo: L(f k |X) = p(x|f k ) = i f k (X i ) Si tratta di una funzione della pdf propria di ogni possibile ipotesi che non gode di nessuna delle proprietà asssiomatiche della probabilità.

LA FUNZIONE DI VEROSIMIGLIANZA NORMALE Si assuma una famiglia di p.d.f. (p.es. normali, binomiali, etc.) definita da una forma funzionale f e da un vettore di parametri = ( 1, 2, … m ). Nel caso della distribuzione normale con p=1 = (, 2 ) ed f = N(, 2 ), quindi: p(x| ) = p(x|, 2 ) = L( ;x) = L(, 2 ;x) = (2 2 ) -½n J exp -[ i (x i - ) 2 /2 2 )] La funzione di verosimiglianza logaritmica è: l = -1/2 n log (2 2 ) - i (x i - ) 2 /2 2 ) L, come funzione di, 2, non è una p.d.f, e non gode di proprietà assiomatiche.

LA DISTRIBUZIONE MULTIVARIATA NORMALE Campioni di vettori aleatori composti da p variabili, congiuntamente normali, sono governati dalla funzione di densità di probabilità (p.d.f) multivariata N( ; ): p(x | ; ) = |2 | -1/2 exp -[(x - ) -1 (x - )] dove e sono i valori attesi di x* e di W. Le sezioni di isoprobabilità di p(x| ; ) sono superfici di ellissoidi p-dimensionali: di volume p/2 i a i / (p/2+1) e di area p/2 p( i a i ) (p-1)/p / (p/2+1)

LA DISTRIBUZIONE MULTIVARIATA NORMALE

SEZIONI NORMALI EQUIPROBABILI

IL TEOREMA DI BAYES NEL CONTINUO Sia X un vettore di n osservazioni x 1, x 2, … x n di una popolazione regolata da una pdf p(x) per la cui definizione sono necessari k parametri 1, 2, … k come accade per la distribuzione normale interamente definita da e (k=2). Nellapproccio bayesiano le sono esse pure variabili aleatorie governate dalle loro proprie pdf, p( ). La probabilità congiunta riscritta per il continuo: p(X, ) = p(X/ ) p( ) = p( /X) p(X) Da cui il teorema di Bayes nel continuo: p( /X) = p(X/ ) p( )/p(X)

LA PROBABILITÀ A PRIORI DEL CAMPIONE Nella formula compaiono due probabilità di eventi che precedono lestrazione del campione X e sono dunque a-priori, la p(X) e la p( Per calcolare p(X) non cè che da integrare su i due termini della formula di Bayes e rammentare che lintegrale della probabilità a posteriori deve essere 1. Ne segue che la: p(X) = p(X/ ) p( ) d = costante è un valore che, estratto X, è sempre lo stesso. Svolge il ruolo di coefficiente di normalizzazione. Nella formula di Bayes espressa in forma di chances (odds) si semplifica a numeratore-denominatore.

LA PROBABILITÀ A PRIORI DELLIPOTESI La seconda probabilità a priori, p( ), esprime tutto quello che sappiamo a priori sulloggetto del test, ivi compresa la colpevolezza o linnocenza di uno o più imputati. Se X è un vettore di formanti di una voce incognita, che si ritiene possa appartenere ad uno tra m parlatori noti, o a viene assegnato il valore j del parlatore j-esimo che si confida essere lanonimo, o gli si attribuisce un valore non informativo, che non può che essere quello che definisce la pdf dellintera popolazione cui appartengono tutti i parlatori

LA VEROSIMIGLIANZA Loperazione sperimentale informativa che noi eseguiamo consiste effettivamente nella estrazione del campione X un vettore di n osservazioni x 1, x 2, … x n Il teorema delle probabilità congiunte, data lindipendenza delle n misure, permette di scrivere: p(X/ ) = L( |X) = i p(x i / ) Ed infine di ricavare la pdf a posteriori da due pdf a priori e dalla verosimiglianza di un dato campionario: p( /X) = p(X/ ) p( )/p(X)

IL CASO NORMALE MONOVARIATO Supponiamo che la pdf a priori sia normale: N(, 2 ) = (2 2 ) -½ exp [-( - ) 2 /2 2 )] e che di tipo normale sia anche la verosimiglianza espressa rispetto alla media del campione x: L( |X) exp [-( -x) 2 /2w 2 )] Si dimostra senza difficoltà che posto: = ( -2 + w -2 x)/( -2 + w -2 ) la probabilità a posteriori è ancora una normale: p( /X) = N( ; ( -2 + w -2 ) -1 ]

INFERENZA BAYESIANA_1 Supponiamo che siano state eseguite n osservazioni di una variabile normale monodimensionale x di cui sia nota la varianza w 2 e si supponga una distribuzione a priori noninformativa ( >>w). Si calcola la pdf a posteriori: N(x,w 2 /n) = (2 w 2 /n) -½ exp [-n( -x) 2 /2w 2 )] Con la semplice utilizzazione di una tavola della distribuzione normale si può determinare lintervallo attorno ad x che racchiude limporto voluto di probabilità, di norma il 99%, intervallo bayesiano HPD (high probability region).

INFERENZA BAYESIANA_2 Supponiamo che siano state eseguite n,m osservazioni di due variabili normali x, z monodimensionali di pari varianza w 2. Si supponga una distribuzione a priori noninformativa ( >>w). Si calcola la pdf a posteriori nei due casi. Se w è nota la pdf è normale: N(x-z,w 2 /(1/n+1/m)) Se viceversa w non è noto ed è stimato come media pesata delle due varianze campionarie: s 2 = 1/(n+m-2) [(n-1)S x 2 + (m-1)S z 2 ] la variabile: t = [ -(x-z)]/s(1/n+1/m) 1/2 è distribuita come una T di Student: T(0, 1, n+m-2)

La pdf di Student ha code più alte, fianchi più stretti e varianza maggiore rispetto alla normale cui tende rapidamente all' aumentare dei gradi di libertà. ~ t di Student (con =n-1 g.d.l.) T DI STUDENT