Scaricare la presentazione
La presentazione è in caricamento. Aspetta per favore
PubblicatoAlba Del vecchio Modificato 11 anni fa
1
2.VARIABILI CONTINUE A. Federico ENEA; Fondazione Ugo Bordoni Scuola estiva di fonetica forense Soriano al Cimino 17 – 21 settembre 2007
2
Se un esperimento consiste, ad esempio, nel misurare la prima formante di una vocale, lo spazio degli eventi S si può far corrispondere a tutti i punti di un intervallo di un asse reale: si ha in questo caso uno spazio degli eventi descritto da una variabile continua. Se le misure sono più duna, come nel caso che si misurino tutte le formanti, lo spazio degli eventi è multidimensionale e continuo. Un vettore X S è un evento necessariamente associato ad una misura di probabilità nulla. La ripartizione in sottoinsiemi s S dello spazio degli eventi lascia la possibilità di misure di probabilità non nulle associate ai sottoinsiemi perché sono a tutti gli effetti eventi discreti. VARIABILI E SPAZI CONTINUI
3
ESPERIMENTI NEGLI SPAZI CONTINUI Il risultato di un esperimento può essere rappresentato da p numeri reali, X = x 1, x 2, … x p…… definiti in un dominio S in uno spazio degli eventi multidimensionale (multivariato), S p. Gli assiomi probabilistici ed i teoremi del calcolo delle probabilità vengono adattati alle variabili continue riconducendo lo spazio ad un reticolo numerabile di intervalli. Ad ogni sottodominio elementare s i S si può associare una probabilità cui si possono applicare i principi degli spazi discreti degli eventi.
4
FUNZIONI DI DENSITÀ E DISTRIBUZIONE La prima delle proprietà si esprime nel continuo al seguente modo: P(E i ) = Si p(X) d X ; P(S) = 1. La funzione p(x) è definita in modo che si possa calcolare la probabilità di un sottoinsieme E i attraverso la sua integrazione locale. Il calcolo delle probabilità negli spazi continui è dominato da queste funzioni note come funzioni di densità di probabilità, p.d.f. = p(X). Si tratta di funzioni associate ad altre funzioni, dette di distribuzione di probabilità, che sono gli integrali definiti delle p.d.f. corrispondenti alla probabilità che la variabile vettoriale sia inferiore ad un valore dato, X 0, argomento della P.D.F., cioà che X < X 0.
5
MOMENTI DELLA pdf I momenti della funzione si definiscono per p=1: M k = (x k ) = S x k p(x) d x ed in particolare la media: (x ) = = S x p(x) d x e la varianza: (x- ) 2 = 2 = S (x- ) 2 p(x) d x Queste definizioni sono immediatamente generalizzabili ai momenti di ordine superiore ed alle pdf multivariate. Si può dimostrare che la conoscenza dei momenti di tutti gli ordini consente di specificare la funzione pdf in tutti i punti.
6
ALCUNE LEGGI Si definiscono alcune leggi indipendenti dalla pdf: Diseguaglianza di Markov: sia x una variabile aleatoria positiva con un valore atteso = E(x). Per ogni 0: P(x ) / che corrisponde allidea che man mano che cresce rispetto a la probabilità deve diminuire.
7
ALCUNE LEGGI Diseguaglianza di Cebychev: applicando la legge di Markov alla distanza euclidea dalla media della variabile x, (x- ) 2, per qualunque k>0: P(|x- | k ) 1/k 2 Diseguaglianza di Chernoff: se nella diseguaglianza precedente si inserisce la media di un campione di n estrazioni indipendenti di una popolazione: x = 1/n i x i si ottiene: P(|x- | k) 2 /nk 2 che tende a zero al crescere di n.
8
GRANDI NUMERI Teorema dei grandi numeri o di Bernoulli: La frequenza relativa di qualunque evento casuale converge alla sua probabilità allaumentare del numero delle prove Si ottiene direttamente dalla diseguaglianza di Chernoff applicata ad una variabile binomiale bernoulliana [0;1] e dalla definizione di media, che corrisponde alla frequenza di tale variabile e che deve convergere al valore della probabilità p dellestrazione dell1.
9
LIMITE CENTRALE Teorema del limite centrale: Per un campione di n estrazioni x 1, x 2,... x n ; qualunque sia la funzione di densità di probabilità p(x), la variabile: y = n -½ k (x k - ) converge in distribuzione ad una particolare funzione, denominata p.d.f. Normale, N(, 2 )
10
LA DISTRIBUZIONE NORMALE DI GAUSS Per p=1 la distribuzione normale ha la forma: N(, 2 ) = (2 2 ) -½ exp [-(x- ) 2 /2 2 )] interamente definita dai parametri, 2, quindi dai momenti del primo e secondo ordine.
11
CONVERGENZA ALLA DISTRIBUZIONE NORMALE La immagine mostra la rapida convergenza alla normale di una media di n numeri a distribuzione uniforme.
12
LA DISTRIBUZIONE DEI QUADRATI La somma y dei quadrati di p variabili normali a media nulla =0 ed a varianza unitaria 2 =1 ha una distribuzione chi-quadratica con p gradi di libertà: 2 (y)= [2 p/2 (1/2p)] -1 y p/2-1 e -y/2
13
LA FUNZIONE DI VEROSIMIGLIANZA Sia stata estratta una sequenza di n vettori indipendenti X i costituenti un campione X e sia assegnata una famiglia di k p.d.f.s, f 1, f 2, … f K. La probabilità congiunta della sequenza è diversa per ciascuna delle k ipotesi, corrispondenti a k diverse attribuzioni del campione. La funzione di verosimiglianza dellipotesi k-esima è una densità di probabilità congiunta, quindi un prodotto del tipo: L(f k |X) = p(x|f k ) = i f k (X i ) Si tratta di una funzione della pdf propria di ogni possibile ipotesi che non gode di nessuna delle proprietà asssiomatiche della probabilità.
14
LA FUNZIONE DI VEROSIMIGLIANZA NORMALE Si assuma una famiglia di p.d.f. (p.es. normali, binomiali, etc.) definita da una forma funzionale f e da un vettore di parametri = ( 1, 2, … m ). Nel caso della distribuzione normale con p=1 = (, 2 ) ed f = N(, 2 ), quindi: p(x| ) = p(x|, 2 ) = L( ;x) = L(, 2 ;x) = (2 2 ) -½n J exp -[ i (x i - ) 2 /2 2 )] La funzione di verosimiglianza logaritmica è: l = -1/2 n log (2 2 ) - i (x i - ) 2 /2 2 ) L, come funzione di, 2, non è una p.d.f, e non gode di proprietà assiomatiche.
15
LA DISTRIBUZIONE MULTIVARIATA NORMALE Campioni di vettori aleatori composti da p variabili, congiuntamente normali, sono governati dalla funzione di densità di probabilità (p.d.f) multivariata N( ; ): p(x | ; ) = |2 | -1/2 exp -[(x - ) -1 (x - )] dove e sono i valori attesi di x* e di W. Le sezioni di isoprobabilità di p(x| ; ) sono superfici di ellissoidi p-dimensionali: di volume p/2 i a i / (p/2+1) e di area p/2 p( i a i ) (p-1)/p / (p/2+1)
16
LA DISTRIBUZIONE MULTIVARIATA NORMALE
17
SEZIONI NORMALI EQUIPROBABILI
18
IL TEOREMA DI BAYES NEL CONTINUO Sia X un vettore di n osservazioni x 1, x 2, … x n di una popolazione regolata da una pdf p(x) per la cui definizione sono necessari k parametri 1, 2, … k come accade per la distribuzione normale interamente definita da e (k=2). Nellapproccio bayesiano le sono esse pure variabili aleatorie governate dalle loro proprie pdf, p( ). La probabilità congiunta riscritta per il continuo: p(X, ) = p(X/ ) p( ) = p( /X) p(X) Da cui il teorema di Bayes nel continuo: p( /X) = p(X/ ) p( )/p(X)
19
LA PROBABILITÀ A PRIORI DEL CAMPIONE Nella formula compaiono due probabilità di eventi che precedono lestrazione del campione X e sono dunque a-priori, la p(X) e la p( Per calcolare p(X) non cè che da integrare su i due termini della formula di Bayes e rammentare che lintegrale della probabilità a posteriori deve essere 1. Ne segue che la: p(X) = p(X/ ) p( ) d = costante è un valore che, estratto X, è sempre lo stesso. Svolge il ruolo di coefficiente di normalizzazione. Nella formula di Bayes espressa in forma di chances (odds) si semplifica a numeratore-denominatore.
20
LA PROBABILITÀ A PRIORI DELLIPOTESI La seconda probabilità a priori, p( ), esprime tutto quello che sappiamo a priori sulloggetto del test, ivi compresa la colpevolezza o linnocenza di uno o più imputati. Se X è un vettore di formanti di una voce incognita, che si ritiene possa appartenere ad uno tra m parlatori noti, o a viene assegnato il valore j del parlatore j-esimo che si confida essere lanonimo, o gli si attribuisce un valore non informativo, che non può che essere quello che definisce la pdf dellintera popolazione cui appartengono tutti i parlatori
21
LA VEROSIMIGLIANZA Loperazione sperimentale informativa che noi eseguiamo consiste effettivamente nella estrazione del campione X un vettore di n osservazioni x 1, x 2, … x n Il teorema delle probabilità congiunte, data lindipendenza delle n misure, permette di scrivere: p(X/ ) = L( |X) = i p(x i / ) Ed infine di ricavare la pdf a posteriori da due pdf a priori e dalla verosimiglianza di un dato campionario: p( /X) = p(X/ ) p( )/p(X)
22
IL CASO NORMALE MONOVARIATO Supponiamo che la pdf a priori sia normale: N(, 2 ) = (2 2 ) -½ exp [-( - ) 2 /2 2 )] e che di tipo normale sia anche la verosimiglianza espressa rispetto alla media del campione x: L( |X) exp [-( -x) 2 /2w 2 )] Si dimostra senza difficoltà che posto: = ( -2 + w -2 x)/( -2 + w -2 ) la probabilità a posteriori è ancora una normale: p( /X) = N( ; ( -2 + w -2 ) -1 ]
23
INFERENZA BAYESIANA_1 Supponiamo che siano state eseguite n osservazioni di una variabile normale monodimensionale x di cui sia nota la varianza w 2 e si supponga una distribuzione a priori noninformativa ( >>w). Si calcola la pdf a posteriori: N(x,w 2 /n) = (2 w 2 /n) -½ exp [-n( -x) 2 /2w 2 )] Con la semplice utilizzazione di una tavola della distribuzione normale si può determinare lintervallo attorno ad x che racchiude limporto voluto di probabilità, di norma il 99%, intervallo bayesiano HPD (high probability region).
24
INFERENZA BAYESIANA_2 Supponiamo che siano state eseguite n,m osservazioni di due variabili normali x, z monodimensionali di pari varianza w 2. Si supponga una distribuzione a priori noninformativa ( >>w). Si calcola la pdf a posteriori nei due casi. Se w è nota la pdf è normale: N(x-z,w 2 /(1/n+1/m)) Se viceversa w non è noto ed è stimato come media pesata delle due varianze campionarie: s 2 = 1/(n+m-2) [(n-1)S x 2 + (m-1)S z 2 ] la variabile: t = [ -(x-z)]/s(1/n+1/m) 1/2 è distribuita come una T di Student: T(0, 1, n+m-2)
25
La pdf di Student ha code più alte, fianchi più stretti e varianza maggiore rispetto alla normale cui tende rapidamente all' aumentare dei gradi di libertà. ~ t di Student (con =n-1 g.d.l.) T DI STUDENT
Presentazioni simili
© 2024 SlidePlayer.it Inc.
All rights reserved.