Scaricare la presentazione
1
2. Introduzione alla probabilità
Definizioni preliminari: Prova: è un esperimento il cui esito è aleatorio Spazio degli eventi elementari : è l’insieme di tutti i possibili esiti Evento casuale: è un sottoinsieme A di ( A ) Un evento casuale può essere impossibile A = certo A =
2
Variabili aleatorie Ogni evento w può essere associato in modo biunivoco a un numero attraverso una particolare legge. Tale corrispondenza viene detta variabile aleatoria (v.a.) X(w). Una variabile aleatoria X(w) (o più semplicemente X) può essere: discreta se assume solo un insieme finito o numerabile di valori X N continua altrimenti X R Nel seguito indicheremo con X le v.a. e con x i valori che esse possono assumere.
3
Variabili aleatorie discrete
Una variabile aleatoria discreta è completamente definita dalla coppia (X,) dove X = {x1, … , xn} N e ={x1, … , xn} dove xi = Pr(xi). Naturalmente Esempio: lancio di 2 monete. Il numero di teste è una variabile aleatoria. 1/2 1 insieme numerico insieme non numerico
4
La funzione di distribuzione (cumulativa) FX(x) di una v. a
La funzione di distribuzione (cumulativa) FX(x) di una v.a. discreta X esprime la probabilità che X assuma un valore minore o uguale ad x: FX(x) = Pr (X x) Esempio: numero di teste nel lancio di 2 monete 1/4 1/2 3/4 1 FX(x) x 2 3 -1
5
Valore atteso o media Varianza E[X] 1 x Pr(x) Var[X]=0
6
Esempio: numero di teste nel lancio di 2 monete
1/2 1 E[X] = 0 ·1/4 + 1 ·1/2 + 2 ·1/4 = 1 Var[X] = (0-1)2 ·1/4 + (1-1) 2 ·1/2 + (2-1) 2 ·1/ = 1/4 + 1/4 = 1/2
7
Variabili aleatorie continue
L’insieme degli eventi di una v.a. continua è un insieme continuo R. Le v.a. continue sono caratterizzate mediante la funzione densità di probabilità (x). x1 x1+dx (x) x (x1)dx = Pr(x[x1, x1+dx])
8
La funzione di distribuzione (cumulativa) FX(x) esprime la probabilità che X assuma un valore minore o uguale ad x: Chiaramente la funzione FX(x) è una funzione monotona non decrescente e FX(+)=1. Valore atteso o media Varianza
9
Variabile aleatoria uniforme continua
(x) x a b 1/(b-a) E[X]=(a+b)/2 Var[X]=(b-a)2/12 Variabile aleatoria esponenziale (x) = e- x x xR+ {0} E[X]=1/ Var[X]= 1/ 2
10
Variabile aleatoria normale o gaussiana
(x) Var[X]=2 x E[x]=
11
Se la distribuzione è normale allora il valore medio è anche il valore più probabile.
La somma di v.a. gaussiane indipendenti è ancora una v.a. gaussiana indipendente la cui media è pari alla somma delle medie e la cui varianza è pari alla somma delle varianze. Una v.a. gaussiana è detta standard se E[X]=0 e Var[X]=1.
12
3. Processi Stocastici Un processo stocastico è una funzione del tempo i cui valori x(t) ad ogni istante di tempo t sono v.a. Notazione: X : insieme di possibili valori tT : generico istante di tempo (T: insieme dei possibili istanti di tempo) (t) : funzione di probabilità o di densità di probabilità all’istante di tempo t (X, (t)) tT
13
Una realizzazione di un processo stocastico (X, (t)) tT è una particolare evoluzione x(t) per tT. Esempio: si lancia una moneta per un numero infinito di volte agli istanti t=0,1,2,… X={0,1} dove x0=0 : esce testa e x1=1 : esce croce. possibile realizzazione tempo xi (xi) / / / /2 : : : 1 (X, (0)) (X, (1)) t xi : :
14
Esempio: si lancia una moneta all’istante t=0 e la
Esempio: si lancia una moneta all’istante t=0 e la si lascia nella stessa posizione per ogni t > 0. La tabella (tempo, xi, (xi)) è uguale alla precedente ma vi sono solo 2 possibili realizzazioni tempo xi (xi) / / / /2 : : : 1 t x x2 : : : La tabella (tempo, xi, (xi)) non è sufficiente per descrivere completamente un processo stocastico.
15
I processi stocastici vengono classificati come segue:
sono anche detti catene a stati continui (X è un insieme continuo, ad es. X=R) a stati discreti (X è un insieme discreto, ad es. X={x1,x2,…,xn}) a stati finiti se n < + a stati infiniti se n = +
16
Esiste anche un’altra classificazione dei processi stocastici
a tempo continuo (T è un insieme continuo, ad es. T=R+{0}) a tempo discreto (T è un insieme discreto, ad es. T=N)
17
Processi stocastici stazionari (in senso stretto)
Un p.s. è detto stazionario se tutte le sue funzioni di probabilità (o densità di probabilità) sono stazionarie ossia invarianti per traslazioni nel tempo. x1,x2,…,xn(t1,t2,… ,tn) = x1,x2,…,xn(t1+ ,t2+ ,… ,tn+ ) n 1 t1 < t2 < … < tn x1 , x2 , … , xn X T
18
Processi stocastici stazionari nella media
Per ogni istante di tempo tT (X, (t)) è una v.a. con media x(t). Un p.s. è stazionario nella media se t T x(t) = Stazionarietà in senso stretto Stazionarietà nella media
19
Esempio: si lancia una moneta per un numero
Esempio: si lancia una moneta per un numero infinito di volte agli istanti t=0,1,2,… X={0,1} dove x0=0 : testa e x1=1 : croce. x(0) = 1/2 x(1) = 1/2 : È stazionario in senso stretto. Esempio: si lancia una moneta all’istante t=0 e la si lascia nella stessa posizione per ogni t > 0. x(0) = x(1) = … = 1/2
20
Ovviamente tale probabilità aumenta con gli anni.
Esempio: Una macchina può essere guasta x0=0 o funzionante x1=1 ( X={0,1} ). Vogliamo studiare la probabilità che la macchina sia guasta in un certo anno T={0, 1, … , } (anni di funzionamento). 1 2 3 : 0.9 0.81 0.73 Ovviamente tale probabilità aumenta con gli anni. 0(t)=1-(0.9)t 1(t)=(0.9) t Non è stazionario nella media.
21
Processi stocastici ergodici
Si consideri un p.s. stazionario e sia la media di ogni v.a. (X, (t)), t T. Per ogni possibile realizzazione posso calcolare processi a tempo discreto processi a tempo continuo Tale p.s. è ergodico se: 1) il limite esiste 2) tale limite non dipende dalla particolare realizzazione 3)
22
Lo studio di un p.s. ergodico può pertanto essere effettuato sulla base di una sola realizzazione.
Esempio: si lancia una moneta per un numero infinito di volte agli istanti t=0,1,2,… X={0,1} dove x0=0 : testa e x1=1 : croce. x(0) = 1/2 x(1) = 1/2 … ergodico Esempio: si lancia una moneta all’istante t=0 e la si lascia nella stessa posizione per ogni t > 0. Ho solo 2 possibili realizzazioni. Il limite esiste ma dipende dalla realizzazione. non ergodico
23
I Processi di Poisson Un processo di Poisson conta quante volte si verifica un evento nell’unità di tempo supponendo che le seguenti ipotesi siano verificate: 1. Ogni evento si verifica ad intervalli di tempo casuali. 2. Gli accadimenti sono indipendenti l’uno dall’altro. 3. La probabilità che si verifichino xN eventi nell’unità di tempo è con R+ parametro opportuno.
24
4. p(x) non dipende dall’istante di tempo t, cioè x N e t R
Pr{che si verifichino x eventi in [0,1]} = Prob{che si verifichino x eventi in [t,t+1]}. p(x) x < 1 p(x) x > 1
25
Esempio: Il processo degli arrivi in coda ad un semaforo è Poissoniano?
Se il precedente semaforo è molto lontano potrebbe esserlo poiché gli arrivi sarebbero indipendenti. Se invece il precedente semaforo è vicino, allora le macchine arrivano generalmente a piccoli gruppi e non sono indipendenti.
26
Un processo di Poisson genera una v.a. discreta (X,p) con x=N.
Se per lo stesso processo contiamo la distanza temporale che intercorre tra 2 eventi consecutivi (tempo di inter-evento) otteniamo una v.a. continua. Il p.s. è allora (Xc,f) dove ora Xc=R+ ed f è una funzione densità di probabilità. Si può dimostrare che i tempi di inter-evento di un p. di P. di parametro hanno una distribuzione esponenziale di parametro
27
Mediamente si verificano eventi nell’unità di tempo o equivalentemente, il tempo che mediamente passa tra l’occorrenza di un evento e del suo successivo è 1/ . Osservazione: La somma di 2 processi Poissoniani di parametro 1 e 2 è ancora un processo Poissoniano di parametro = 1 +2.
Presentazioni simili
© 2024 SlidePlayer.it Inc.
All rights reserved.