La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

2. Introduzione alla probabilità

Presentazioni simili


Presentazione sul tema: "2. Introduzione alla probabilità"— Transcript della presentazione:

1 2. Introduzione alla probabilità
Definizioni preliminari: Prova: è un esperimento il cui esito è aleatorio Spazio degli eventi elementari : è l’insieme di tutti i possibili esiti Evento casuale: è un sottoinsieme A di  ( A   ) Un evento casuale può essere impossibile A =  certo A = 

2 Variabili aleatorie Ogni evento w   può essere associato in modo biunivoco a un numero attraverso una particolare legge. Tale corrispondenza viene detta variabile aleatoria (v.a.) X(w). Una variabile aleatoria X(w) (o più semplicemente X) può essere: discreta se assume solo un insieme finito o numerabile di valori X  N continua altrimenti X  R Nel seguito indicheremo con X le v.a. e con x i valori che esse possono assumere.

3 Variabili aleatorie discrete
Una variabile aleatoria discreta è completamente definita dalla coppia (X,) dove X = {x1, … , xn}  N e ={x1, … , xn} dove xi = Pr(xi). Naturalmente Esempio: lancio di 2 monete. Il numero di teste è una variabile aleatoria. 1/2 1 insieme numerico insieme non numerico

4 La funzione di distribuzione (cumulativa) FX(x) di una v. a
La funzione di distribuzione (cumulativa) FX(x) di una v.a. discreta X esprime la probabilità che X assuma un valore minore o uguale ad x: FX(x) = Pr (X  x) Esempio: numero di teste nel lancio di 2 monete 1/4 1/2 3/4 1 FX(x) x 2 3 -1

5 Valore atteso o media Varianza E[X] 1 x Pr(x) Var[X]=0

6 Esempio: numero di teste nel lancio di 2 monete
1/2 1 E[X] = 0 ·1/4 + 1 ·1/2 + 2 ·1/4 = 1 Var[X] = (0-1)2 ·1/4 + (1-1) 2 ·1/2 + (2-1) 2 ·1/ = 1/4 + 1/4 = 1/2

7 Variabili aleatorie continue
L’insieme degli eventi di una v.a. continua è un insieme continuo   R. Le v.a. continue sono caratterizzate mediante la funzione densità di probabilità (x). x1 x1+dx (x) x (x1)dx = Pr(x[x1, x1+dx])

8 La funzione di distribuzione (cumulativa) FX(x) esprime la probabilità che X assuma un valore minore o uguale ad x: Chiaramente la funzione FX(x) è una funzione monotona non decrescente e FX(+)=1. Valore atteso o media Varianza

9 Variabile aleatoria uniforme continua
(x) x a b 1/(b-a) E[X]=(a+b)/2 Var[X]=(b-a)2/12 Variabile aleatoria esponenziale (x) = e- x x xR+  {0} E[X]=1/  Var[X]= 1/ 2

10 Variabile aleatoria normale o gaussiana
 (x) Var[X]=2 x E[x]=

11 Se la distribuzione è normale allora il valore medio è anche il valore più probabile.
La somma di v.a. gaussiane indipendenti è ancora una v.a. gaussiana indipendente la cui media è pari alla somma delle medie e la cui varianza è pari alla somma delle varianze. Una v.a. gaussiana è detta standard se E[X]=0 e Var[X]=1.

12 3. Processi Stocastici Un processo stocastico è una funzione del tempo i cui valori x(t) ad ogni istante di tempo t sono v.a. Notazione: X : insieme di possibili valori tT : generico istante di tempo (T: insieme dei possibili istanti di tempo)  (t) : funzione di probabilità o di densità di probabilità all’istante di tempo t (X,  (t)) tT

13 Una realizzazione di un processo stocastico (X,  (t)) tT è una particolare evoluzione x(t) per tT. Esempio: si lancia una moneta per un numero infinito di volte agli istanti t=0,1,2,… X={0,1} dove x0=0 : esce testa e x1=1 : esce croce. possibile realizzazione tempo xi (xi) / / / /2 : : : 1 (X,  (0)) (X,  (1)) t xi : :

14 Esempio: si lancia una moneta all’istante t=0 e la
Esempio: si lancia una moneta all’istante t=0 e la si lascia nella stessa posizione per ogni t > 0. La tabella (tempo, xi, (xi)) è uguale alla precedente ma vi sono solo 2 possibili realizzazioni tempo xi (xi) / / / /2 : : : 1 t x x2 : : : La tabella (tempo, xi, (xi)) non è sufficiente per descrivere completamente un processo stocastico.

15 I processi stocastici vengono classificati come segue:
sono anche detti catene a stati continui (X è un insieme continuo, ad es. X=R) a stati discreti (X è un insieme discreto, ad es. X={x1,x2,…,xn}) a stati finiti se n < +  a stati infiniti se n = + 

16 Esiste anche un’altra classificazione dei processi stocastici
a tempo continuo (T è un insieme continuo, ad es. T=R+{0}) a tempo discreto (T è un insieme discreto, ad es. T=N)

17 Processi stocastici stazionari (in senso stretto)
Un p.s. è detto stazionario se tutte le sue funzioni di probabilità (o densità di probabilità) sono stazionarie ossia invarianti per traslazioni nel tempo. x1,x2,…,xn(t1,t2,… ,tn) = x1,x2,…,xn(t1+ ,t2+ ,… ,tn+ )  n  1  t1 < t2 < … < tn  x1 , x2 , … , xn  X    T

18 Processi stocastici stazionari nella media
Per ogni istante di tempo tT (X,  (t)) è una v.a. con media x(t). Un p.s. è stazionario nella media se  t T x(t) =  Stazionarietà in senso stretto Stazionarietà nella media

19 Esempio: si lancia una moneta per un numero
Esempio: si lancia una moneta per un numero infinito di volte agli istanti t=0,1,2,… X={0,1} dove x0=0 : testa e x1=1 : croce. x(0) = 1/2 x(1) = 1/2 : È stazionario in senso stretto. Esempio: si lancia una moneta all’istante t=0 e la si lascia nella stessa posizione per ogni t > 0. x(0) = x(1) = … = 1/2

20 Ovviamente tale probabilità aumenta con gli anni.
Esempio: Una macchina può essere guasta x0=0 o funzionante x1=1 ( X={0,1} ). Vogliamo studiare la probabilità che la macchina sia guasta in un certo anno  T={0, 1, … , } (anni di funzionamento). 1 2 3 : 0.9 0.81 0.73 Ovviamente tale probabilità aumenta con gli anni. 0(t)=1-(0.9)t 1(t)=(0.9) t Non è stazionario nella media.

21 Processi stocastici ergodici
Si consideri un p.s. stazionario e sia la media di ogni v.a. (X,  (t)), t T. Per ogni possibile realizzazione posso calcolare processi a tempo discreto processi a tempo continuo Tale p.s. è ergodico se: 1) il limite esiste 2) tale limite non dipende dalla particolare realizzazione 3)

22 Lo studio di un p.s. ergodico può pertanto essere effettuato sulla base di una sola realizzazione.
Esempio: si lancia una moneta per un numero infinito di volte agli istanti t=0,1,2,… X={0,1} dove x0=0 : testa e x1=1 : croce. x(0) = 1/2 x(1) = 1/2 … ergodico Esempio: si lancia una moneta all’istante t=0 e la si lascia nella stessa posizione per ogni t > 0. Ho solo 2 possibili realizzazioni. Il limite esiste ma dipende dalla realizzazione. non ergodico

23 I Processi di Poisson Un processo di Poisson conta quante volte si verifica un evento nell’unità di tempo supponendo che le seguenti ipotesi siano verificate: 1. Ogni evento si verifica ad intervalli di tempo casuali. 2. Gli accadimenti sono indipendenti l’uno dall’altro. 3. La probabilità che si verifichino xN eventi nell’unità di tempo è con  R+ parametro opportuno.

24 4. p(x) non dipende dall’istante di tempo t, cioè x N e t R
Pr{che si verifichino x eventi in [0,1]} = Prob{che si verifichino x eventi in [t,t+1]}. p(x) x  < 1 p(x) x  > 1

25 Esempio: Il processo degli arrivi in coda ad un semaforo è Poissoniano?
Se il precedente semaforo è molto lontano potrebbe esserlo poiché gli arrivi sarebbero indipendenti. Se invece il precedente semaforo è vicino, allora le macchine arrivano generalmente a piccoli gruppi e non sono indipendenti.

26 Un processo di Poisson genera una v.a. discreta (X,p) con x=N.
Se per lo stesso processo contiamo la distanza temporale che intercorre tra 2 eventi consecutivi (tempo di inter-evento) otteniamo una v.a. continua. Il p.s. è allora (Xc,f) dove ora Xc=R+ ed f è una funzione densità di probabilità. Si può dimostrare che i tempi di inter-evento di un p. di P. di parametro  hanno una distribuzione esponenziale di parametro 

27 Mediamente si verificano  eventi nell’unità di tempo o equivalentemente, il tempo che mediamente passa tra l’occorrenza di un evento e del suo successivo è 1/ . Osservazione: La somma di 2 processi Poissoniani di parametro 1 e 2 è ancora un processo Poissoniano di parametro = 1 +2.


Scaricare ppt "2. Introduzione alla probabilità"

Presentazioni simili


Annunci Google