3. Processi Stocastici Un processo stocastico è una funzione del tempo i cui valori x(t) ad ogni istante di tempo t sono v.a. Notazione: X : insieme di.

Slides:



Advertisements
Presentazioni simili
- le Medie la Moda la Mediana
Advertisements

Teoria e Tecniche del Riconoscimento
Le distribuzioni di probabilità continue
2. Introduzione alla probabilità
Definizione di probabilità, calcolo combinatorio,
____________________
Variabili aleatorie discrete e continue
Matematica I: Calcolo differenziale, Algebra lineare, Probabilità e statistica Giovanni Naldi, Lorenzo Pareschi, Giacomo Aletti Copyright © The.
Laboratorio Processi Stocastici
Corsi Abilitanti Speciali Classe 59A III semestre - 3
6. Catene di Markov a tempo continuo (CMTC)
1 2. Introduzione alla probabilità Definizioni preliminari: Prova: è un esperimento il cui esito è aleatorio Spazio degli eventi elementari : è linsieme.
Introduzione Cosa sono le reti di Petri?
Frontespizio Economia Monetaria Anno Accademico
La scelta del paniere preferito
1 la competenza alfabetica della popolazione italiana CEDE distribuzione percentuale per livelli.
Meccanica 8 31 marzo 2011 Teorema del momento angolare. 2° eq. Cardinale Conservazione del momento angolare Sistema del centro di massa. Teoremi di Koenig.
I sistemi di riferimento
Inferenza Statistica Le componenti teoriche dell’Inferenza Statistica sono: la teoria dei campioni la teoria della probabilità la teoria della stima dei.
Definizioni Chiamiamo esperimento aleatorio ogni fenomeno del mondo reale alle cui manifestazioni può essere associata una situazione di incertezza. Esempi:
Funzione di distribuzione (detta anche cumulativa o di ripartizione)
6. Catene di Markov a tempo continuo (CMTC)
4. Automi temporizzati Il comportamento dei sistemi ad eventi temporizzati non è definito semplicemente da una sequenza di eventi o di valori dello stato,
5. Catene di Markov a tempo discreto (CMTD)
Metodi Probabilistici, Statistici e Processi Stocastici Università Carlo Cattaneo Emanuele Borgonovo Metodi Probailistici, Statistici e Processi Stocastici.
Calcolo delle Probabilità terza parte
Inferenza statistica per un singolo campione
Le Variabili Casuali Corso di Teoria dell’Inferenza Statistica 1
Capitolo 9 I numeri indici
Camil Demetrescu, Irene Finocchi, Giuseppe F. ItalianoAlgoritmi e strutture dati Algoritmi e Strutture Dati Capitolo 2 Modelli di calcolo e metodologie.
Camil Demetrescu, Irene Finocchi, Giuseppe F. ItalianoAlgoritmi e strutture dati Algoritmi e Strutture Dati Capitolo 2 Modelli di calcolo e metodologie.
Processi Aleatori : Introduzione – Parte I
7. Teoria delle Code Una coda è costituita da 3 componenti fondamentali: i serventi i clienti uno spazio in cui i clienti attendono di essere serviti.
8. Reti di Code Nella maggior parte dei processi produttivi risulta troppo restrittivo considerare una sola risorsa. Esempio: linea tandem arrivi 1 v.
Test di ipotesi X variabile casuale con funzione di densità (probabilità) f(x; q) q Q parametro incognito. Test Statistico: regola che sulla base di un.
Lezione 8 Numerosità del campione
Num / 36 Lezione 9 Numerosità del campione.
Lezione 4 Probabilità.
Analisi Statistica dei Dati
Scheda Ente Ente Privato Ente Pubblico. 2ROL - Richieste On Line.
Orientamento universitario
Radix-Sort(A,d) // A[i] = cd...c2c1
Bando Arti Sceniche. Per poter procedere è indispensabile aprire il testo del Bando 2ROL - Richieste On Line.
Elementi di teoria della probabilità e distribuzioni di probabilità
Statistica economica (6 CFU) Corso di Laurea in Economia e Commercio a.a Docente: Lucia Buzzigoli Lezione 5 1.
QUALCHE LUCIDO DI RIPASSO… 1. Esperimento casuale ( e. aleatorio) risultato Esperimento condotto sotto leffetto del caso: non è possibile prevederne il.
LE SAI LE TABELLINE? Mettiti alla prova!.
1.PROBABILITÀ A. Federico ENEA; Fondazione Ugo Bordoni Scuola estiva di fonetica forense Soriano al Cimino 17 – 21 settembre 2007.
1101 = x 10 x 10 x x 10 x = CORRISPONDENZE
Unità 2 Distribuzioni di probabilità Misure di localizzazione Misure di variabilità Asimmetria e curtosi.
Probabilità ed eventi casuali (Prof. Daniele Baldissin)
Cap. 15 Caso, probabilità e variabili casuali Cioè gli ingredienti matematici per fare buona inferenza statistica.
Laurea Ing EO/IN/BIO;TLC D.U. Ing EO 10 PROBABILITA’ E VARIABILI ALEATORIE.
R. Soncini Sessa, MODSS, S27 Stima degli effetti (Wald) Rodolfo Soncini Sessa MODSS Copyright 2004 © Rodolfo Soncini Sessa.
IL GIOCO DEL PORTIERE CASISTICA. Caso n. 1 Il portiere nella seguente azione NON commette infrazioni.
Calcolo delle probabilità a cura di Maurizio Brizzi
Master in Neuropsicologia ClinicaElementi di Statistica I 17 maggio / 23 Analisi bivariata Per ogni unità statistica si considerano congiuntamente.
2) PROBABILITA’ La quantificazione della ‘possibilità’ del verificarsi di un evento casuale E è detta probabilità P(E) Definizione classica: P(E) è il.
Distribuzioni di probabilità di uso frequente
Eventi aleatori Un evento è aleatorio (casuale) quando non si può prevedere con certezza se avverrà o meno I fenomeni (eventi) aleatori sono studiati.
Elementi di teoria delle probabilità
In alcuni casi gli esiti di un esperimento possono essere considerati numeri naturali in modo naturale. Esempio: lancio di un dado In atri casi si definisce.
La probabilità matematica
1 DISTRIBUZIONI DI PROBABILITÁ. 2 distribu- zione che permette di calcolare le probabilità degli eventi possibili A tutte le variabili casuali, discrete.
1 VARIABILI CASUALI. 2 definizione Una variabile casuale è una variabile che assume determinati valori in modo casuale (non deterministico). Esempi l’esito.
1 TEORIA DELLA PROBABILITÁ. 2 Cenni storici i primi approcci alla teoria della probabilità sono della metà del XVII secolo (Pascal, Fermat, Bernoulli)
Se A e B sono variabili random statisticamente indipendenti P (2) (B,A)=P(B)P(A) P(A)=probabilità che la variabile stocastica A assuma un certo valore.
Un evento è un fatto che può accadere o non accadere. Se esso avviene con certezza si dice evento certo, mentre se non può mai accadere si dice evento.
Teoria dei Sistemi di Trasporto Tematica 4: Elementi minimi di teoria della probabilità.
Transcript della presentazione:

3. Processi Stocastici Un processo stocastico è una funzione del tempo i cui valori x(t) ad ogni istante di tempo t sono v.a. Notazione: X : insieme di possibili valori tT : generico istante di tempo (T: insieme dei possibili istanti di tempo, o asse temporale)  (t) : funzione di probabilità (o di densità di probabilità nel caso continuo) all’istante di tempo t (X,  (t)) tT

Una realizzazione di un processo stocastico (X,  (t)) tT è una particolare evoluzione x(t) per tT. Esempio: si lancia una moneta per un numero infinito di volte agli istanti t = 0,1,2,… X={0,1} dove x0=0 : esce testa e x1=1 : esce croce. possibile realizzazione tempo xi (xi) 0 1/2 1 1/2 0 1/2 1 1/2 : : : 1 (X,  (0)) (X,  (1)) t xi 0 0 1 0 2 1 3 0 : :

Esempio: si lancia una moneta all’istante t=0 e la Esempio: si lancia una moneta all’istante t=0 e la si lascia nella stessa posizione per ogni t > 0. La tabella (tempo, xi, (xi)) è uguale alla precedente ma vi sono solo 2 possibili realizzazioni tempo xi (xi) 0 1/2 1 1/2 0 1/2 1 1/2 : : : 1 t x1 x2 0 0 1 1 0 1 2 0 1 3 0 1 : : : La tabella (tempo, xi, (xi)) non è sufficiente per descrivere completamente un processo stocastico.

I processi stocastici vengono classificati come segue: sono anche detti catene a stati continui (X è un insieme continuo, ad es. XR) a stati discreti (X è un insieme discreto, ad es. X={x1,x2,…,xn}) a stati finiti se n < +  a stati infiniti se n = + 

Esiste anche un’altra classificazione dei processi stocastici a tempo continuo (T è un insieme continuo, ad es. T R+{0}) a tempo discreto (T è un insieme discreto, ad es. T=N)

Esempi 1) x è pari al numero di persone in una coda X={0,1, … } spazio di stato discreto T= R+  {0} tempo continuo 2) x è pari all’altezza di una persona il giorno del suo compleanno X= R+  {0} spazio di stato continuo T = {0,1,…,n} tempo discreto

Ad un processo stocastico a stati discreti possiamo associare un numero infinito di funzioni di probabilità congiunta: x1,x2,…,xn(t1,t2,… ,tn) = Pr(x(t1)=x1, x(t2)=x2, … , x(tn)=xn)  n  1  t1 < t2 < … < tn  x1 , x2 , … , xn  X Una definizione analoga vale per le densità di probabilità nel caso dei sistemi a stati continui.

Esempio: si lancia una moneta per un numero Esempio: si lancia una moneta per un numero infinito di volte agli istanti t=0,1,2,… X={0,1} dove x0=0 : testa e x1=1 : croce. 0(0) = Pr(x(0)=0) = 1/2 0,0(0,1) = Pr(x(0)=0, x(1)=0) = 1/4 Esempio: si lancia una moneta all’istante t=0 e la si lascia nella stessa posizione per ogni t > 0. 0(0) = Pr(x(0)=0) = 1/2 0,0(0,1) = Pr(x(0)=0, x(1)=0) = 1/2

Processi stocastici stazionari Un p.s. è detto stazionario se tutte le sue funzioni di probabilità (o densità di probabilità) sono stazionarie ossia invarianti per traslazioni nel tempo. x1,x2,…,xn(t1,t2,… ,tn) = x1,x2,…,xn(t1+ ,t2+ ,… ,tn+ )  n  1  t1 < t2 < … < tn  x1 , x2 , … , xn  X    T N.B. Se un p.s. è stazionario allora  t T x(t) = 

Esempio: si lancia una moneta per un numero Esempio: si lancia una moneta per un numero infinito di volte agli istanti t=0,1,2,… X={0,1} dove x0=0 : testa e x1=1 : croce. x(0) = 1/2 x(1) = 1/2 : Sono p.s. stazionari. Esempio: si lancia una moneta all’istante t=0 e la si lascia nella stessa posizione per ogni t > 0. x(0) = x(1) = … = 1/2

Ovviamente la probabilità di guasto aumenta con gli anni. Esempio: Una macchina può essere guasta x0=0 o funzionante x1=1 ( X={0,1} ). Vogliamo studiare la probabilità che la macchina sia guasta in un certo anno  T={0, 1, … , } (anni di funzionamento). 1 2 3 : 0.9 0.81 0.73 Ovviamente la probabilità di guasto aumenta con gli anni. 0(t)=1-(0.9)t 1(t)=(0.9) t Non è stazionario.

Processi stocastici ergodici Un processo stazionario si dice ergodico se tutte le proprietà statistiche possono essere determinate da un’unica realizzazione del processo. Il valore atteso della v.a. in un qualunque istante coincide con la media temporale di una qualunque realizzazione. Definizione formale:

Si consideri un p. s. stazionario e sia la media di ogni v. a Si consideri un p.s. stazionario e sia la media di ogni v.a. (X,  (t)), al tempo t T. Per ogni possibile realizzazione posso calcolare la media temporale: processi a tempo discreto processi a tempo continuo Il p.s. è ergodico se: 1) il limite esiste 2) tale limite non dipende dalla particolare realizzazione 3)

Lo studio di un p.s. ergodico può pertanto essere effettuato sulla base di una sola realizzazione. Esempio: si lancia una moneta per un numero infinito di volte agli istanti t=0,1,2,… X={0,1} dove x0=0 : testa e x1=1 : croce. x(0) = 1/2 x(1) = 1/2 … ergodico Esempio: si lancia una moneta all’istante t=0 e la si lascia nella stessa posizione per ogni t > 0. Ho solo 2 possibili realizzazioni. Il limite esiste ma dipende dalla realizzazione. non ergodico

Processi stocastici indipendenti Un p.s. è indipendente se i valori assunti dal processo in istanti di tempo diversi sono v.a. indipendenti. Esempio: si lancia una moneta per un numero infinito di volte agli istanti t=0,1,2,… Pr(x(2)=0 | x(1)=0) = 1/2 = Pr(x(2)=0) p.s. indipendente Esempio: si lancia una moneta all’istante t=0 e la si lascia nella stessa posizione per ogni t > 0. Pr(x(2)=0 | x(1)=0) = 1  Pr(x(2)=0) p.s. non indipendente

Processi stocastici markoviani Un p.s. è markoviano (o di Markov) se la legge di probabilità che governa i cambiamenti di stato in un dato istante di tempo dipende solo dal valore assunto dallo stato nell’istante di tempo precedente e non da tutti i precedenti valori assunti dallo stato Pr(x(tn)=xn | x(tn-1)=xn-1) = Pr(x(tn)=xn | x(tn-1)=xn-1, x(tn-2)=xn-2, … x(t1)=x1) Il processo non ha memoria di quanto accaduto prima di raggiungere lo stato attuale.

Esempio di processo non markoviano: Ho un urna con 2 palline, una bianca e una nera. Effettuo delle estrazioni e ogni volta rimetto 2 palline dello stesso colore di quelle che ho tolto. Esempio di Processo markoviano: si lancia una moneta all’istante t=0 e la si lascia nella stessa posizione per ogni t > 0.

Processi stocastici semi-markoviani generalizzati Un p.s. semi-markoviano generalizzato è una estensione di un p.s. markoviano. In particolare in questo caso la legge di probabilità che governa i cambiamenti di stato in un dato istante di tempo dipende sia dal valore assunto dallo stato nell’istante di tempo precedente sia dal tempo di permanenza in tale stato.

Processi di conteggio Un p.s. X(t) è detto processo di conteggio se conta il numero totale di eventi accaduti fino al tempo t, ossia nell’intervallo (0,t]. I processi di conteggio sono una speciale classe di p.s.: a tempo continuo a stati discreti istanti di tempo in cui si verificano gli eventi numero di eventi

Per definizione un processo di conteggio verifica le seguenti condizioni: (i) X(t)  0 (ii) X(t)  N (iii) se t’  t’’  X(t’)  X(t’’) (iv) se t’ < t’’  la v.a. X(t’’) - X(t’) conta il numero di eventi accaduti in (t’,t’’].

Definizione Un processo di conteggio ammette incrementi indipendenti se  t  0,  h > 0, le v.a. X(t+ h) - X(t) e X(t) sono tra loro indipendenti. Il numero di eventi in (t,t+ h] è indipendente dal numero di eventi in (0,t].

Definizione Un processo di conteggio ammette incrementi stazionari se  t’, t’’  0,  h > 0, le v.a. X(t’+ h) - X(t’) e X(t’’+ h) - X(t’’) hanno la stessa distribuzione di probabilità. La probabilità di avere un certo numero di eventi in un dato intervallo di tempo dipende solo dall’ampiezza dell’intervallo stesso.

Processo di Poisson Un processo di Poisson è un caso particolare di processo di conteggio. È particolarmente importante perché un gran numero di fenomeni fisici possono essere descritti (almeno in prima approssimazione) da tale processo: ossia conta gli eventi che si verificano in modo molto casuale ma indipendente dal tempo. N.B. Nel seguito si farà sempre l’ipotesi che due eventi non possano verificarsi mai contemporaneamente.

Definizione Un p.s. X(t), t  0, è detto Processo di Poisson con parametro (o intensità, o tasso)  se: (i) X(0) = 0 (ii) il processo ha incrementi indipendenti (iii)  t  0,  h > 0, la v.a. X(t+ h) - X(t) ha distribuzione di Poisson di parametro h.   R+

Proprietà: Come conseguenza della (iii)  t  0,  h > 0, la v.a. X(t+ h) - X(t) ha distribuzione di Poisson di parametro h E[X(t)] = t e il processo ha incrementi stazionari. Possiamo pertanto dare la seguente altra definizione di processo di Poisson.

Definizione Un processo di Poisson X(t) è un processo di conteggio con incrementi indipendenti e stazionari e tale per cui la v.a. X(t+ h) - X(t) ha distribuzione di Poisson di parametro h,  t  0,  h > 0. N.B. Il parametro  ha le dimensioni dell’inverso del tempo e rappresenta il numero di eventi nell’unità di tempo. Il rapporto 1/ rappresenta pertanto il tempo medio tra due eventi successivi.

Proprietà (la diamo senza dimostrazione): I tempi di inter-evento (ossia i tempi tra due eventi successivi) di un processo di Poisson sono una sequenza di v.a. indipendenti aventi distribuzione esponenziale. In particolare, la corrispondente funzione di densità di probabilità è dove  è il parametro caratteristico del processo di Poisson. è il tempo medio di inter-evento. Infatti:

Memoryless property Ricordiamo preliminarmente che nel caso di densità di probabilità esponenziale con parametro , la funzione di distribuzione cumulativa di probabilità vale: F(t) = 1 - e- t Ora, supponiamo che un evento si verifichi al tempo T. Sia T + V il tempo in cui si verifica l’evento successivo. Supponiamo che al tempo T+z > T l’evento successivo NON si sia verificato. Si è verificato l’evento [V>z].

T T+z T+z + t V età dell’evento Calcoliamo la probabilità che si verifichi l’evento [V  z + t ] per un generico t> 0, dato che si è verificato l’evento [V > z]. Probabilità condizionata

Poiché i tempi di inter-evento sono caratterizzati da una distribuzione esponenziale

Tale probabilità condizionata verifica allora le seguenti proprietà: (1) non dipende da z (2) è identica a F(t) = Pr[V  t] Questa è la proprietà memoryless (priva di memoria) della distribuzione esponenziale.

Teorema (la diamo senza dimostrazione): La memoryless property vale per qualunque distribuzione esponenziale e se una distribuzione gode della memoryless property deve necessariamente essere esponenziale. Riassumendo: Memoryless property Processo di Poisson Tempi di inter-evento esponenziali

Proprietà: Il p.s. risultante dalla sovrapposizione di m processi di Poisson mutuamente indipendenti, caratterizzati dai parametri i, i=1, …, m, è ancora un processo di Poisson caratterizzato dal parametro = 1 + … + m.

Esempio: Il processo degli arrivi in coda ad un semaforo è Poissoniano? Se il precedente semaforo è molto lontano potrebbe esserlo poiché gli arrivi sarebbero indipendenti. Se invece il precedente semaforo è vicino, allora le macchine arrivano generalmente a piccoli gruppi e non sono indipendenti. Questo naturalmente nell’ipotesi che il flusso delle macchine sia indipendente dal tempo.