La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

1 Metodi Probailistici, Statistici e Processi Stocastici Metodi Probabilistici, Statistici e Processi Stocastici Università Carlo Cattaneo Emanuele Borgonovo.

Presentazioni simili


Presentazione sul tema: "1 Metodi Probailistici, Statistici e Processi Stocastici Metodi Probabilistici, Statistici e Processi Stocastici Università Carlo Cattaneo Emanuele Borgonovo."— Transcript della presentazione:

1 1 Metodi Probailistici, Statistici e Processi Stocastici Metodi Probabilistici, Statistici e Processi Stocastici Università Carlo Cattaneo Emanuele Borgonovo

2 2 Metodi Probailistici, Statistici e Processi Stocastici Capitolo I

3 3 Metodi Probailistici, Statistici e Processi Stocastici Introduzione Processo Stocastico: un processo stocastico è un processo che è costituito da eventi la cui realizzazione non è deterministica, ma caratterizzata da incertezza Esempio: i tempi di arrivo dei clienti in un grande centro commerciale o il numero di clienti che arriva al centro commerciale nellintervallo dt attorno al tempo t.

4 4 Metodi Probailistici, Statistici e Processi Stocastici Elementi introduttivi di Teoria della Probabilità

5 5 Metodi Probailistici, Statistici e Processi Stocastici Probabilità E possibile definire la Probabilità? Sì, ma ci sono due scuole La prima dice che la probabiltà è una porprietà oggettiva degli eventi (Scuola Frequentista) La seconda dice che la Probabilità è una misura soggettivadella verosimiglianza degli eventi (De Finetti)

6 6 Metodi Probailistici, Statistici e Processi Stocastici Gli Assiomi di Kolmogorov U B A

7 7 Metodi Probailistici, Statistici e Processi Stocastici Supponete di saltare dentro U a caso. Chiamate P(A) la probabilità di saltare in A. Quanto vale? Sarà larea di A diviso larea di U: P(A)=A/U In questo caso P(U)=P(A)+ P(B)+ P(C)+ P(D)+ P(E) Aree e rettangoli? U C ABDE

8 8 Metodi Probailistici, Statistici e Processi Stocastici Legge della somma delle probabilità Dati n eventi non mutuamente esclusivi, in generale la probabilità dellunione di detti n eventi sarà la somma delle probabilità degli eventi singoli, cui si sottrarrà la somma delle probabilità delle doppie intersezioni, si sommeranno le probabilità delle triple intersezioni e così via. In termini di aree

9 9 Metodi Probailistici, Statistici e Processi Stocastici Legge della somma delle probbilità in termini di aree 2 eventi 3 eventi U B A AB U B A C

10 10 Metodi Probailistici, Statistici e Processi Stocastici In formule Dimostrazione. Introduciamo un insieme di n eventi, A 1, A 2,…, A n e consideriamo un esperimento casuale su di essi. Indichiamo con I i la variabile indicatrice dellevento Ai. La definiamo come segue: Sia N il numero di eventi che si verificano. Varrà:

11 11 Metodi Probailistici, Statistici e Processi Stocastici Probabiltà Unione: prova (2) N è una variabile casuale. Ci chiediamo: qual è il valore atteso di N, E[N]? Prima di rispondere, vediamo un trucco di calcolo combinatorio che ci tornerà utile: Ora, notiamo che Quindi, se introduciamo la variabile indicatrice di N così definita: Otteniamo:

12 12 Metodi Probailistici, Statistici e Processi Stocastici Probabiltà Unione: prova (3) Quindi vale per I N il seguente sviluppo in termini di binomio di Newton: … Il k+1 deriva dal fatto che davanti alla somma cè un segno -… Ora, calcoliamo il valore atteso di I N Il passaggio allinterno della somma deriva dal fatto che il valore atteso è un operatore Lineare Esplicitiamo i termini:

13 13 Metodi Probailistici, Statistici e Processi Stocastici Probabiltà Unione: prova (4) Calcoliamo i termini: E così via. Ora notiamo che: Quindi: q.e.d.

14 14 Metodi Probailistici, Statistici e Processi Stocastici Probabilità Condizionale Supponete ora che B è avvenuto. Quindi siete saltati dentro larea B. B A AB Ora non protrete che concordare che: P(A|B)=P(AB)/P(B) Quindi: P(AB)=P(A|B) *P(B)

15 15 Metodi Probailistici, Statistici e Processi Stocastici Esempio Nel gioco del lotto, si vince con il 6. Qual è la probabilità, in sei estrazioni senza rimpiazzo, su 90 numeri di ottenere 6? Giochiamo 1 colonna e calcoliamo la probabilità di vincere. La probabilità è che la prima cifra estratta sia una delle nostre 6, la seconda sia una delle rimanenti 5 e così via. Indichiamo con I levento la prima cifra estratta è una di quelle giocate da noi, con II levento la seconda cifra è esatta dato che la prima è una delle nostre 6,, con III levento la terza cifra è una delle rimanenti 4, dato che le prime due sono delle nostre 6, etc. Dobbiamo calcolare: P(I,II,III,IV,IV,VI). Utilizziamo la probabilità condizionale: P(I,II,III,IV,V,VI)= P(VI | I,II,III,IV,IV)*P(V,IV,III,II,I)= P(VI | I,II,III,IV,IV)*P(V | IV,III,II,I)* P(IV,III,II,I)= …=P(VI | I,II,III,IV,IV)*P(V | IV,III,II,I)* …*P(II |I)*P(I) La probailità che la prima sia una delle nostre è data da 6/90. La probabilità che la seconda sia una delle cifre giocate dato che la prima è una delle 6 è 5/89. Così via per le altre. Dunque:

16 16 Metodi Probailistici, Statistici e Processi Stocastici U IL teorema della probabilità Totale Teorema probabilità totale: dati N eventi mutuamente esclusivi (A 1, A 2,…,A N ) e esaustivi, la probabilità di un altro evento E in U è data da: A1A1 A2A2 A3A3 A4A4 E

17 17 Metodi Probailistici, Statistici e Processi Stocastici Esempio Ad una lotteria, si gioca con una scatola che contiene cappelli eleganti e sportivi in egual proporzione. Il gioco è il seguente. Si estrae un cappello. Se è elegante si ha diritto a tirare una moneta. Se esce testa, si estrae un altro cappello. Non si ha diritto ad altre estrazioni. Qual è la probabilità di vincere due cappelli eleganti? Soluzione: Applichiamo il teorema della probabilità totale a P(2 cappelli eleganti): P(2 cappelli eleganti)=P(II cap. el.|1 estrazione)*P(1estrazione)+P(II cap. el.|II estrazione)*P(II estrazioni). Chiaramente P(2 cappelli|1 estrazione)=0, quindi: P(II cappelli elegante)=P(II cap. el.|II estrazione)*P(IIestrazione). P(II estrazione)= P(II estrazioni|I sprt)*P(I sprt)+P(II estrazione|I eleg)*P(I eleg) Ora: se il primo è sportivo non si ha diritto a seconda estrazione. Osserviamo poi che: P(II estrazione| I eleg)= P(testa) =1/2 Quindi: P(II estrazione)=1/2·1/2=0.25 Inoltre: P(II cap. el.)=P(II cap. el.|II estrazione)*P(II estrazione)=1/2*0.25=0.125 Per esercizio calcolare: –La probabiltà di uscire con un cappello –La probabilità di uscire con un cappello elegante e con uno sportivo Ripetere gli stessi calcoli se I cappelli sono in proporzione 2/3 sportivi/eleganti

18 18 Metodi Probailistici, Statistici e Processi Stocastici Variabile Casuale Sia S lo spazio degli stati. Per stato si può intendere il risultato di un esperimento statistico, ovvero un evento casuale. Scriviamo: s S per denotare che lesito s appartiene ad S. Ora, s è un evento casuale. Introduciamo una funzione matematica che lega il risultato dellesperimento, s, ad un numero reale, x. Scriviamo: X: S

19 19 Metodi Probailistici, Statistici e Processi Stocastici Esempio Teniamo in considerazione gli arrivi di clienti al vostro negozio. Siete soggetti ad un mercato perfettamente concorrenziale, per cui il numero di clienti che arriva nel tempo dt non è deterministico ma casuale. Supponiamo che il break-even del vostro negozio sia 50 clienti al giorno. Quindi la giornata è in profitto se il numero di clienti (s) è >50, in perdita se s<50. Introduciamo x=1 se la giornata è in profitto, x=0 se la giornata è in perdita. X: S (0,1), è una variabile casuale nel senso definito prima

20 20 Metodi Probailistici, Statistici e Processi Stocastici Probabilità di una variabile casuale Riprendendo il nostro esempio, la probabilità che X sia pari ad 1 è la probabilità che s abbia più di 50 clienti, ovvero P(X=1)=P(S>50). Detto s 1 linsieme di tutti gli eventi per cui è X=1, s 1 è la contro-immagine di 1, ovvero: X -1 (1)=s 1. Più in generale: P(X A)=P[s X -1 (A)] cioè la probabilità che il valore della variabile casuale X sia nellintervallo A è pari alla probabilità che gli eventi casuali s cadano nella controimmagine di A

21 21 Metodi Probailistici, Statistici e Processi Stocastici Funzione di Partizione La funzione di partizione (cumulative distribution) di una variabile casuale risponde alla definizione di essere la probabilità che il valore della variabile casuale sia inferiore ad un valore di riefrimento. Scriviamo: F X (x)=P(X<=x) Per una variabile discreta: Per una variabile continua deve esistere una funzione f(u) tale che: La funzione f(u) è detta densità di probabilità di X

22 22 Metodi Probailistici, Statistici e Processi Stocastici Relazione tra F(x) ed f(x) Se f(x) è continua, allora vale: Esempio. Sia 0

23 23 Metodi Probailistici, Statistici e Processi Stocastici Valore atteso Il valore atteso di una variabile aleatoria continua è definito da: Esempio: Per una variabile discreta: Esempio: calcolare il valore atteso della variabile aleatoria in Tabella a fianco

24 24 Metodi Probailistici, Statistici e Processi Stocastici Varianza La varianza esprime lo scostamento quadratico medio dal valor medio. E definita da: Notiamo la relazione tra V[X] e E[X 2 ]. Si ha: E[X 2 ] è detto momento di ordine 2 o secondo momento della distribuzione f(x).

25 25 Metodi Probailistici, Statistici e Processi Stocastici Skewness E il parametro che misura il grado di asimmetria di una distribuzione. La definiamo come momento centrale del III ordine: Se la distribuzione è simmetrica la skewness è nulIa. Di sotto la skewness delle distribuzioni più comuni

26 26 Metodi Probailistici, Statistici e Processi Stocastici Funzione generatrice dei momenti Abbiamo definito i momenti di X come E[X], E[X 2 ], E[X 3 ],…, E[X n ]. La funzione generatrice dei momenti è una funzione definita come segue: I momenti di X possono essere ottenuti per differenziazione della funzione generatrice, valutando la derivata n-esima in t=0.

27 27 Metodi Probailistici, Statistici e Processi Stocastici Capitolo II: Distribuzioni Notevoli

28 28 Metodi Probailistici, Statistici e Processi Stocastici Distribuzione binomiale Consideriamo un fenomeno casuale caratterizzato da due soli possibili esiti (+/-; testa/croce). Consideriamo ora una serie di N eventi in cui lesito di ogni esperimento è indipendente dallesito dellesprimento precedente. Una possibile realizzazione dellesperimento è la seguente: +,+,+,-,-,+,-,+,-,-. Abbiamo ottenuto 5+ e 5-. Se indichiamo con p e q le probabilità di + e – rispettivamente, e consideriamo lipotesi di indipendenza, la probabilità di questa serie è: p 5 *q 5. La seguente serie avrebbe potuto realizzarsi: -,-,-,+,+,-,+,-,+,+. Anche la probabilità di questa realizzazione è: p 5 *q 5. Ora, supponiamo di essere interessati solo al numero di eventi, ovvero per noi sono di successo tutte le possibili serie in cui compaiono 5 testa e 5 croce. La probabilità di successo per serie di 10 lanci è data dalla probabilità di tutte le possibili permutazioni di 5 elementi su 10. Quante sono? Sono Dove è il buon vecchio coefficiente binomiale. Quindi la probabilità di una sere 5/5 è:

29 29 Metodi Probailistici, Statistici e Processi Stocastici Distribuzione binomiale (2) In generale, la probabilità di k eventi su n tentativi in cui ad ogni tentativo solo 2 sono i possibili esiti è data da: Notiamo che q=1-p. La precendente ditribuzione è detta binomiale o di Bernoulli.

30 30 Metodi Probailistici, Statistici e Processi Stocastici Momenti della distribuzione binomiale La funzione caratteristica della distribuzione binomiale è: Ne segue: Quindi: V[X]=E[K 2 ]-E[K] 2 =np(1-p)

31 31 Metodi Probailistici, Statistici e Processi Stocastici La distribuzione ipergeometrica Consideriamo il seguente problema. Dovete testare una serie di prodotti. Avete a disposizione un lotto di N prodotti, dei quali M sono difettosi. Prendiamo un campione di n oggetti tra questi. Qual è la probabilità che x degli n oggetti siano difettosi? Innanzitutto consideriamo che su N oggetti, vi sono modi di selezionare n oggetti. Quindi il nostro spazio delle probabilità diventa fatto da elementi. Adesso chiediamoci: abbiamo a disposizione N oggetti, dobbiamo scelglierne x difettosi tra M e n-x non difettosi tra N-M. In quanti modi si può fare? Supponiamo che gli oggetti siano X (difettoso) e - non difettoso. Si potrebbero disporre su una linea come: X - - X X X X - X – X ………..X. Potremmo anche ordinarli e non cambierebbe nulla: X X X X X X X ………..X … -. Ora dobbiamo formare un gruppo di n in cui x siano difettosi. Possiamo scegliere x difettosi su M. In quanti modi?

32 32 Metodi Probailistici, Statistici e Processi Stocastici La distribuzione ipergeometrica (2) Analogamente dobbiamo scegliere gli n-x oggetti non difettosi tra gli N- M oggetti non difettosi. Come nel caso precedente, se gli oggetti sono indistinguibili a priori, abbiamo modi possibili. Possiamo quindi combinare gli con gli nello scegliere gli oggetti. Quindi i modi possibili di creare serie di n oggetti di cui x sono difettosi su un lotto di N è: Dunque, se è il numero totale di casi possibili, la probabilità di creare n-tuple con x elementi difettosi dato un lotto di N elementi è: Che prende il nome di distribuzione ipergeometrica

33 33 Metodi Probailistici, Statistici e Processi Stocastici Esempio Supponiamo di avere a che fare con unurna che contiene 100 schede elettorali. Si scontrano due candidati al ballottaggio. A fine voto si saprà che il candidato A avrà 55 voti e il candidato B 45. Qual è la probabilità che, estraendo 10 schede, 6 siano di A e 4 siano di B? Soluzione: N=500; M=55; n=10; x=6.

34 34 Metodi Probailistici, Statistici e Processi Stocastici Esempio (2) Chiediamoci ora, qual è la probabilità che su 20 schede le schede di A e B estratte mantengano la stessa proporzione(12 a 8)?

35 35 Metodi Probailistici, Statistici e Processi Stocastici Dalla distribuzione binomiale… Consideriamo la distribuzione di una variabile random che segua una distribuzione binomiale con np= lasciamo tendere n ad infinito e p che tende a 0, con è costante. Osserviamo cosa succede alla distribuzione binomiale:

36 36 Metodi Probailistici, Statistici e Processi Stocastici..alla distribuzione di Poisson P è detta distribuzione di Poisson prende il nome di rateo o tasso della distribuzione Significato: probabilità di avere k eventi, dato il tasso.

37 37 Metodi Probailistici, Statistici e Processi Stocastici Momenti della distribuzione di Poisson Quindi:

38 38 Metodi Probailistici, Statistici e Processi Stocastici Distribuzione di Gauss Una variabile X (-, + ) segue la distribuzione di Gauss N(, ) se la sua densità di probabilità è data da: La corrispondente distribuzione cumulativa è:

39 39 Metodi Probailistici, Statistici e Processi Stocastici Grafici Cumulative Gaussian Distribution x

40 40 Metodi Probailistici, Statistici e Processi Stocastici Funzioni di Variabile Casuale Regola per funzioni di variabili casuali Sia X una variabile casuale e y=g(x) funzione di X. A sua volta Y è una variabile aleatoria. Qual è la probabilità che il valore di Y sia intorno ad y? Per semplicità consideriamo g(x) monotona crescente o decrescente. f(x) è una corrispondenza biunivoca, quindi la probabilità che Y sia in dy attorno a y è la stessa che X sia in dx attorno x. Quindi: f Y (y)dy=f X (x)dx. Ne segue: Se f(x) non è monotona crescente, allora vi saranno più punti in cui è x=f -1 (y). La precedente formula si generalizza in:

41 41 Metodi Probailistici, Statistici e Processi Stocastici Dalla distribuzione normale… Sia Y tale che lnY=X e X~N(, ). Qual è la distribuzione di Y? Si applica la precedente regola in quanto e x è una funzione monotona crescente. Calcoliamo:

42 42 Metodi Probailistici, Statistici e Processi Stocastici …alla distribuzione Log-normale… La distribuzione: prende il nome di distribuzione lognormale e rappresenta la distribuzione di una variable il cui logaritmo segue una distribuzione gaussiana. Notate che X=ln(Y) è ~N(, 2 ), mentre Y ~LN(, 2 ) e, non sono il valor medio e la deviazione standard di Y. Valgono le seguenti relazioni trai parametri ed della distribuzione lognormale e il valor medio ( ) e la varianza ( 2 ) di Y:

43 43 Metodi Probailistici, Statistici e Processi Stocastici Grafici della distribuzione lognormale

44 44 Metodi Probailistici, Statistici e Processi Stocastici La distribuzione Beta La distribuzione beta della variabile X, con a x b è definita come segue: (q,r) è detta funzione beta. Momenti della distribuzione:

45 45 Metodi Probailistici, Statistici e Processi Stocastici La distribuzione Beta (2) Grafico per a=-10, b=10, q=2,r=3 q=4,r=3 Grafico per a=-10, b=10, q=3,r=3 (simmetrico)

46 46 Metodi Probailistici, Statistici e Processi Stocastici La distribuzione Una variabile continua ( ) segue una distribuzione se la sua densità di probabilità è data da: Dove: – (parametro di forma), (parametro di scala)>0 e – ( ) è la funzione, una funzione notevole, che generalizza il concetto di fattoriale ai numeri non interi. ( ) è definita come segue: I parametri (parametro di locazione) e sono legati al valore medio ed alla varianza di dalle seguenti relazioni:

47 47 Metodi Probailistici, Statistici e Processi Stocastici Grafici della distribuzione

48 48 Metodi Probailistici, Statistici e Processi Stocastici Problemi Utilizzando la regola del cambio di variabile, dato X~N(0,1), trovare la distribuzione di X 2. Notate che è una distribuzione 2. Per ciascuna delle distribuzioni presentate, eccetto la beta, trovare, : –La funzione generatrice dei momenti –I primi tre momenti: E[X], E[X 2 ], E[X 3 ] –La varianza Per la distribuzione beta, trovare: il modo, la mediana,la media e la varianza.

49 49 Metodi Probailistici, Statistici e Processi Stocastici Problemi Considerate la funzione ( ). –Dimostrate che vale la seguente relazione: ( )= ( -1 ) ( -1). –Deducetene che, se è intero, si riduce alla formula del fattoriale.

50 50 Metodi Probailistici, Statistici e Processi Stocastici Capitolo III: Propagazione dellIncertezza

51 51 Metodi Probailistici, Statistici e Processi Stocastici Lapprossimazione del valore atteso Sia Y=g(x) una funzione di variabile casuale X. Utilizziamo lespansione di Taylor per g(x) in X. Passiamo al valore atteso di ambo i membri Quindi otteniamo:

52 52 Metodi Probailistici, Statistici e Processi Stocastici Esempio Sia y=+v 0 t la legge oraria di un grave. Sia v incerta, con una distribuzione normale, ( v =10, 2 v =5) (unità standard). Quanto tempo impega il grave a percorrere y=100m? Soluzione: t=g(v)=100/v. f( v )=100/10=10 f( v )=(200/v 3 )| v =0.2 E[t]=100/10+0.1*5=10.5

53 53 Metodi Probailistici, Statistici e Processi Stocastici Approssimazione della Varianza Se V[X] è il valore dellincertezza in in X, quanto è il valore dellincertezza in f(x)? La varianza si calcola sempre tramite lapprossimazione di Taylor su g(x) e introducendola nellequazione: Per esempio, fermiamo lapprossimazione di Taylor al primo ordine:

54 54 Metodi Probailistici, Statistici e Processi Stocastici Approssimazione al II ordine della Varianza Si considerino lapprossimazione al secondo ordine del valore atteso e della funzione g(x). Sostituendo in V[g(x)] otteniamo:

55 55 Metodi Probailistici, Statistici e Processi Stocastici Il Teorema di Inversione Innazitutto dimostriamo che y=F X (x) è caratterizzata da una distribuzione uniforme. Per farlo, notiamo che F(x) è una funzione monotona crescente. Quidi, per la formula del cambio di variabile si ha: Quindi la distribuzione di y=F(x) è una distribuzione uniforme. A questo punto, risolvendo la relazione in funzione di X, otteniamo: x=F -1 (y)

56 56 Metodi Probailistici, Statistici e Processi Stocastici Il Teorema di Inversione 2 Il teorema di inversione ci dice che, se y è distribuita secondo una uniforme, x=F -1 (y) è distribuita secondo F(x) o, se si vuole, f(x).

57 57 Metodi Probailistici, Statistici e Processi Stocastici Metodo Monte Carlo Campionamento di un valore di P.up Per ogni valore di P.up si valuta il modello. 2 informazioni: –Frequenza della decisione migliore –Distribuzione di ciascuna delle alternative

58 58 Metodi Probailistici, Statistici e Processi Stocastici Campionamento: il cuore del Monte Carlo 1) Generatore di numeri casuali u tra 0 e 1 (I numeri sono generati con distribuzione uniforme) 3) Supponiamo che il parametro incerto sia caratterizzato dalla distribuzione cumulativa in figura: 0 1 u

59 59 Metodi Probailistici, Statistici e Processi Stocastici Campionamento Inversione: I valori di così ottenuti seguono la densità/cumulativa da cui abbiamo invertito 1 0

60 60 Metodi Probailistici, Statistici e Processi Stocastici Esempio Valutare il volume del solido mediante metodo Monte Carlo. V V0V0

61 61 Metodi Probailistici, Statistici e Processi Stocastici Problemi 1 Campionare 100 numeri casuali da una distribuzione esponenziale di tasso =1. Disegnare listogramma della frequenza e il cumulativo Stimare valor medio e varianza Ripetere lesercizio con 1000 dati. 2 Sia Y=X 1/2 con X>=0 distribuito secondo la distribuzione (1,1,0). Disegnare la distribuzione di X. Mediante la formula del cambio di variabile calcolare la distribuzione di Y. Disegnare la distribuzione di Y. Calcolare il valore atteso e la varianza di Y. Calcolare il valore atteso e la varianza di Y con lo sviluppo di Taylor al I ordine. Che errore commettete? Utilizzate lo sviluppo in serie del II ordine. Che errore commettete? 3 Siano X e Y due variabili casuali, con Y=arcsin(x), -1

62 62 Metodi Probailistici, Statistici e Processi Stocastici Capitolo IV: Analisi Dei Dati

63 63 Metodi Probailistici, Statistici e Processi Stocastici Introduzione Inferenza statistica: a volte si parte da un insieme di dati, che rappresentano gli esiti di un fenomeno casuale. Per esempio I dati di concentrazione di una sostanza tossica in un determinato terreno possono variare in maniera casuale nelle varie zone: 50ppm,25ppm,17ppm,22ppm. Oppure gli arrivi degli ordinativi in vari giorni o periodi dellanno sono 10, 20, 15,7,9,30. Se da un punto di vista di consuntivo tali dati sono importanti, possono e devono risultare utili anche in vista di una stima del comportamento futuro dei due sistemi (linquinamento del terreno e lazienda).

64 64 Metodi Probailistici, Statistici e Processi Stocastici Stima dei Parametri Da un punto di vista statistico, si dice che lanalista ha a disposizione un campione X 1,X 2,…X N che proviene da una popolazione che è: –con distribuzione non specificata –con distribuzione di forma nota, ma con valore dei parametri della distribuzione non noti Nel primo caso si parla di: –Inferenza statistica non parametrica Nel secondo caso si parla di: –Inferenza statistica parametrica

65 65 Metodi Probailistici, Statistici e Processi Stocastici Statistica Trattiamo la stima parametrica Definizione: Statistica. Si dice una statistica qualunque funzione T(X 1,X 2,…,X N ) – o anche T(·) - tale che: –è funzione degli elementi del campione –non contiene parametri incogniti Per esempio, nel caso degli arrivi di ordinativi allazienda la media del campione è una statistica della distribuzione del campione Notiamo che in qualche modo la statistica sintetizza o manipola linformazione originaria del campione

66 66 Metodi Probailistici, Statistici e Processi Stocastici Statistiche Sufficienti e Teorema di Fisher-Neyman Definizione: Se X 1,X 2,…,X N costiuiscono un campione casuale semplice e Bernoulliano, con corrispondente variabile casuale X, con funzione di probabilità f(x; ) (*), allora T(·) è sufficiente per f(x; ) se e solo se la distribuzione del campione condizionata al valore t assunto da T è la stessa per qualunque valore di. Dal punto di vista pratico non è facile utilizzare la definizione precedente per stabilire se una statistica è sufficiente. Si ricorre allora al seguente criterio di Fisher-Neyman: T(·) è sufficiente per f(x; ) se e solo se vale: Con h e g funzioni non negative. Notiamo che g dipende dagli x i solo tramite T. (*) è il vettore dei parametri della distribuzione di X. Per esempio in una distribuzione è =(,, ).

67 67 Metodi Probailistici, Statistici e Processi Stocastici Stimatori In vista dellutilizzo predittivo dei dati, si può cercare di creare una statistica T che ci permetta di stimare. Per esempio, in una distribuzione esponenziale, ci potrebbe interessare trovare il valore del parametro. Chiaramente uno stimatore sarà tanto migliore quanto meglio saprà utilizzare linformazione contenuta nel campione per stimare. In più, allaumentare del numero di variabili nel campione, vorremmo che ^=T(·) tenda al vero. Un esempio: sia X 1,X 2,…,X N un campione da una distribuzione esponenziale che vogliamo utilizzare per stimare. Vale: =1/ E, con E valor medio della distribuzione esponenziale. Quindi potremmo dapprima calcolare e poi utilizzare la relazione Definizione. Sia X~f(x; ) e X 1,X 2,…,X N un campione casuale semplice di X. Si dice stimatore di qualsiasi statistica T che venga utilizzata per stimare.

68 68 Metodi Probailistici, Statistici e Processi Stocastici Proprietà degli Stimatori Stimatore sufficiente: è uno stimatore che deriva da una statistica sufficiente. –Uno stimatore sufficiente utilizza tutta linformazione nel campione Efficienza: –Erorre semplice medio: –Errore quadratico medio: Lefficienza degli stimatori è, nella pratica, da intendersi in modo relativo. Infatti non sempre è assicurata lesistenza di uno stimatore efficiente in senso assoluto, cioè che minimizza uno dei due errori

69 69 Metodi Probailistici, Statistici e Processi Stocastici Proprietà degli stimatori: distorsione (bias) Uno stimatore di dice corretto o non distorto se: Dimostriamo che se uno stimatore è corretto, allora lerrore quadratico medio e la varianza dello stimatore coincidono. Se è uno stimatore non distorto, allora d=0 e la varianza di coincide con lerrore quadratico medio.

70 70 Metodi Probailistici, Statistici e Processi Stocastici La distribuzione della media di un campione gaussiano Valore atteso: Varianza del valore atteso: Distribuzione: Gaussiana. –Segue dal fatto che la somma di varibili normali indipendenti è ancora una variabile normale

71 71 Metodi Probailistici, Statistici e Processi Stocastici La distribuzione della media di campione non gaussiano Il teorema del limite centrale assicura che la somma di n varibili casuali indipendenti e identicamente distribuite tende ad una distribuzione gaussiana al tendere di n allinfinito. In virtù del teorema del limite centrale, la distribuzione del campione è, per N sufficientemente grande: N( X, ) Ovvero, il valor medio del campione è distribuito secondo una normale anche se la distribuzione di X non lo è…!

72 72 Metodi Probailistici, Statistici e Processi Stocastici Stima della varianza della distribuzione Definiamo varianza campionaria la quantità: Si può verificare che la varianza campionaria ha valore atteso pari a X 2, la varianza della distribuzione della popolazione. In termini di stimatori, S 2 è uno stimatore corretto della varianza della popolazione. Notiamo che se per X 2 viene utilizzato lo stimatore: Si ottiene una stima della varianza della popolazione distorta. Infatti, vale:

73 73 Metodi Probailistici, Statistici e Processi Stocastici La varianza campionaria Quindi la varianza del campione è uno stimatore distorto della varianza della popolazione

74 74 Metodi Probailistici, Statistici e Processi Stocastici Proprietà degli stimatori: consistenza Consistenza in senso debole: –Ovvero al tendere del numero di elementi nel campione, con probabilità 1 lerrore semplice medio tende a 0 Consistenza in senso forte: Al tendere di N allinfinito, lerrore quadratico medio tende a 0. La consistenza in senso forte implica la consistenza in senso debole.

75 75 Metodi Probailistici, Statistici e Processi Stocastici La funzione di verosimiglianza Sia X~f(x; ) una variabile aleatoria e X={x 1,…,x n } un corrispondente campione. Si consideri un campione bernoulliano. Si dice funzione di verosimiglianza del campione la seguente densità: Interpretazione: la funzione di verosimiglianza è legata alla probabilità del campione come segue:

76 76 Metodi Probailistici, Statistici e Processi Stocastici Un esempio classico Sia X~N( ; 2 X ), ed X un campione da N( ; 2 X ). Costruiamo la funzione di verosimiglianza: Quali sono le due statistiche che massimizzano la verosimiglianza per la stima di e X ? Il membro di sinistra della prima equazione risulta:

77 77 Metodi Probailistici, Statistici e Processi Stocastici Un esempio classico (cont.) Che implica: Dunque la media del campione è una stima del parametro della distribuzione. Passando alla seconda equazione, si ottiene:

78 78 Metodi Probailistici, Statistici e Processi Stocastici Un esempio classico (cont.) Che implica: A questo punto dobbiamo notare che X non è noto. E quindi dobbiamo sostituite la sua stima, tramite X, ovvero: Dunque lo stimatore di massima verosimiglianza della varianza della distribuzione normale è dato dallespressione di cui sopra. A questo punto ci domandiamo: sono stimatori distorti? Per saperlo occorre calcolare il termine d 2 introdotto in precedenza, e quindi E[ ^]. Cominciamo con lo stimatore di massima verosimiglianza di. Abbiamo: Ne segue: E[ X MLE ]= e d 2 =0. Quindi lo stimatore X MLE è corretto. Consideriamo lo stimatore della varianza e ripetiamo lo stesso ragionamento.

79 79 Metodi Probailistici, Statistici e Processi Stocastici Un esempio classico (Cont.) Abbiamo: Che dimostra che la varianza stimata con il metodo della massima verosimiglianza è uno stimatore distorto della varianza della popolazione

80 80 Metodi Probailistici, Statistici e Processi Stocastici Capitolo V Lapproccio Bayesiano

81 81 Metodi Probailistici, Statistici e Processi Stocastici Probabilità e Informazione Problema: vi è data una scatola contenente due gioielli. La scatola è costruita in modo tale che con la stessa probabilità (1/2) i due gioielli sono tutti e due doro (evento A) o uno è doro e uno dargento (evento B). Per sapere il contenuto della scatola vi è permesso di estrarre uno dei due gioielli dalla scatola. Supponete che sia doro. –Secondo voi avete guadagnato informazioni dallestrazione? –La probabilità che laltro sia doro è ancora del 50%? –Sareste disposti a pagare per estrarre?

82 82 Metodi Probailistici, Statistici e Processi Stocastici Se assumiamo che: La probabilità di un evento è soggettiva La probabilità è il nostro grado di confidenza nel realizzarsi di un evento P(E) cambia con linformazione…

83 83 Metodi Probailistici, Statistici e Processi Stocastici Il Teorema di Bayes Ipotesi: A e B sono due eventi. Levento A è accaduto. Tesi: la probabilità di B dato che A è avvenuto cambia come segue: P(B) prima che A avvenisse Prob. di B ora che A è avvenuto Prob. che A avvenisse Probabilità di A dato B

84 84 Metodi Probailistici, Statistici e Processi Stocastici Applichiamolo al problema Eventi: A: tutti e due i gioielli sono doro o: lanello estratto è doro Il teorema dice: P(A)=probabilità che tutti e due siano doro prima dellestrazione=1/2 P(o)=probabilità che un anello sia doro=3/4 P(o|A)=probabilità che lanello sia doro dato A=1 (tutti e due gli anelli sono doro) Quindi:

85 85 Metodi Probailistici, Statistici e Processi Stocastici Dimostrazione del Teorema Punto di Partenza Formula della probabilità condizionale Tesi

86 86 Metodi Probailistici, Statistici e Processi Stocastici Teorema di Bayes nel continuo Incertezza epistemica e teorema di Bayes sono collegati in quanto sappiamo che possiamo usare levidenza per aggiornare le probabilità. Ad esempio, supponete di avere una moneta e di voler sapere se la probabilità che esca testa o croce sia del 50%. Come fate? Tirate la moneta….

87 87 Metodi Probailistici, Statistici e Processi Stocastici Formula La densità di probabilità di un parametro, dopo aver raccolto levidenza (E) cambia come segue: L(E )=MOW likelihood o verosimiglianza 0 ( ) è la densità di probabilità di prima dellevidenza detta distribuzione a priori ( ) è la densità di probabilità di dopo levidenza detta distribuzione a posteriori

88 88 Metodi Probailistici, Statistici e Processi Stocastici Deriviamolo Prendiamo la formula del teorema di Bayes nel discreto: Passiamo al continuo: in questo caso vogliamo sapere la probabilità che un parametro nella distribuzione assuma un determinato valore dato che un certo evento si è verificato Quindi levento A j è: assume il valore * Da cui: P(A j ) 0 ( )d 0 ( )=densità a priori Quindi: P(E A j ) ha il significato di probabilità che levidenza E si realizzi dato che sia pari a *. Si scrive L(E, ) ed è chiamata funzione verosimiglianza: ma è anche il MOW!!!

89 89 Metodi Probailistici, Statistici e Processi Stocastici Deriviamolo Il denominatore esprime la somma delle probabilità dellevidenza dati tutti i possibili eventi. Nel caso dellncertezza epistemica i possibili eventi sono i valori del parametro. Quindi: Sostituendo i vari termini si trova la formula del teorema di Bayes per stribuzioni continue che abbiamo mostrato prima

90 90 Metodi Probailistici, Statistici e Processi Stocastici E una moneta onesta? Quale è il modello aleatorio? E una binomiale: 2) Quale è il valore di p? Supponiamo di non sapere nulla su p e allora scegliamo una distribuzione a priori non informativa: la uniforme Raccogliamo levidenza. Al primo lancio esce testa Al secondo croce Al terzo testa

91 91 Metodi Probailistici, Statistici e Processi Stocastici Ristulato Primo lancio –Evidenza t. –MOW: L(t p)=p –Priori: 0 Secondo lancio: –Evidenza è c –MOW: L(c p)=(1-p) –Priori: 1 Terzo lancio: –Evidenza t –MOW: L(t p)=p –Priori: 2 Equivalentemente: –Evidenza: t,c,t –L(tct p)=p 2 (1-p) –Priori: 0

92 92 Metodi Probailistici, Statistici e Processi Stocastici Grafico

93 93 Metodi Probailistici, Statistici e Processi Stocastici Distribuzioni Coniugate Likelihood –Poisson Distr. a Posteriori Distr. A Priori –Gamma dove:

94 94 Metodi Probailistici, Statistici e Processi Stocastici Distribuzioni Coniugate Likelihood – Normale Distr. a Posteriori: Normale Distr. A Priori di : –Normale dove:

95 95 Metodi Probailistici, Statistici e Processi Stocastici Distribuzioni Coniugate Likelihood – Binomiale Distr. a Posteriori: Beta Distr. A Priori di : –Beta dove:

96 96 Metodi Probailistici, Statistici e Processi Stocastici Riassunto delle Distribuzioni Coniugate Modello AleatorioDistribuzio ne a Priori Distribuzione a Posteriori BinomialeBeta PoissonGamma Normale Gamma Negative binominalBeta

97 97 Metodi Probailistici, Statistici e Processi Stocastici Stima Bayesiana dei Parametri Supponiamo di avere un campione t=(t 1, t 2,…, t N ) da una distribuzione esponenziale, con parametro non noto. Se la distribuzione di partenza è una distribuzione (,,0), qual è la distribuzione di una volta raccolta levidenza? La funzione di verosimiglianza del campione è: Da cui la disribuzione a posteriori risulta:

98 98 Metodi Probailistici, Statistici e Processi Stocastici Stima Bayesiana Supponiamo di avere a disposizione i seguenti dati: t=(1,19,42,15,61,70,93), =2, =2. Disegnamo I grafici delle due distribuzioni 0 1

99 99 Metodi Probailistici, Statistici e Processi Stocastici Stima Bayesiana Come stimatore Bayesiano di utilizziamo: E[ ] minimizza lerrore quadratico dello stimatore: Per il nostro esempio numerico: E[ ]= Notiamo che lapproccio bayesiano ci consente anche di identificare un intervallo di confidenza per. Per esempio lintervallo di confidenza 10% simmetrico [ 5%, 95% ] è ottenuto risolvendo le due equazioni: Per il nostro esempio: 5% = e 95% =0.0477

100 100 Metodi Probailistici, Statistici e Processi Stocastici Problemi 4) Dimostrare che è equivalente ad una ( +N- 1, +T) 5) Per lesempio, trovate il valore dello stimatore di massima verosimiglianza e confrontatelo con lo stimatore Bayesiano E[ ]. (Sol.: vs ). 6) X~N(8,9). e sono caratterizzati da una distribuzione di incertezza a priori N(10,4). E dato il campione (18.6,13.1, 6.9, 12.6, 6.9, 9.0, 6.4, 13.4, 12.4, 6.8). Trovate: –Gli stimatore di massima verosimiglianza del valor medio e della varianza Sol.: 10.6 –Gli stimatori Bayesiani Sol.: –Lintervallo di confidenza simmetrico del 10%. Sol.:

101 101 Metodi Probailistici, Statistici e Processi Stocastici Capitolo VI: Statistica Multivariata

102 102 Metodi Probailistici, Statistici e Processi Stocastici Distribuzioni multivariate Consideriamo un fenomeno casuale in cui si combinino due variabili. Ad esempio, I ricavi di un supermercato derivano dai clienti che entrano nel supermercato e dal tipo di acquisti che i clienti effettuano. Modellizziamo il problema chiamando X la variabile aleatoria relativa al numero di clienti che entrano nel supermercato e Y quella relativa al valore dellacquisto. Chiaramente quanto si venderà è funzione di X e Y. F(x,y) sarà la probabilità che arrivino X<=x clienti e che acquistino per un valore pari ad Y<=y. Se a questa funzione cumulativa corrisponde una funzione densità di probabilità, scriveremo: f(x,y)dxdy la probabilità che arrivino x clienti e comperino per un valore y. Qual è la probabilità che i clienti comperino X<=x indipendentemente da y? Analogo ragionamento si applica alla determinazione della distribuzione marginale F Y (y).

103 103 Metodi Probailistici, Statistici e Processi Stocastici Funzione Partizione

104 104 Metodi Probailistici, Statistici e Processi Stocastici Distribuzioni Multivariate Più formalmente, se xy è il nostro spazio degli eventi, dove un evento è una combinazione dei valori di xy F XY (x,y) rappresenta la probabilità che X sia minore di x e, allo stesso tempo, Y sia minore di y: F XY (x,y)=P(X x,Y y). Per soddisfare gli assiomi della probabilità deve essere: F(, )=1 F(, y)=F Y (y), F(x, )=F X (x) F(-, - )=0, F(-, y)=0, F(x, - )=0 F(, y)=F Y (y)

105 105 Metodi Probailistici, Statistici e Processi Stocastici Distribuzioni multivariate Ora, logicamente ci si aspetta che Y dipenda in qualche modo da X. Infatti, più clenti arrivano più sarà facile raggiungere valori alti di Y. Ma, se per caso, in un mondo poco reale, si verificasse che Y non dipende da X, ci troveremmo di fronte al fatto che P(X<=x) è indipendente dal valore di Y. Dunque: P(X,Y)=P(X<=x) P(Y<=y) Quindi: F(X,Y)=F X (x) F Y (y) od anche: f(x,y)dxdy=f(x)dx f(y)dy Diremo che X e Y sono indipendenti se: f X|Y (x|y)=f X (x)

106 106 Metodi Probailistici, Statistici e Processi Stocastici Esempio Considerate due variabilie X e Y caratterizzate dalla seguente possibile densità: Trovate c Sol: X e Y sono indipendenti? Sono indipendenti se possiamo scrivere: f X|Y (x|y) = f X (x). Ovvero: Nel nostro caso è facile verificare che questa condizione non può essere verificata e quindi le due variabili non sono indipendenti. La ragione è legata alla presenza del termine di interazione y/x

107 107 Metodi Probailistici, Statistici e Processi Stocastici Valore atteso condizionale Si può dimostrare che: Nel caso X e Y siano indipendenti

108 108 Metodi Probailistici, Statistici e Processi Stocastici Esempio Dati X e Y e la loro distribuzione: Trovare il valore atteso condizionale di X, quello di Y e I corrispondenti valori attesi non condizionali

109 109 Metodi Probailistici, Statistici e Processi Stocastici Covarianza e Coefficiente di Correlazione Siano X ed Y due variabili casuali. Si definisce Covarianza di X con Y il seguente: Si definisce coefficiente di correlazione il seguente rapporto: Vale: Dimostrazione:

110 110 Metodi Probailistici, Statistici e Processi Stocastici Un esempio Dopo attenta riflessione stabilite che le vendite della vostra azienda (y) dipendono, da: –X 1 : Condizioni generali delleconomia (che sintetizzate nellindice della fiducia dei consumatori) –X 2 : Qualità della produzione, che stimate in base al numero di elementi difettosi scartati durante lanno. Nei dieci mesi passati raccogliete i seguenti dati :

111 111 Metodi Probailistici, Statistici e Processi Stocastici Covarianza e Coefficiente di Correlazione per lesempio Decidete di analizzare un poco i dati: Vi sembrano ragionevoli?

112 112 Metodi Probailistici, Statistici e Processi Stocastici Esempio Date due variabili X e Y con la seguente distribuzione: trovare la loro covarianza. Dobbiamo trovare i valori medi.

113 113 Metodi Probailistici, Statistici e Processi Stocastici Distr. della somma di variabili casuali Siano X 1 ~d 1 (X 1 ), e X 2, d 2 (X 2 ), dove d sta per una distribuzione generica, e siano X 1 e X 2 indipendenti. Qual è la distribuzione di Y=X 1 +X 2 ? Scriviamo la funzione caratteristica della variabile Y= X 1 +X 2. Si ha: Posto che X1 (t) e X2 (t) siano definite. Dalla precedente relazione è possibile ricavare tutti i momenti di Y. Generalizzare le precedente formula al caso di n variabili indipendenti

114 114 Metodi Probailistici, Statistici e Processi Stocastici Distr. della somma di variabili Gaussiane Siano X 1, X 1 ~N( 1, 1 2 ), e X 2, X 2 ~N( 2, 2 2 ), due variabili casuali, indipendenti con distribuzione gaussiana. Qual è la distribuzione di Y=X 1 +X 2 ? Dalla pagina precendete si ha: Quindi Y~N( 1 + 2, ) Generalizzate il precedente risultato alla somma di N variabili gaussiane indipendenti

115 115 Metodi Probailistici, Statistici e Processi Stocastici Distribuzione della combinazione lineare di Varibili Gaussiane Siano X 1, X 1 ~N( 1, 1 2 ), e X 2, X 2 ~N( 2, 2 2 ), due variabili casuali, indipendenti con distribuzione gaussiana. Qual è la distribuzione di Y=a 1 X 1 +a 2 X 2 ? Ne segue: Y~N(a 1 1 +a 2 2, a a ) Si generalizza (dimostrare per esercizio) come segue. Dato con X i tutti gaussiani e indipendenti, X i ~N( i, i 2 ), Y ha distribuzione gaussiana con valor medio e varianza

116 116 Metodi Probailistici, Statistici e Processi Stocastici La distribuzione bivariata di Gauss Consideriamo X 1 e X 2 distribuiti secondo la distribuzione congiunta:

117 117 Metodi Probailistici, Statistici e Processi Stocastici Capitolo VII: Regressione Lineare

118 118 Metodi Probailistici, Statistici e Processi Stocastici Regressione Lineare Multivariata Supponiamo di avere a disposizione un modello che può essere matematicamente descritto dalla relazione: con x=x 1,x 2,…x n vettore di variabili casuali. Se f(x) fosse nota, ricadremmo nel caso di funzione di variabili casuali. Tuttavia, nella maggioranza dei casi f(x) non è nota. Linformazione che si ha a disposizione, invece, è una serie di valori Y i =f(x i ), (i=1…m), in corrispondenza della serie di campioni x i. Lo scopo è quello, quindi di cercare di spegare Y in termine delle variabili x 1,x 2,…x m. La domanda che ci poniamo è: riusciamo ad avere informazioni sulla f(x) dalla serie di generazioni x i ? Risposta sì. Anzi, quanto più siamo disposti a spendere in termini di informazioni e tempo di calcolo, tanto più riusciremo a ricevere in termini di dettagli sulla forma funzionale della f(x). Il modo più semplice di procedere dal punto numerico è quello di approssimare la f(x) con una forma funzionale lineare e additiva del tipo:

119 119 Metodi Probailistici, Statistici e Processi Stocastici Regressione Lineare Multipla Dove I sono i coefficienti della regressione lineare e è un termine che contiene tutte le dipendenze di ordine superiore di Y da X. IL modello di cui sopra è detto di regressione lineare multipla Il termine I x i è detto componente sistematica, il termine è la componente accidentale Per semplicità supponiamo f: X R 2 R. La regressione lineare su f risulta: Supponiamo ora di avere i seguenti due campioni di X in Tabella In corrispondenza otteniamo i valori di Y in tabella. Inserendo nel modello otteniamo il sistema lineare: iX1X1 X2X2 YiYi

120 120 Metodi Probailistici, Statistici e Processi Stocastici Regressione Lineare multipla che può essere risolto per determinare i I, supponendo nulla la componente accidentale. Il problema non può tuttativa essere risolto con esattezza. Infatti, notiamo che se solo se avessimo tre campioni, il sistema potrebbe presenterebbe ununica soluzione. Soluzione che non esiste in generale quando i campioni fossero 4.

121 121 Metodi Probailistici, Statistici e Processi Stocastici Notazione Generalizziamo la notazione della tabella precedente. In notazione vettoriale e matriciale iX1X1 X2X2 XmXm YiYi 1x 11 x 1m Y1Y1 2x 21 x 22 X 2m Y2Y2 … nX n1 x n2 x nm YnYn

122 122 Metodi Probailistici, Statistici e Processi Stocastici Un esempio Dopo attenta riflessione stabilite che le vendite della vostra azienda (y) dipendono, da: –X 1 : Condizioni generali delleconomia (che sintetizzate nellindice della fiducia dei consumatori) –X 2 : Qualità della produzione, che stimate in base al numero di elementi difettosi scartati durante lanno. Nei dieci mesi passati raccogliete i seguenti dati :

123 123 Metodi Probailistici, Statistici e Processi Stocastici Un esempio Utilizzando la notazione precedente abbiamo: Notiamo che: YX1 =0.71 e YX2 =-0.58

124 124 Metodi Probailistici, Statistici e Processi Stocastici Le Ipotesi della regressione lineare semplice 1.Linearità: Notiamo che lerrore ha valore atteso nullo 2.Omoschedasticità: La varianza delle y i è costante al variare delle osservazioni. 3.Incorrelazione subordinata: 4.Rango pieno: rango(X)=m Le righe o colonne di X sono linearmente indipendenti

125 125 Metodi Probailistici, Statistici e Processi Stocastici Proprietà degli errori i Per ogni i, I hanno le medie condizionale e marginale nulle: Varianza marginale e condizionale sono pari a 2 Sono tra loro incorrelati

126 126 Metodi Probailistici, Statistici e Processi Stocastici Stima dei Finora abbiamo visto il modello ed abbiamo visto le proprietà del modello di regressione lineare semplice in termini degli errori. Ma come stimiamo i coefficienti ? Li stimiamo con il metodo dei minimi quadrati come segue. Supponiamo per il momento m=2. Le n osservazioi y i sono n punti in R 3. Lapprossimazione lineare, fissata la matrice delle osservazioni X, disegna un insieme di piani che variano al variare di 1 e 2. Quale errore quadratico commettiamo utilizzando il generico piano? Il piano che utilizzeremo per la regressione lineare sarà quello che minimizza lerrore quadratico della regressione. Da un punto di vista geometrico è il piano che ha distanza minima dalle osservazioni

127 127 Metodi Probailistici, Statistici e Processi Stocastici Interpretazione Geometrica

128 128 Metodi Probailistici, Statistici e Processi Stocastici Espressione dei e teorema di Gauss Markov Si può dimostrare che lespressione dei è data da: Dove X * T è la trasposta della matrice X * e X * -1 la sua inversa. In questo caso abbiamo incluso nella matrice X la prima colonna pari a tutti 1 per formare la matrice X *. Teorema di Gauss-Markov: lo stimatore dei minimi quadrati è lineare, corretto ed è lo stimatore di varianza minima

129 129 Metodi Probailistici, Statistici e Processi Stocastici Errore e Coefficiente di Determinazione Lo stimatore corretto della varianza degli errori (ricordiamo che il valor medio è nullo!) è: Lerrore standard della regressione è invece definito da: Il coefficiente di determinazione del modello è definito da: R dà una misura della bontà del modello e tanto più si avvicina ad uno tanto meglio il modello di regressione spiega Y in termini degli X.

130 130 Metodi Probailistici, Statistici e Processi Stocastici Risultato della regressione La regressione lineare produce il piano di regressione con I seguenti coefficienti:

131 131 Metodi Probailistici, Statistici e Processi Stocastici Risultato della regressione (cont.) y^ Ortogonalit à.y

132 132 Metodi Probailistici, Statistici e Processi Stocastici Un esempio analitico La produttività della vostra azienda è legata, pensate, al tasso di rinnovo dei macchinari (X 1 ) e alle motivazioni del personale (X 2 ). Avete a disposizione I seguenti dati: Si determini: 1.Lespressione in forma sintetica del modello di regressione 2.I coefficienti di regressione 3.I residui 4.Mostrate che la somma dei residui è pari a 0 e che il vettore dei residui è ortogonale al vettore delle stime 5.Calcolate il coefficiente di determinazione del modello YX1X1 X2X

133 133 Metodi Probailistici, Statistici e Processi Stocastici Esempio analitico Errori dellordine di

134 134 Metodi Probailistici, Statistici e Processi Stocastici Limiti della regressione lineare Scatter Plot

135 135 Metodi Probailistici, Statistici e Processi Stocastici Parte II: Processi stocastici

136 136 Metodi Probailistici, Statistici e Processi Stocastici Somma di un Numero Casuale di Variabili casuali Siete i gestori di un supermercato. Ogni cliente spende Xi, dove I è il numero che indica li-esimo cliente. In media I clienti spendono 75EUR a testa. Il numero medio di clienti giornaliero è una variabile casuale N con valor medio 300. Quanto vi aspettate di incassare al giorno? Soluzione. Lincasso giornaliero è dato da: Dobbiamo quindi calcolare il valore atteso di I: Per farlo, condizioniamo sul valore che assumerà N. Abbiamo: Quindi ci attentiamo un incasso di 75*300=22500EUR/Giorno

137 137 Metodi Probailistici, Statistici e Processi Stocastici Capitolo VIII: Processi di Poisson

138 138 Metodi Probailistici, Statistici e Processi Stocastici Processi di Conteggio Consideriamo un processo stocastico, in cui siamo interessati a contare arrivi e tempi di arrivo. Per esempio gli arrivi di clienti al supermercato, di telefonate ad un centralino etc. Denotiamo con N(t) il numero di eventi che si verificano nel tempo t, cioè nellintervallo di tempo 0-t. N(t)=numero di eventi tra 0 e t. Non è difficile intuire che: 1.N(t) è un numero intero non negativo, t 2.N(s)<=N(t) se s

139 139 Metodi Probailistici, Statistici e Processi Stocastici Processi di Conteggio (2) Il tempo X k =T k -T k-1 è il tempo di attesa tra il k-esimo e il k-1-esimo evento Es. Supponete che il supermercato apra alle 9. Il primo cliente arriva alle 9.01 e il secondo alle Abbiamo T 1 =1min, T 2 =5min, X 2 =4min Vale che: T n =X 1 +X 2 +…X n Due proprietà sono di interesse: indipendenza e stazionarietà degli incrementi 1.Incrementi Indipendenti: Un processo viene detto ad incrementi indipendenti, se i numeri di eventi che si verificano in intervalli di tempo disgiunti sono indipendenti tra loro: P[N(t+s)-N(t)=k|N(t+s)-N(t)]= P[N(t+s)-N(t)=k] 2.Incrementi Stazionari: Un processo viene detto ad incrementi stazionari se il numero di eventi che si verifica in un intervallo dipende solo dalla lunghezza dellintervallo. Sia s la lunghezza dellintervallo. In termini di probabilità si scrive: P[N(t+s)-N(t)=k]=P[N(t+s)-N(t)=k]

140 140 Metodi Probailistici, Statistici e Processi Stocastici Processi di Poisson Un processo di conteggio è detto processo di Poisson se verifica le seguenti proprietà: 1.N(0)=0 2.Il processo è a incrementi indipendenti 3.Il processo è a incrementi stazionari e la probabilità di k eventi nel tempo t è data da: è detto intensità o tasso del processo

141 141 Metodi Probailistici, Statistici e Processi Stocastici Distribuzione dei tempi di arrivo Quanto dobbiamo attendere per il primo arrivo? In termini di probabilità, scriviamo la domanda come: qual è la probabilità che X 1 sia maggiore di t): P(X 1 >t). La risposta è la distribuzione cumulativa di X 1 : P(X 1 >t)=P[N(t)=0]= P( ; k =0) =e - t Qual è la distribuzione di X 2 ? P(X 2 >t|X 1 =s)=P[N(t-s)=0|X 1 =s]= grazie a proprietà di intervalli indipendenti = P[N(t-s)=0]= P( ; k =0) =e - (t-s) Ne segue: I tempi di arrivo X 1,X 2,...,X n di un processo di Poisson sono variabili aleatorie indipendenti con legge esponenziale di tasso

142 142 Metodi Probailistici, Statistici e Processi Stocastici Distribuzione di T n La distribuzione del tempo di attesa T n risponde alla domanda: come è distribuita la somma degli X i ? Infatti: T n =X 1 +X 2 +…X n Dunque:P[T n >t]=P[X 1 +X 2 +…X n >t] Si dimostra che T n ~ (,n) Ricordiamo che I tempi di arrivo sono iid esponenziali. Utilizziamo la funzione generatrice dei momenti:

143 143 Metodi Probailistici, Statistici e Processi Stocastici Esempio Gli arrivi orari ad un supermercato sono distribuiti secondo una Poisson di media 100[1/ore]. Qual è il tempo di attesa perchè arrivino 500 clenti? Risposta: 5 ore

144 144 Metodi Probailistici, Statistici e Processi Stocastici Processi di Poisson con selezione Consideriamo un processo di Poisson con arrivi di tasso. Ad ogni arrivo associamo un tasso di successo p. Per esempio successo è se un cliente compera più di tre tipi di prodotto diverso. Indichiamo con M(t) il numero di successi ottenuti fino al tempo t. M(t) viene detto processo di Poisson con selezione. Si dimostra che: M(t) e un processo di Poisson di intensità p.

145 145 Metodi Probailistici, Statistici e Processi Stocastici Applicazione Supponiamo che se un cliente compera più di tre prodotti il guadagno sia G. Se compera meno di tre prodotti si ha una perdita L. Quali sono i valori del tasso di arrivo dei clienti e della probabilità p per avere il break-even, se gli arrivi orari seguono un processo di poisson di tasso e la probabilità che comperino più di tre prodotti è p? Sol. Poissimo dividere il processo in due sottoprocessi di tassi p e (1-p) rispettivamente. Il valore atteso degli acquisti in unora è dato rispettivamente da: p e (1-p). Affinchè vi sia break even occorre che pG= (1-p)L p/(1-p)=L/G

146 146 Metodi Probailistici, Statistici e Processi Stocastici Processi di Poisson composti Consideriamo un processo in cui gli eventi costituiscono un processo di poisson di tasso. Ogni volta che un evento si realizza, si ha una conseguenza X i. Per esempio I clienti giungono al supermercato nei tempi t i ed ognuno spende un ammontare X i. Quanto spendono in totale i clienti, e, dunque, quanto incassa il supermercato? Il processo X(t) è detto processo di Poisson composto. In generale lo caratterizzeranno due distribuzioni, quella di Poisson e quella degli X i. La distribuzione degli Xi potrà essere continua o discreta.

147 147 Metodi Probailistici, Statistici e Processi Stocastici Valori Attesi I processi che coinvolgono la somma di variabili casuali sono più facilmente trattabili in termini della funzione generatrice dei momenti. Nel nostro caso dobbiamo calcolare:

148 148 Metodi Probailistici, Statistici e Processi Stocastici Valori Attesi (cont.) Da cui, derivando la funzione generatrice dei momenti, è facile verificare che:

149 149 Metodi Probailistici, Statistici e Processi Stocastici Applicazione I clienti che arrivano al supermercato spendono secondo la seguente tabella: Arrivano in media 100 clienti allora. Nellarco di una giornata (8 ore), quanto incassa il supermercato? Risposta: 100*8*E[euro spesi]=100*8*91.6=73280 EUR Incertezza (vedi esempio Excel) EUR p i p i 252%955% 303%1005% 353%1054% 403%1104% 453%1154% 504%1204% 554%1254% 604%1303% 654%1353% 704%1403% 755%1453% 805%1503% 853%1553% 903%1602%

150 150 Metodi Probailistici, Statistici e Processi Stocastici La rovina dellassicuratore The compound Poisson process is very important in insurance, as a model for the arrival of claims at an insurance office. The standard model assumes that premiums arrive at a constant rate c and looks to find the probability that the surplus S(t) = S(0) + ct - X(t) ever hits 0 (ruin occurs).

151 151 Metodi Probailistici, Statistici e Processi Stocastici Capitolo IX: Processi di Markov Discreti e Omogenei

152 152 Metodi Probailistici, Statistici e Processi Stocastici Gestione di Magazzino Siete i gestori di un concessionario di automobili di lusso. Avete posto per 7 auto. Il tempo di consegna delle automobili è di due giorni, per cui se ordinate lauto al Venerdì, per il Lunedì mattina sono in vetrina. Se al Venerdì della n-esima settimana avete 2 auto o meno di 2 in vetrina, ne ordinate altre in modo da riportavi a 7. Le vendite arrivano secondo una distribuzione di Poisson con media 4 e sono pronta consegna. Chiamiamo X n il numero di auto in vetrina allinizio della n- esima settimana. X n è una variabile aleatoria. Infatti, dipendendo dal numero di vendite, potremmo avere 7,6,5,4,3 auto in vetrina ogni Lunedì mattina. Analizziamo come si piò descrivere il comportamento di X Per il nostro problema, notiamo che se mettiamo sullasse orizzontale il numero della settimana e su quello verticale le auto vendute, abbiamo un risultato del tipo:

153 153 Metodi Probailistici, Statistici e Processi Stocastici Evoluzione temporale: Processi Discreti Notiamo che il sistema procede a scatti nel tempo, ovvero ogni settimana il sistema si evolve. Tale tipo di processo è detto discreto (ovviamente dal punto di vista temporale) X n-1nn+1...t X n.....

154 154 Metodi Probailistici, Statistici e Processi Stocastici Stati del sistema ed Evoluzione temporale Chiamiamo stati del sistema (S) i valori che la variabile aleatoria X può assumere. Nella figura della pagina precedente, si tratta dellasse verticale. Nel nostro caso sono 3,4,5,6,7. Abbiamo quindi 5 stati possibili. In generale useremo la notazione S={1,2,…,N} per indicare gli stati del sistema Dato il sistema in un determinato stato alla n-esima settimana, alla n+1-esima il sistema può rimanere ancora nello stesso stato o passare ad un altro stato la settimana successiva Per esempio, se abbiamo 4 auto in vetrina alla 30-esima settimana (X 30 ), e se non si presentano clienti, avremo ancora 4 auto il lunedì della n+1-esima settimana. Se vendiamo 2 auto, X 31 =7.

155 155 Metodi Probailistici, Statistici e Processi Stocastici Diagramma degli stati E una rappresentazione grafica degli stati del sistema e delle transizioni che il sistema può compiere p 12 p 23 p 33 p 31 p 22

156 156 Metodi Probailistici, Statistici e Processi Stocastici Probabilità di transizione e Processi di Markov Il sistema si muove da uno stato allaltro con della probabilità, che vengono dette probabilità di transizione. Le probabilità di transizione rispondono alla domanda: qual è la probabilità che il sistema si muova nello stato j ad n+1 dato che al tempo n era nello stato i e nei tempi precedenti in X n-1,…X 0 ? In notazione probablistica, la probabilità cercata è: Ora, un processo viene detto Markoviano se la probabilità che il sistema passi allo stato j al tempo n+1, dato che è nello stato i al tempo n, dipende solo dal fatto che il sistema è nello stato I al tempo n e non dipende dagli stati nei quali il sistema si trovava prima di i. Ovvero, è indipendente dal modo in cui il sistema è arrivato in i. In formule:

157 157 Metodi Probailistici, Statistici e Processi Stocastici La matrice di Markov Si definisce matrice di Markov una matrice: i cui elementi sono le probabilità di transizione di un sistema markoviano. La i-esima riga descrive lo stato di partenza, la j-esima colonna lo stato di arrivo. Si dimostra che gli elementi della matrice soddisfano le seguenti proprietà: La seconda proprità dice che, se il sistema è in i al tempo n, allora con probabilità 1 al tempo n+1 sarà in uno degli stati del sistema

158 158 Metodi Probailistici, Statistici e Processi Stocastici E un magazzino Markoviano? Studiamo se il processo che abbiamo a disposizione nella nostra gesione di magazzino è un processo di Markov. Innazitutto scriviamo X n+1 in forma matematica: Dove V n rappresenta le vendite della n-esima settimana. Ricaviamo poi la probabilità di X n. P(V n )=s dipende solo da vendite in settimana n-esima e non dalle vedntie delle settimane precedenti. Quindi possiamo scrivere: Si tratta quindi di un processo di Markov. In più notiamo che la probabilità non dipende dal fatto di essere nella settimana n-esima. Si tratta quindi di un processo di Markov omogeneo.

159 159 Metodi Probailistici, Statistici e Processi Stocastici Definizione di Processo di Markov Omogeneo Un processo stocastico sullo spazio degli stati S, si dice di Markov discreto se n: E omogeneo se verifica ovvero la matrice di Markov non dipende dal tempo n.

160 160 Metodi Probailistici, Statistici e Processi Stocastici La matrice di Markov nel nostro esempio La matrice sarà della forma: dove abbiamo catalogato gli stati come X 1 =3,X 2 =4,…,X 5 =7 Si ha:

161 161 Metodi Probailistici, Statistici e Processi Stocastici Matrice di Markov dellesempio Lultimo passo prima di riempire la matrice è quello di calcolare le pij mediante la distribuzione di Poisson. Infine: k =

162 162 Metodi Probailistici, Statistici e Processi Stocastici Evoluzione temporale della matrice di transizione Indichiamo con a i le probabilità iniziali del sistema: a i =P(X 0 =i) (non è condizionale!!!) Qual è la probabilità che al tempo k, X k =j dato X 0 =i? Definiamo la matrice delle probabilità di transizione a k-passi come: Dove Indichiamo la probabilità incondizionale di X k =j con a (k) Che differenza cè tra a (k) e P (k) ?

163 163 Metodi Probailistici, Statistici e Processi Stocastici Evoluzione temporale della matrice di transizione Calcoliamo P (0) e P (1). Per P (0) notiamo che p ij =P(X 0 =j|X 0 =i)=1 se i=j, altrimenti=0. Per P (1), notiamo che: p ij (1) =P(X 1 =j|X 0 =i)=p ij. Quindi P (1) =P

164 164 Metodi Probailistici, Statistici e Processi Stocastici La distribuzione non condizionale Definiamo: a (k) è la distribuzione (discreta) della probabilità che il sistema si trovi in un determinato stato per t=k. Infatti, per definizione a(k) è un vettore il cui elemento s-esimo è dato da:

165 165 Metodi Probailistici, Statistici e Processi Stocastici Teorema: relazione tra P (k) e P Per un processo markoviano discreto e omogeneo vale: che in forma matriciale equivale a scrivere: Quindi per k=2, si vede che ; per k=3, Per k=s vale:

166 166 Metodi Probailistici, Statistici e Processi Stocastici Un esempio Consideriamo il seguente gioco. Una pallina può trovarsi sulla metà superiore o inferiore del flipper, rimbalzare da una metà allaltra ed uscire. Rappresentiamo il problema con i seguenti stati: –j=1: la pallina è sulla metà superire –j=2:la pallina è sulla metà inferiore –j=3: la pallina è uscita Determiniamo gli stati del sistema: Lo stato 3 è detto assorbente, perchè il sistema può solo entrare in 3 e non uscire p 12 p

167 167 Metodi Probailistici, Statistici e Processi Stocastici Equazione di Chapman-Kolmogorv Il teorema di C-K stabilisce che le probabilità di transizione a n passi soddisfano la seguente equazione: E quindi, in forma matriciale:

168 168 Metodi Probailistici, Statistici e Processi Stocastici Evoluzione Temporale per lesempio k k

169 169 Metodi Probailistici, Statistici e Processi Stocastici Esiste una distribuzione di probabilità limite? Dettagliamo la domanda nel titolo in tre punti: –Per n che tende linfinito, la distribuzione di X n tende ad una distribuzione limite? –Se esiste tale distribuzione limite, è unica? –Se esiste ed è unica, come si calcola? Notazione: indichiamo con Se il limite esiste, è detta distribuzione limite del processo

170 170 Metodi Probailistici, Statistici e Processi Stocastici Calcolo della distribuzione limite Teorema 1: se esiste una distribuzione limite, allora soddisfa le seguenti proprietà: Dimostriamo la prima. In forma matriciale:

171 171 Metodi Probailistici, Statistici e Processi Stocastici Esistenza della distribuzione limite Notiamo che dal punto di vista dellalgebra lineare la distribuzione limite deve soddisfare il sistema lineare: Ricordiamo che la condizione necessaria affinchè il sistema non possegga la sola soluzione nulla è: Quindi non è garantita lesistenza della distribuzione limite

172 172 Metodi Probailistici, Statistici e Processi Stocastici Unicità della distribuzione limite Anche lunicità della distribuzione limite non è in genere garantita. Per un esempio vedi Kulkarni, p.129.

173 173 Metodi Probailistici, Statistici e Processi Stocastici Periodicità, Irriducibilità e Esistenza Un processo di Markov discreto e omogeneo è detto periodico di periodo d se >1 d è lintero più grande per cui vale: Con n multiplo di d. Se d=1 il processo è detto aperiodico. In pratica il concetto di periodicità risponde alla domanda: è possibile tornare ad i dopo essere partiti da i? Se il processo è periodico di periodo d allora è possibile tornare ad I solo ai tempi d,2d,…kd. Non è possibile in tempi intermedi. Il periodo può essere calcolato per via grafica dai diagrammi di transizione. Si deve definire un ciclo diretto nel diagramma come il ciclo da un nodo a se stesso. Se tutti I cicli diretti nel diagramma sono multipli di d allora il periodo è d.

174 174 Metodi Probailistici, Statistici e Processi Stocastici Periodicità, Irriducibilità e Esistenza Un processo di Markov discreto e omogeneo è detto irriducibile se, i,j esiste k>0 tale che La precedente proprietà dice che è possibile muoversi dallo stato i allo stato j in uno o più passi per tutti gli stati i e j. Condizione sufficiente di esistenza e unicità: un processo di Markov irriducibile e aperiodico ammette ununica distribuzione limite.

175 175 Metodi Probailistici, Statistici e Processi Stocastici Distribuzione Stazionaria Una distribuzione * è detta stazionaria se: per tutti gli stati ( i) e per tutti i tempi n0. Anche la distribuzione stazionaria, se esiste soddisferà: Ne segue che se esiste una distribuzione limite essa è anche una distribuzione stazionaria

176 176 Metodi Probailistici, Statistici e Processi Stocastici Costi o ricavi associati agli stati Spesso il fatto che il sistema sia in un determinato stato comporta allazienda un costo/ricavo gestionale (es. costo di magazzino delle parti di ricambio o ricavo da vendite) Per sapere quanto è il costo totale atteso, occorre sapere quanto tempo il sistema sta in un determinato stato. Ora notiamo che per modelli markoviani discreti il sistema scatta da uno stato allaltro ogni n. Quindi il tempo totale che il sistema trascorre in uno stato non è altro che la somma del numero di volte che, passa dallo stato di interesse. Denotiamo con j lo stato di interesse e con X k =j levento: il sistema è nello stato j al tempo k. Leghiamo ad X k la variabile Z j (k) definita come segue: Il numero di volte in cui il sistema passa per lo stato j è proprio la somma delle variabili Z j (k). Quindi: Saremo interessati al valore atteso di N j (k)

177 177 Metodi Probailistici, Statistici e Processi Stocastici 1001 K=0

178 178 Metodi Probailistici, Statistici e Processi Stocastici Tempi di occupazione Il sistema patirà dallo stato X 0 =i. Definiamo con m ij (k) il numero di volte in cui il sistema passa per lo stato j partendo dallo stato i al tempo 0. In forma matriciale: Si dimostra che: In forma matriciale:

179 179 Metodi Probailistici, Statistici e Processi Stocastici Esempio Esempio. Se k=10, scrivere la matrice di occupazione dellesempio Pallina da flipper. Utilizziamo la formula precedente Notiamo il risultato. Se partiamo da 3, stiamo in 3 per 11 volte…sempre!

180 180 Metodi Probailistici, Statistici e Processi Stocastici Costi condizionali Costi da associare agli stati: C(X j ) è il costo associato al fatto che il sistema è nello stato j. Il costo totale generato nel periodo 0..k, è: Il valore atteso è: Vettore dei costi condizionale allo stato del sistema a k=0: Possiamo quindi ricavare il valore atteso del costo come: Forma matriciale Forma vettoriale

181 181 Metodi Probailistici, Statistici e Processi Stocastici Esempio Nellesempio del gioco, ogni volta che la pallina finisce nello stato 3 si perdono 2EUR, ogni volta che siete nello stato 1 o 2 vincete 1 EUR. In 10 partite, quanti soldi si perdono se si parte dallo stato 1? E dallo stato 2? E da 3? E se aveste a=[ ], vi convene giocare?

182 182 Metodi Probailistici, Statistici e Processi Stocastici La distribuzione delloccupazione Sia N j (k) il numero di volte in cui il sistema visita lo stato j nel tempo 0…k. Loccupazione dello stato j viene definita da: Interpretazione: è la frazione di tempo che il sistema spende nello stato j. La distribuzione di occupazione ( ^), se esiste, soddisfa le seguenti equazioni: Un processo markoviano irriducibile ammette ununica distribuzione di occupazione che è uguale alla distribuzione stazionaria.

183 183 Metodi Probailistici, Statistici e Processi Stocastici Costo per unità di tempo Il costo per unità di tempo è definito come: Dove i denota lo stato di partenza. Si dimostra che soddisfa la seguente eguaglianza per un processo di Markov irriducibile ed è indipendente da i:

184 184 Metodi Probailistici, Statistici e Processi Stocastici Esempio 1 Consideriamo un processo di Markov S={1,2,3,4}, discreto e irriducibile che sia caratterizzato dalla seguente distribuzione di occupazione degli stati: ^=[ ] e costi per stato: c=[ ]. Il sistema si muove su base settimanale. Quanto vi costa, nel lungo periodo, il sistema alla settimana? Sol.: 509EUR per settimana

185 185 Metodi Probailistici, Statistici e Processi Stocastici Problemi Consideriamo un gioco in cui il sistema ha tre stati e può passare da uno stato allaltro con le seguenti probabilità, k=0,1,…: E un processo irriducibile? Se lo stato 1 dà un profitto di +10, lo stato 2 una vincita di +15 e lo stato 3 una perdita di -20, vi conviene giocare fino a k=10 se le probabilità di partenza sono [ ]? (Ans. 1.15, sì) E allinfinito? (0.1667)

186 186 Metodi Probailistici, Statistici e Processi Stocastici Capitolo X: Processi di Markov Continui nel Tempo

187 187 Metodi Probailistici, Statistici e Processi Stocastici Introduzione Nel caso dei processi di Markov discreti, si individuavano una serie di istanti k=0,1,…,n n cui lo stato del sistema veniva osservato. Supponiamo ora che il sistema sia osservato con continuità. Un esempio può essere quello di un satellite che gira nello spazio e può essere in 2 stati, funzionante o rotto. Ci chiediamo se al tempo T il satellite sia funzionante o rotto.

188 188 Metodi Probailistici, Statistici e Processi Stocastici Definizione: Markov continuo Processo di Markov continuo nel tempo: Un processo stocastico è detto di Markov, continuo del tempo se vale: dove X(s+t) indica lo stato del sistema al tempo t+s. Notiamo che s+t sostituisce k al pedice nella noazione precedente. Interpr.: la probabilità che il sistema passi dallo stato I che occupava in s allo stato j dopo un tempo t dipende solo dallo stato in cui il sistema si trovava in s e da s. Matrice delle probabilità di transizione

189 189 Metodi Probailistici, Statistici e Processi Stocastici Definizione: Markov continuo omogeneo Processo di Markov continuo nel tempo è omogeneo se vale: Interpr.: la probabilità che il sistema passi dallo stato i che occupava in s allo stato j dopo un tempo t dipende solo di due stati e non dal tempo s. Matrice delle probabilità di transizione:

190 190 Metodi Probailistici, Statistici e Processi Stocastici Proprietà della matrice prob. transizione La matrice delle probailità di transizione soddisfa le seguenti proprietà: Dimostriamo la 3

191 191 Metodi Probailistici, Statistici e Processi Stocastici Equazioni di Chapman Kolmogorov Valgono i due seguenti lemma: I =tasso istantaneo di uscita dallo stato i, q ij tasso di transizione dallo stato i allo stato j. Sono le probabilità condizionale che il sistema compia la transizione dallo stato I allo stato j nellintervallo di tempo dt, dato che è nello stato i a t. Si dimostra che le probabilità di transizione soddisfano le seguenti equazioni: se si condiziona su h. Se si condiziona su t.

192 192 Metodi Probailistici, Statistici e Processi Stocastici Equazioni di C-K (2) Poniamo: ij è detto rateo di transizione ed è la probabilità che nel tempo dt il sistema passi allo stato j dato che è nello stato i. Le equazioni di C-K si possono quindi riscrivere come:

193 193 Metodi Probailistici, Statistici e Processi Stocastici Equazioni di C-K (3) Dove A e la matrice dei ratei di transizione del sistema, P e il vettore delle probabilita degli stati del sistema.

194 194 Metodi Probailistici, Statistici e Processi Stocastici Costruzione della matrice di transizione Esempio: componente soggetto a rottura e riparazione. 2 stati: in funzione o in riparazione, con tassi di guasto e riparazione. Chi sono P 12 e P 21 ? Sono le probabilita di transizione in dt. Quindi: P 12 = e P 21 = La matrice di transizione e costruita con le seguenti regole: (+) se il salto e in entrata allo stato, (-) se il salto e in uscita Prendiamo lo stato 1: si entra in 1 da due con tasso (+), si esce con tasso (-). Quindi: 12 P 21 P 12 12

195 195 Metodi Probailistici, Statistici e Processi Stocastici La matrice di transizione La matrice di transizione e:

196 196 Metodi Probailistici, Statistici e Processi Stocastici Equazione delle P i (t) Definiamo le probabilità incondizionali che il sistema si trovi nello stato i al tempo t come: Si dimostra (vedi seguito) che le equazioni soddisfatte dalle probabilità incondizionali sono:

197 197 Metodi Probailistici, Statistici e Processi Stocastici Differenza Che differenza cè tra: e

198 198 Metodi Probailistici, Statistici e Processi Stocastici Soluzione delle equazioni E la probabilita che a t il componente sia nello stato 1. Occorre risolvere il sistema di equazioni differenziali lineari precedente. Modo piu usato in affidabilita e mediante trasformata di Laplace. Con trasf. Laplace, le equazioni da differenziali diventano algebriche. Dopo aver lavorato con equazioni algebriche, occorre poi antitrasformare. Si ottiene dunque la disponibilita come funzione del tempo. Il risultato per un componente singolo soggetto a riparazioni e rotture e il seguente:

199 199 Metodi Probailistici, Statistici e Processi Stocastici Risultato Probabilità che il sistema sia nello stato 1=Disponibilita istantanea: Disponibilita asintotica: Interpretazione: tempo che occorre in media alla riparazione diviso il tempo totale

200 200 Metodi Probailistici, Statistici e Processi Stocastici Probabilità limite Per t che tende ad infinito, se il processo Markoviano è irriducibile, le probabilità limite esistono e soddisfano le seguenti equazioni: ovvero, j: Tale relazione esprime il bilancio tra le entrate e le uscite dallo stato

201 201 Metodi Probailistici, Statistici e Processi Stocastici Esempio Si consideri un sistema con due componenti, con la possibilità di riparare un solo componente alla volta, nel caso si rompa. I due componenti sono identici e si rompono con tasso costante. Il tasso di riparazione è. Rappresentare il sistema come processo di Markov, scrivere le equazioni di C-K per il processo e trovare le probabilità limite

202 202 Metodi Probailistici, Statistici e Processi Stocastici Distribuzione stazionaria Per un processo di Markov continuo,irriducibile, la distribuzione limite è anche la distribuzione stazionaria.

203 203 Metodi Probailistici, Statistici e Processi Stocastici Distribuzione di occupazione Sia T un tempo su cui osserviamo il sistema. Sia m ij (T) il tempo speso dal sistema nello stato j dato che è partito da I al tempo 0. Se il processo è irriducible, vale allora che: – la frazione di tempo che il sistema passa nello stato j al tendere di t allinfinito non dipende da i –La frazione di tempo spesa da sistema nello stato j è: –Quindi le probabilità limite si possono interpretare come frazione del tempo che il sistema spende in un determonato stato

204 204 Metodi Probailistici, Statistici e Processi Stocastici Modellazione dei Costi/Ricavo Il modello dei costi è il seguente. Sia c(X(t)) dt il costo istantaneo (tasso di costo) associato al fatto che il sistema è nello stato j al tempo t. Il costo/ricavo totale che il sistema sosterrà/produrrà nel tempo 0-T sarà:

205 205 Metodi Probailistici, Statistici e Processi Stocastici Tasso di costo istantaneo limite Per un processo continuo, Markoviano, irriducibile vale: Esempio: supponiamo che se la macchina produce incassiamo Se si rompe spendiamo costa Calcoliamo se, a regime, conviene investire nella macchina quando =10 -4 e = c lim =+940, quindi conviene.

206 206 Metodi Probailistici, Statistici e Processi Stocastici Capitolo IX: Problemi, dimostrazioni etc.


Scaricare ppt "1 Metodi Probailistici, Statistici e Processi Stocastici Metodi Probabilistici, Statistici e Processi Stocastici Università Carlo Cattaneo Emanuele Borgonovo."

Presentazioni simili


Annunci Google