La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Metodi Probabilistici, Statistici e Processi Stocastici Università Carlo Cattaneo Emanuele Borgonovo Metodi Probailistici, Statistici e Processi Stocastici.

Presentazioni simili


Presentazione sul tema: "Metodi Probabilistici, Statistici e Processi Stocastici Università Carlo Cattaneo Emanuele Borgonovo Metodi Probailistici, Statistici e Processi Stocastici."— Transcript della presentazione:

1 Metodi Probabilistici, Statistici e Processi Stocastici Università Carlo Cattaneo Emanuele Borgonovo
Metodi Probailistici, Statistici e Processi Stocastici

2 Capitolo I Metodi Probailistici, Statistici e Processi Stocastici

3 Introduzione Processo Stocastico: un processo stocastico è un processo che è costituito da eventi la cui realizzazione non è deterministica, ma caratterizzata da incertezza Esempio: i tempi di arrivo dei clienti in un grande centro commerciale o il numero di clienti che arriva al centro commerciale nell’intervallo dt attorno al tempo t. Metodi Probailistici, Statistici e Processi Stocastici

4 Elementi introduttivi di Teoria della Probabilità
Metodi Probailistici, Statistici e Processi Stocastici

5 Probabilità E’ possibile definire la Probabilità?
Sì, ma ci sono due scuole La prima dice che la probabiltà è una porprietà oggettiva degli eventi (Scuola Frequentista) La seconda dice che la Probabilità è una misura “soggettiva”della verosimiglianza degli eventi (De Finetti) Metodi Probailistici, Statistici e Processi Stocastici

6 Gli Assiomi di Kolmogorov
U B A Metodi Probailistici, Statistici e Processi Stocastici

7 Aree e rettangoli? U C A B D E
Supponete di saltare dentro U a caso. Chiamate P(A) la probabilità di saltare in A. Quanto vale? Sarà l’area di A diviso l’area di U: P(A)=A/U In questo caso P(U)=P(A)+ P(B)+ P(C)+ P(D)+ P(E) Metodi Probailistici, Statistici e Processi Stocastici

8 Legge della somma delle probabilità
Dati n eventi non mutuamente esclusivi, in generale la probabilità dell’unione di detti n eventi sarà la somma delle probabilità degli eventi singoli, cui si sottrarrà la somma delle probabilità delle doppie intersezioni, si sommeranno le probabilità delle triple intersezioni e così via. In termini di aree Metodi Probailistici, Statistici e Processi Stocastici

9 Legge della somma delle probbilità in termini di aree
2 eventi 3 eventi U B AB A U B C AB A Metodi Probailistici, Statistici e Processi Stocastici

10 In formule Dimostrazione. Introduciamo un insieme di n eventi, A1, A2,…, An e consideriamo un esperimento casuale su di essi. Indichiamo con Ii la variabile indicatrice dell’evento Ai. La definiamo come segue: Sia N il numero di eventi che si verificano. Varrà: Metodi Probailistici, Statistici e Processi Stocastici

11 Probabiltà Unione: prova (2)
N è una variabile casuale. Ci chiediamo: qual è il valore atteso di N, E[N]? Prima di rispondere, vediamo un “trucco” di calcolo combinatorio che ci tornerà utile: Ora, notiamo che Quindi, se introduciamo la variabile indicatrice di N così definita: Otteniamo: Metodi Probailistici, Statistici e Processi Stocastici

12 Probabiltà Unione: prova (3)
Quindi vale per IN il seguente sviluppo in termini di binomio di Newton: …Il k+1 deriva dal fatto che davanti alla somma c’è un segno -… Ora, calcoliamo il valore atteso di IN Il passaggio all’interno della somma deriva dal fatto che il valore atteso è un operatore Lineare Esplicitiamo i termini: Metodi Probailistici, Statistici e Processi Stocastici

13 Probabiltà Unione: prova (4)
Calcoliamo i termini: E così via. Ora notiamo che: Quindi: q.e.d. Metodi Probailistici, Statistici e Processi Stocastici

14 Probabilità Condizionale
Supponete ora che B è avvenuto. Quindi siete saltati dentro l’area B. B AB A Ora non protrete che concordare che: P(A|B)=P(AB)/P(B) Quindi: P(AB)=P(A|B) *P(B) Metodi Probailistici, Statistici e Processi Stocastici

15 Esempio Nel gioco del lotto, si vince con il 6. Qual è la probabilità, in sei estrazioni senza rimpiazzo, su 90 numeri di ottenere 6? Giochiamo 1 colonna e calcoliamo la probabilità di vincere. La probabilità è che la prima cifra estratta sia una delle nostre 6, la seconda sia una delle rimanenti 5 e così via. Indichiamo con I l’evento “la prima cifra estratta è una di quelle giocate da noi,” con II l’evento “la seconda cifra è esatta dato che la prima è una delle nostre 6,”, con III l’evento ““la terza cifra è una delle rimanenti 4, dato che le prime due sono delle nostre 6,” etc. Dobbiamo calcolare: P(I,II,III,IV,IV,VI). Utilizziamo la probabilità condizionale: P(I,II,III,IV,V,VI)= P(VI | I,II,III,IV,IV)*P(V,IV,III,II,I)= P(VI | I,II,III,IV,IV)*P(V | IV,III,II,I)* P(IV,III,II,I)= …=P(VI | I,II,III,IV,IV)*P(V | IV,III,II,I)* …*P(II |I)*P(I) La probailità che la prima sia una delle nostre è data da 6/90. La probabilità che la seconda sia una delle cifre giocate dato che la prima è una delle 6 è 5/89. Così via per le altre. Dunque: Metodi Probailistici, Statistici e Processi Stocastici

16 IL teorema della probabilità Totale
U E Teorema probabilità totale: dati N eventi mutuamente esclusivi (A1, A2,…,AN) e esaustivi, la probabilità di un altro evento E in U è data da: Metodi Probailistici, Statistici e Processi Stocastici

17 Esempio Ad una lotteria, si gioca con una scatola che contiene cappelli eleganti e sportivi in egual proporzione. Il gioco è il seguente. Si estrae un cappello. Se è elegante si ha diritto a tirare una moneta. Se esce testa, si estrae un altro cappello. Non si ha diritto ad altre estrazioni. Qual è la probabilità di vincere due cappelli eleganti? Soluzione: Applichiamo il teorema della probabilità totale a P(2 cappelli eleganti): P(2 cappelli eleganti)=P(II cap. el.|1 estrazione)*P(1estrazione)+P(II cap. el.|II estrazione)*P(II estrazioni). Chiaramente P(2 cappelli|1 estrazione)=0, quindi: P(II cappelli elegante)=P(II cap. el.|II estrazione)*P(IIestrazione). P(II estrazione)= P(II estrazioni|I sprt)*P(I sprt)+P(II estrazione|I eleg)*P(I eleg) Ora: se il primo è sportivo non si ha diritto a seconda estrazione. Osserviamo poi che: P(II estrazione| I eleg)= P(testa) =1/2 Quindi: P(II estrazione)=1/2·1/2=0.25 Inoltre: P(II cap. el .)=P(II cap. el.|II estrazione)*P(II estrazione)=1/2*0.25=0.125 Per esercizio calcolare: La probabiltà di uscire con un cappello La probabilità di uscire con un cappello elegante e con uno sportivo Ripetere gli stessi calcoli se I cappelli sono in proporzione 2/3 sportivi/eleganti Metodi Probailistici, Statistici e Processi Stocastici

18 Variabile Casuale Sia S lo spazio degli stati. Per stato si può intendere il risultato di un esperimento statistico, ovvero un evento casuale. Scriviamo: sS per denotare che l’esito s appartiene ad S. Ora, s è un evento casuale. Introduciamo una funzione matematica che lega il risultato dell’esperimento, s, ad un numero reale, x. Scriviamo: X: S Metodi Probailistici, Statistici e Processi Stocastici

19 Esempio Teniamo in considerazione gli arrivi di clienti al vostro negozio. Siete soggetti ad un mercato perfettamente concorrenziale, per cui il numero di clienti che arriva nel tempo dt non è deterministico ma casuale. Supponiamo che il break-even del vostro negozio sia 50 clienti al giorno. Quindi la giornata è in profitto se il numero di clienti (s) è >50, in perdita se s<50. Introduciamo x=1 se la giornata è in profitto, x=0 se la giornata è in perdita. X: S(0,1), è una variabile casuale nel senso definito prima Metodi Probailistici, Statistici e Processi Stocastici

20 Probabilità di una variabile casuale
Riprendendo il nostro esempio, la probabilità che X sia pari ad 1 è la probabilità che s abbia più di 50 clienti, ovvero P(X=1)=P(S>50). Detto s1 l’insieme di tutti gli eventi per cui è X=1, s1 è la contro-immagine di 1, ovvero: X-1(1)=s1. Più in generale: P(XA)=P[s  X-1(A)] cioè la probabilità che il valore della variabile casuale X sia nell’intervallo A è pari alla probabilità che gli eventi casuali s cadano nella controimmagine di A Metodi Probailistici, Statistici e Processi Stocastici

21 Funzione di Partizione
La funzione di partizione (cumulative distribution) di una variabile casuale risponde alla definizione di essere la probabilità che il valore della variabile casuale sia inferiore ad un valore di riefrimento. Scriviamo: FX(x)=P(X<=x) Per una variabile discreta: Per una variabile continua deve esistere una funzione f(u) tale che: La funzione f(u) è detta densità di probabilità di X Metodi Probailistici, Statistici e Processi Stocastici

22 Relazione tra F(x) ed f(x)
Se f(x) è continua, allora vale: Esempio. Sia 0<T< una variabile casuale caratterizzata da una distribuzione esponenziale, ovvero f(t) dt=e- tdt è la probabilità che T abbia un valore compreso tra t e dt. Qual è la probabilità che T<t? Soluzione P(T<t)=F(t)= Metodi Probailistici, Statistici e Processi Stocastici

23 Valore atteso Il valore atteso di una variabile aleatoria continua è definito da: Esempio: Per una variabile discreta: Esempio: calcolare il valore atteso della variabile aleatoria in Tabella a fianco Metodi Probailistici, Statistici e Processi Stocastici

24 Varianza La varianza esprime lo scostamento quadratico medio dal valor medio. E’ definita da: Notiamo la relazione tra V[X] e E[X2]. Si ha: E[X2] è detto momento di ordine 2 o secondo momento della distribuzione f(x). Metodi Probailistici, Statistici e Processi Stocastici

25 Skewness E’ il parametro che misura il grado di asimmetria di una distribuzione. La definiamo come momento centrale del III ordine: Se la distribuzione è simmetrica la skewness è nulIa. Di sotto la skewness delle distribuzioni più comuni Metodi Probailistici, Statistici e Processi Stocastici

26 Funzione generatrice dei momenti
Abbiamo definito i momenti di X come E[X], E[X2], E[X3],…, E[Xn]. La funzione generatrice dei momenti è una funzione definita come segue: I momenti di X possono essere ottenuti per differenziazione della funzione generatrice, valutando la derivata n-esima in t=0. Metodi Probailistici, Statistici e Processi Stocastici

27 Capitolo II: Distribuzioni Notevoli
Metodi Probailistici, Statistici e Processi Stocastici

28 Distribuzione binomiale
Consideriamo un fenomeno casuale caratterizzato da due soli possibili esiti (+/-; testa/croce). Consideriamo ora una serie di N eventi in cui l’esito di ogni esperimento è indipendente dall’esito dell’esprimento precedente. Una possibile realizzazione dell’esperimento è la seguente: +,+,+,-,-,+,-,+,-,-. Abbiamo ottenuto 5+ e 5-. Se indichiamo con p e q le probabilità di + e – rispettivamente, e consideriamo l’ipotesi di indipendenza, la probabilità di questa serie è: p5*q5. La seguente serie avrebbe potuto realizzarsi: -,-,-,+,+,-,+,-,+,+. Anche la probabilità di questa realizzazione è: p5*q5. Ora, supponiamo di essere interessati solo al numero di eventi, ovvero per noi sono di successo tutte le possibili serie in cui compaiono 5 testa e 5 croce. La probabilità di successo per serie di 10 lanci è data dalla probabilità di tutte le possibili permutazioni di 5 elementi su 10. Quante sono? Sono Dove è il buon vecchio coefficiente binomiale. Quindi la probabilità di una sere 5/5 è: Metodi Probailistici, Statistici e Processi Stocastici

29 Distribuzione binomiale (2)
In generale, la probabilità di k eventi su n tentativi in cui ad ogni tentativo solo 2 sono i possibili esiti è data da: Notiamo che q=1-p. La precendente ditribuzione è detta binomiale o di Bernoulli. Metodi Probailistici, Statistici e Processi Stocastici

30 Momenti della distribuzione binomiale
La funzione caratteristica della distribuzione binomiale è: Ne segue: Quindi: V[X]=E[K2]-E[K] 2=np(1-p) Metodi Probailistici, Statistici e Processi Stocastici

31 La distribuzione ipergeometrica
Consideriamo il seguente problema. Dovete testare una serie di prodotti. Avete a disposizione un lotto di N prodotti, dei quali M sono difettosi. Prendiamo un campione di n oggetti tra questi. Qual è la probabilità che x degli n oggetti siano difettosi? Innanzitutto consideriamo che su N oggetti, vi sono modi di selezionare n oggetti. Quindi il nostro “spazio” delle probabilità diventa fatto da elementi. Adesso chiediamoci: abbiamo a disposizione N oggetti, dobbiamo scelglierne x difettosi tra M e n-x non difettosi tra N-M. In quanti modi si può fare? Supponiamo che gli oggetti siano “X” (difettoso) e “-” non difettoso. Si potrebbero disporre su una linea come: X - - X X X X - X – X ………..X. Potremmo anche ordinarli e non cambierebbe nulla: X X X X X X X ………..X … -. Ora dobbiamo formare un gruppo di n in cui x siano difettosi. Possiamo scegliere x difettosi su M. In quanti modi? Metodi Probailistici, Statistici e Processi Stocastici

32 La distribuzione ipergeometrica (2)
Analogamente dobbiamo scegliere gli n-x oggetti non difettosi tra gli N-M oggetti non difettosi. Come nel caso precedente, se gli oggetti sono indistinguibili a priori, abbiamo modi possibili. Possiamo quindi combinare gli con gli nello scegliere gli oggetti. Quindi i modi possibili di creare serie di n oggetti di cui x sono difettosi su un lotto di N è: Dunque, se è il numero totale di casi possibili, la probabilità di creare n-tuple con x elementi difettosi dato un lotto di N elementi è: Che prende il nome di distribuzione ipergeometrica Metodi Probailistici, Statistici e Processi Stocastici

33 Esempio Supponiamo di avere a che fare con un’urna che contiene 100 schede elettorali. Si scontrano due candidati al ballottaggio. A fine voto si saprà che il candidato A avrà 55 voti e il candidato B 45. Qual è la probabilità che, estraendo 10 schede, 6 siano di A e 4 siano di B? Soluzione: N=500; M=55; n=10; x=6. Metodi Probailistici, Statistici e Processi Stocastici

34 Esempio (2) Chiediamoci ora, qual è la probabilità che su 20 schede le schede di A e B estratte mantengano la stessa proporzione(12 a 8)? Metodi Probailistici, Statistici e Processi Stocastici

35 Dalla distribuzione binomiale…
Consideriamo la distribuzione di una variabile random che segua una distribuzione binomiale con np= lasciamo tendere n ad infinito e p che tende a 0, con  è costante. Osserviamo cosa succede alla distribuzione binomiale: Metodi Probailistici, Statistici e Processi Stocastici

36 ..alla distribuzione di Poisson
P è detta distribuzione di Poisson  prende il nome di rateo o tasso della distribuzione Significato: probabilità di avere k eventi, dato il tasso . Metodi Probailistici, Statistici e Processi Stocastici

37 Momenti della distribuzione di Poisson
Quindi: Metodi Probailistici, Statistici e Processi Stocastici

38 Distribuzione di Gauss
Una variabile X (-, +) segue la distribuzione di Gauss N(,) se la sua densità di probabilità è data da: La corrispondente distribuzione cumulativa è: Metodi Probailistici, Statistici e Processi Stocastici

39 Grafici Metodi Probailistici, Statistici e Processi Stocastici
Cumulative Gaussian Distribution 10000 9000 8000 7000 6000 5000 4000 3000 2000 1000 -5 -4 -3 -2 -1 1 2 3 4 x Metodi Probailistici, Statistici e Processi Stocastici

40 Funzioni di Variabile Casuale
Regola per funzioni di variabili casuali Sia X una variabile casuale e y=g(x) funzione di X. A sua volta Y è una variabile aleatoria. Qual è la probabilità che il valore di Y sia intorno ad y? Per semplicità consideriamo g(x) monotona crescente o decrescente. f(x) è una corrispondenza biunivoca, quindi la probabilità che Y sia in dy attorno a y è la stessa che X sia in dx attorno x. Quindi: fY(y)dy=fX(x)dx. Ne segue: Se f(x) non è monotona crescente, allora vi saranno più punti in cui è x=f-1(y). La precedente formula si generalizza in: Metodi Probailistici, Statistici e Processi Stocastici

41 Dalla distribuzione normale…
Sia Y tale che lnY=X e X~N(, ). Qual è la distribuzione di Y? Si applica la precedente regola in quanto ex è una funzione monotona crescente. Calcoliamo: Metodi Probailistici, Statistici e Processi Stocastici

42 …alla distribuzione Log-normale…
prende il nome di distribuzione lognormale e rappresenta la distribuzione di una variable il cui logaritmo segue una distribuzione gaussiana. Notate che X=ln(Y) è ~N( ,2 ), mentre Y ~LN( , 2) e  , non sono il valor medio e la deviazione standard di Y. Valgono le seguenti relazioni trai parametri  ed  della distribuzione lognormale e il valor medio () e la varianza (2) di Y: Metodi Probailistici, Statistici e Processi Stocastici

43 Grafici della distribuzione lognormale
Metodi Probailistici, Statistici e Processi Stocastici

44 La distribuzione Beta La distribuzione beta della variabile X, con ax  b è definita come segue: (q,r) è detta funzione beta. Momenti della distribuzione: Metodi Probailistici, Statistici e Processi Stocastici

45 La distribuzione Beta (2)
Grafico per a=-10, b=10, q=2,r=3 q=4,r=3 Grafico per a=-10, b=10, q=3,r=3 (simmetrico) Metodi Probailistici, Statistici e Processi Stocastici

46 La distribuzione  Una variabile continua  () segue una distribuzione  se la sua densità di probabilità è data da: Dove:  (parametro di forma), (parametro di scala)>0 e () è la funzione , una funzione notevole, che generalizza il concetto di fattoriale ai numeri non interi. () è definita come segue: I parametri  (parametro di locazione) e sono legati al valore medio ed alla varianza di  dalle seguenti relazioni: Metodi Probailistici, Statistici e Processi Stocastici

47 Grafici della distribuzione 
Metodi Probailistici, Statistici e Processi Stocastici

48 Problemi Utilizzando la regola del cambio di variabile, dato X~N(0,1), trovare la distribuzione di X2. Notate che è una distribuzione 2. Per ciascuna delle distribuzioni presentate, eccetto la beta, trovare, : La funzione generatrice dei momenti I primi tre momenti: E[X], E[X2], E[X3] La varianza Per la distribuzione beta, trovare: il modo, la mediana,la media e la varianza. Metodi Probailistici, Statistici e Processi Stocastici

49 Problemi Considerate la funzione () .
Dimostrate che vale la seguente relazione: ()= (-1 )(-1). Deducetene che, se  è intero, si riduce alla formula del fattoriale. Metodi Probailistici, Statistici e Processi Stocastici

50 Capitolo III: Propagazione dell’Incertezza
Metodi Probailistici, Statistici e Processi Stocastici

51 L’approssimazione del valore atteso
Sia Y=g(x) una funzione di variabile casuale X. Utilizziamo l’espansione di Taylor per g(x) in X. Passiamo al valore atteso di ambo i membri Quindi otteniamo: Metodi Probailistici, Statistici e Processi Stocastici

52 Esempio Sia y=+v0t la legge oraria di un grave. Sia v incerta, con una distribuzione normale, (v=10,2v=5) (unità standard). Quanto tempo impega il grave a percorrere y=100m? Soluzione: t=g(v)=100/v. f(v)=100/10=10 f’’(v)=(200/v3)| v =0.2 E[t]=100/10+0.1*5=10.5 Metodi Probailistici, Statistici e Processi Stocastici

53 Approssimazione della Varianza
Se V[X] è “il valore dell’incertezza” in in X, quanto è il valore dell’incertezza in f(x)? La varianza si calcola sempre tramite l’approssimazione di Taylor su g(x) e introducendola nell’equazione: Per esempio, fermiamo l’approssimazione di Taylor al primo ordine: Metodi Probailistici, Statistici e Processi Stocastici

54 Approssimazione al II ordine della Varianza
Si considerino l’approssimazione al secondo ordine del valore atteso e della funzione g(x). Sostituendo in V[g(x)] otteniamo: Metodi Probailistici, Statistici e Processi Stocastici

55 Il Teorema di Inversione
Innazitutto dimostriamo che y=FX(x) è caratterizzata da una distribuzione uniforme. Per farlo, notiamo che F(x) è una funzione monotona crescente. Quidi, per la formula del cambio di variabile si ha: Quindi la distribuzione di y=F(x) è una distribuzione uniforme. A questo punto, risolvendo la relazione in funzione di X, otteniamo: x=F-1(y) Metodi Probailistici, Statistici e Processi Stocastici

56 Il Teorema di Inversione 2
Il teorema di inversione ci dice che, se y è distribuita secondo una uniforme, x=F-1(y) è distribuita secondo F(x) o, se si vuole, f(x). Metodi Probailistici, Statistici e Processi Stocastici

57 Metodo Monte Carlo Campionamento di un valore di P.up
Per ogni valore di P.up si valuta il modello. 2 informazioni: Frequenza della decisione migliore Distribuzione di ciascuna delle alternative Metodi Probailistici, Statistici e Processi Stocastici

58 Campionamento: il cuore del Monte Carlo
1) Generatore di numeri casuali “u” tra 0 e 1 (I numeri sono generati con distribuzione uniforme) 3) Supponiamo che il parametro incerto  sia caratterizzato dalla distribuzione cumulativa in figura: 1 u Metodi Probailistici, Statistici e Processi Stocastici

59 Campionamento Inversione:
1 Inversione: I valori di  così ottenuti seguono la densità/cumulativa da cui abbiamo invertito Metodi Probailistici, Statistici e Processi Stocastici

60 Esempio Valutare il volume del solido mediante metodo Monte Carlo. V0
Metodi Probailistici, Statistici e Processi Stocastici

61 Problemi 1 Campionare 100 numeri casuali da una distribuzione esponenziale di tasso =1. Disegnare l’istogramma della frequenza e il cumulativo Stimare valor medio e varianza Ripetere l’esercizio con 1000 dati. 2 Sia Y=X1/2 con X>=0 distribuito secondo la distribuzione (1,1,0). Disegnare la distribuzione di X. Mediante la formula del cambio di variabile calcolare la distribuzione di Y. Disegnare la distribuzione di Y. Calcolare il valore atteso e la varianza di Y. Calcolare il valore atteso e la varianza di Y con lo sviluppo di Taylor al I ordine. Che errore commettete? Utilizzate lo sviluppo in serie del II ordine. Che errore commettete? 3 Siano X e Y due variabili casuali, con Y=arcsin(x), -1<x<1. X è distribuito mediante una distribuzione esponenziale: f(x)=e-x/K. Utilizzate l'approssimazione di Taylor al I ordine per calcolare la varianza di Y e il suo valore atteso Ottenere l'espressione analitica esatta della varianza. Confrontate il risultato con il risultato precedente. Ripetete ora con l'approssimazione del II ordine. Mediante il metodo Monte Carlo disegnate il grafico della densità e della distribuzione cumulativa di Y, con 1000 campionamenti (In questo caso, campionate dalla gaussiana 1000 valori di x e sostituite in Y). Confrontatelo con il grafico analitico. Sul campione Monte Carlo ottenuto, calcolate il valore atteso e la varianza. Che errore commette rispetto al valore ottenuto analiticamente? Metodi Probailistici, Statistici e Processi Stocastici

62 Capitolo IV: Analisi Dei Dati
Metodi Probailistici, Statistici e Processi Stocastici

63 Introduzione Inferenza statistica: a volte si parte da un insieme di dati, che rappresentano gli esiti di un fenomeno casuale. Per esempio I dati di concentrazione di una sostanza tossica in un determinato terreno possono variare in maniera casuale nelle varie zone: 50ppm,25ppm,17ppm,22ppm. Oppure gli arrivi degli ordinativi in vari giorni o periodi dell’anno sono 10, 20, 15,7,9,30. Se da un punto di vista di consuntivo tali dati sono importanti, possono e devono risultare utili anche in vista di una stima del comportamento futuro dei due sistemi (l’inquinamento del terreno e l’azienda). Metodi Probailistici, Statistici e Processi Stocastici

64 Stima dei Parametri Da un punto di vista statistico, si dice che l’analista ha a disposizione un campione X1,X2,…XN che proviene da una popolazione che è: con distribuzione non specificata con distribuzione di forma nota, ma con valore dei parametri della distribuzione non noti Nel primo caso si parla di: Inferenza statistica non parametrica Nel secondo caso si parla di: Inferenza statistica parametrica Metodi Probailistici, Statistici e Processi Stocastici

65 Statistica Trattiamo la stima parametrica
Definizione: Statistica. Si dice una statistica qualunque funzione T(X1,X2,…,XN) – o anche T(·) - tale che: è funzione degli elementi del campione non contiene parametri incogniti Per esempio, nel caso degli arrivi di ordinativi all’azienda la media del campione è una statistica della distribuzione del campione Notiamo che in qualche modo la statistica sintetizza o manipola l’informazione originaria del campione Metodi Probailistici, Statistici e Processi Stocastici

66 Statistiche Sufficienti e Teorema di Fisher-Neyman
Definizione: Se X1,X2,…,XN costiuiscono un campione casuale semplice e Bernoulliano, con corrispondente variabile casuale X, con funzione di probabilità f(x;)(*), allora T(·) è sufficiente per f(x;) se e solo se la distribuzione del campione condizionata al valore t assunto da T è la stessa per qualunque valore di . Dal punto di vista pratico non è facile utilizzare la definizione precedente per stabilire se una statistica è sufficiente. Si ricorre allora al seguente criterio di Fisher-Neyman: T(·) è sufficiente per f(x;) se e solo se vale: Con h e g funzioni non negative. Notiamo che g dipende dagli xi solo tramite T. (*)  è il vettore dei parametri della distribuzione di X. Per esempio in una distribuzione  è =(,,). Metodi Probailistici, Statistici e Processi Stocastici

67 Stimatori In vista dell’utilizzo predittivo dei dati, si può cercare di creare una statistica T che ci permetta di stimare . Per esempio, in una distribuzione esponenziale, ci potrebbe interessare trovare il valore del parametro . Chiaramente uno stimatore sarà tanto migliore quanto meglio saprà utilizzare l’informazione contenuta nel campione per stimare . In più, all’aumentare del numero di variabili nel campione, vorremmo che ^=T(·) tenda al vero . Un esempio: sia X1,X2,…,XN un campione da una distribuzione esponenziale che vogliamo utilizzare per stimare . Vale: =1/E, con E valor medio della distribuzione esponenziale. Quindi potremmo dapprima calcolare e poi utilizzare la relazione Definizione. Sia X~f(x;) e X1,X2,…,XN un campione casuale semplice di X. Si dice stimatore di  qualsiasi statistica T che venga utilizzata per stimare . Metodi Probailistici, Statistici e Processi Stocastici

68 Proprietà degli Stimatori
Stimatore sufficiente: è uno stimatore che deriva da una statistica sufficiente. Uno stimatore sufficiente utilizza tutta l’informazione nel campione Efficienza: Erorre semplice medio: Errore quadratico medio: L’efficienza degli stimatori è, nella pratica, da intendersi in modo relativo. Infatti non sempre è assicurata l’esistenza di uno stimatore efficiente in senso assoluto, cioè che minimizza uno dei due errori Metodi Probailistici, Statistici e Processi Stocastici

69 Proprietà degli stimatori: distorsione (bias)
Uno stimatore di dice corretto o non distorto se: Dimostriamo che se uno stimatore è corretto, allora l’errore quadratico medio e la varianza dello stimatore coincidono. Se  è uno stimatore non distorto, allora d=0 e la varianza di  coincide con l’errore quadratico medio. Metodi Probailistici, Statistici e Processi Stocastici

70 La distribuzione della media di un campione gaussiano
Valore atteso: Varianza del valore atteso: Distribuzione: Gaussiana. Segue dal fatto che la somma di varibili normali indipendenti è ancora una variabile normale Metodi Probailistici, Statistici e Processi Stocastici

71 La distribuzione della media di campione non gaussiano
Il teorema del limite centrale assicura che la somma di n varibili casuali indipendenti e identicamente distribuite tende ad una distribuzione gaussiana al tendere di n all’infinito. In virtù del teorema del limite centrale, la distribuzione del campione è, per N sufficientemente grande: N(X, ) Ovvero, il valor medio del campione è distribuito secondo una normale anche se la distribuzione di X non lo è…! Metodi Probailistici, Statistici e Processi Stocastici

72 Stima della varianza della distribuzione
Definiamo varianza campionaria la quantità: Si può verificare che la varianza campionaria ha valore atteso pari a X2, la varianza della distribuzione della popolazione. In termini di stimatori, S2 è uno stimatore corretto della varianza della popolazione. Notiamo che se per X2 viene utilizzato lo stimatore: Si ottiene una stima della varianza della popolazione distorta. Infatti, vale: Metodi Probailistici, Statistici e Processi Stocastici

73 La varianza campionaria
Quindi la varianza del campione è uno stimatore distorto della varianza della popolazione Metodi Probailistici, Statistici e Processi Stocastici

74 Proprietà degli stimatori: consistenza
Consistenza in senso debole: Ovvero al tendere del numero di elementi nel campione, con probabilità 1 l’errore semplice medio tende a 0 Consistenza in senso forte: Al tendere di N all’infinito, l’errore quadratico medio tende a 0. La consistenza in senso forte implica la consistenza in senso debole. Metodi Probailistici, Statistici e Processi Stocastici

75 La funzione di verosimiglianza
Sia X~f(x;) una variabile aleatoria e X={x1,…,xn} un corrispondente campione. Si consideri un campione bernoulliano. Si dice funzione di verosimiglianza del campione la seguente densità: Interpretazione: la funzione di verosimiglianza è legata alla probabilità del campione come segue: Metodi Probailistici, Statistici e Processi Stocastici

76 Un esempio classico Sia X~N(;2X), ed X un campione da N(;2X). Costruiamo la funzione di verosimiglianza: Quali sono le due statistiche che massimizzano la verosimiglianza per la stima di  e X? Il membro di sinistra della prima equazione risulta: Metodi Probailistici, Statistici e Processi Stocastici

77 Un esempio classico (cont.)
Che implica: Dunque la media del campione è una stima del parametro  della distribuzione. Passando alla seconda equazione, si ottiene: Metodi Probailistici, Statistici e Processi Stocastici

78 Un esempio classico (cont.)
Che implica: A questo punto dobbiamo notare che X non è noto. E quindi dobbiamo sostituite la sua stima, tramite X, ovvero: Dunque lo stimatore di massima verosimiglianza della varianza della distribuzione normale è dato dall’espressione di cui sopra. A questo punto ci domandiamo: sono stimatori distorti? Per saperlo occorre calcolare il termine d2 introdotto in precedenza, e quindi E[^]. Cominciamo con lo stimatore di massima verosimiglianza di . Abbiamo: Ne segue: E[XMLE]= e d2=0. Quindi lo stimatore XMLE è corretto. Consideriamo lo stimatore della varianza e ripetiamo lo stesso ragionamento. Metodi Probailistici, Statistici e Processi Stocastici

79 Un esempio classico (Cont.)
Abbiamo: Che dimostra che la varianza stimata con il metodo della massima verosimiglianza è uno stimatore distorto della varianza della popolazione Metodi Probailistici, Statistici e Processi Stocastici

80 Capitolo V L’approccio Bayesiano
Metodi Probailistici, Statistici e Processi Stocastici

81 Probabilità e Informazione
Problema: vi è data una scatola contenente due gioielli. La scatola è costruita in modo tale che con la stessa probabilità (1/2) i due gioielli sono tutti e due d’oro (evento A) o uno è d’oro e uno d’argento (evento B). Per sapere il contenuto della scatola vi è permesso di estrarre uno dei due gioielli dalla scatola. Supponete che sia d’oro. Secondo voi avete guadagnato informazioni dall’estrazione? La probabilità che l’altro sia d’oro è ancora del 50%? Sareste disposti a pagare per estrarre? Metodi Probailistici, Statistici e Processi Stocastici

82 Se assumiamo che: La probabilità di un evento è soggettiva La probabilità è il nostro grado di confidenza nel realizzarsi di un evento P(E) cambia con l’informazione… Metodi Probailistici, Statistici e Processi Stocastici

83 Il Teorema di Bayes Ipotesi: A e B sono due eventi. L’evento A è accaduto. Tesi: la probabilità di B dato che A è avvenuto cambia come segue: P(B) prima che A avvenisse Probabilità di A dato B Prob. che A avvenisse Prob. di B ora che A è avvenuto Metodi Probailistici, Statistici e Processi Stocastici

84 Applichiamolo al problema
Eventi: A: tutti e due i gioielli sono d’oro o: l’anello estratto è d’oro Il teorema dice: P(A)=probabilità che tutti e due siano d’oro prima dell’estrazione=1/2 P(o)=probabilità che un anello sia d’oro=3/4 P(o|A)=probabilità che l’anello sia d’oro dato A=1 (tutti e due gli anelli sono d’oro) Quindi: Metodi Probailistici, Statistici e Processi Stocastici

85 Dimostrazione del Teorema
Punto di Partenza Formula della probabilità condizionale Tesi Metodi Probailistici, Statistici e Processi Stocastici

86 Teorema di Bayes nel continuo
Incertezza epistemica e teorema di Bayes sono collegati in quanto sappiamo che possiamo usare l’evidenza per aggiornare le probabilità. Ad esempio, supponete di avere una moneta e di voler sapere se la probabilità che esca testa o croce sia del 50%. Come fate? Tirate la moneta…. Metodi Probailistici, Statistici e Processi Stocastici

87 Formula La densità di probabilità di un parametro, dopo aver raccolto l’evidenza (E) cambia come segue: L(E)=MOW likelihood o verosimiglianza 0() è la densità di probabilità di  prima dell’evidenza detta distribuzione a priori () è la densità di probabilità di  dopo l’evidenza detta distribuzione a posteriori Metodi Probailistici, Statistici e Processi Stocastici

88 Deriviamolo Prendiamo la formula del teorema di Bayes nel discreto:
Passiamo al continuo: in questo caso vogliamo sapere la probabilità che un parametro nella distribuzione assuma un determinato valore dato che un certo evento si è verificato Quindi l’evento Aj è:  assume il valore * Da cui: P(Aj)0()d 0()=densità a priori Quindi: P(EAj) ha il significato di probabilità che l’evidenza E si realizzi dato che  sia pari a * . Si scrive L(E,  ) ed è chiamata funzione verosimiglianza: ma è anche il MOW!!! Metodi Probailistici, Statistici e Processi Stocastici

89 Deriviamolo Il denominatore esprime la somma delle probabilità dell’evidenza dati tutti i possibili eventi. Nel caso dell’ncertezza epistemica i possibili eventi sono i valori del parametro . Quindi: Sostituendo i vari termini si trova la formula del teorema di Bayes per stribuzioni continue che abbiamo mostrato prima Metodi Probailistici, Statistici e Processi Stocastici

90 E’ una moneta onesta? Quale è il modello aleatorio?
E’ una binomiale: 2) Quale è il valore di p? Supponiamo di non sapere nulla su p e allora scegliamo una distribuzione a priori non informativa: la uniforme Raccogliamo l’evidenza. Al primo lancio esce testa Al secondo croce Al terzo testa Metodi Probailistici, Statistici e Processi Stocastici

91 Ristulato Equivalentemente: Evidenza: t,c,t L(tctp)=p2(1-p)
Primo lancio Evidenza t. MOW: L(tp)=p Priori: 0 Secondo lancio: Evidenza è c MOW: L(cp)=(1-p) Priori: 1 Terzo lancio: Evidenza t MOW: L(tp)=p Priori: 2 Equivalentemente: Evidenza: t,c,t L(tctp)=p2(1-p) Metodi Probailistici, Statistici e Processi Stocastici

92 Grafico 3 Metodi Probailistici, Statistici e Processi Stocastici 0.1
0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 1.2 1.4 1.6 1.8 2 3 Metodi Probailistici, Statistici e Processi Stocastici

93 Distribuzioni Coniugate
Likelihood Poisson Distr. a Posteriori Distr. A Priori Gamma dove: Metodi Probailistici, Statistici e Processi Stocastici

94 Distribuzioni Coniugate
Likelihood Normale Distr. a Posteriori: Normale Distr. A Priori di : Normale dove: Metodi Probailistici, Statistici e Processi Stocastici

95 Distribuzioni Coniugate
Likelihood Binomiale Distr. a Posteriori: Beta Distr. A Priori di : Beta dove: Metodi Probailistici, Statistici e Processi Stocastici

96 Riassunto delle Distribuzioni Coniugate
Modello Aleatorio Distribuzione a Priori Distribuzione a Posteriori Binomiale Beta Poisson Gamma Normale Negative binominal The table represents the distribution of the observations, the prior distribution of the parameter w and the posterior distribution of w. For more details, see Chapter 9 of DeGroot. Metodi Probailistici, Statistici e Processi Stocastici

97 Stima Bayesiana dei Parametri
Supponiamo di avere un campione t=(t1, t2,…, tN) da una distribuzione esponenziale, con parametro  non noto. Se la distribuzione di partenza è una distribuzione (,,0), qual è la distribuzione di  una volta raccolta l’evidenza? La funzione di verosimiglianza del campione è: Da cui la disribuzione a posteriori risulta: Metodi Probailistici, Statistici e Processi Stocastici

98 Stima Bayesiana Supponiamo di avere a disposizione i seguenti dati:
Disegnamo I grafici delle due distribuzioni 0 1 Metodi Probailistici, Statistici e Processi Stocastici

99 Stima Bayesiana Come stimatore Bayesiano di  utilizziamo:
E[] minimizza l’errore quadratico dello stimatore: Per il nostro esempio numerico: E[]= Notiamo che l’approccio bayesiano ci consente anche di identificare un intervallo di confidenza per . Per esempio l’intervallo di confidenza 10% simmetrico [5%,  95%] è ottenuto risolvendo le due equazioni: Per il nostro esempio: 5%= e 95%=0.0477 Metodi Probailistici, Statistici e Processi Stocastici

100 Problemi 4) Dimostrare che è equivalente ad una (+N-1,+T)
5) Per l’esempio, trovate il valore dello stimatore di massima verosimiglianza e confrontatelo con lo stimatore Bayesiano E[]. (Sol.: vs ). 6) X~N(8,9).  e  sono caratterizzati da una distribuzione di incertezza a priori N(10,4). E’ dato il campione (18.6,13.1, 6.9, 12.6, 6.9, 9.0, 6.4, 13.4, 12.4, 6.8). Trovate: Gli stimatore di massima verosimiglianza del valor medio e della varianza Sol.: 10.6 Gli stimatori Bayesiani Sol.: L’intervallo di confidenza simmetrico del 10%. Metodi Probailistici, Statistici e Processi Stocastici

101 Capitolo VI: Statistica Multivariata
Metodi Probailistici, Statistici e Processi Stocastici

102 Distribuzioni multivariate
Consideriamo un fenomeno casuale in cui si combinino due variabili. Ad esempio, I ricavi di un supermercato derivano dai clienti che entrano nel supermercato e dal tipo di acquisti che i clienti effettuano. Modellizziamo il problema chiamando X la variabile aleatoria relativa al numero di clienti che entrano nel supermercato e Y quella relativa al valore dell’acquisto. Chiaramente quanto si venderà è funzione di X e Y. F(x,y) sarà la probabilità che arrivino X<=x clienti e che acquistino per un valore pari ad Y<=y. Se a questa funzione cumulativa corrisponde una funzione densità di probabilità, scriveremo: f(x,y)dxdy la probabilità che arrivino x clienti e comperino per un valore y. Qual è la probabilità che i clienti comperino X<=x indipendentemente da y? Analogo ragionamento si applica alla determinazione della distribuzione marginale FY(y). Metodi Probailistici, Statistici e Processi Stocastici

103 Funzione Partizione Metodi Probailistici, Statistici e Processi Stocastici

104 Distribuzioni Multivariate
Più formalmente, se xy è il nostro spazio degli eventi, dove un evento è una combinazione dei valori di xy FXY(x,y) rappresenta la probabilità che X sia minore di x e, allo stesso tempo, Y sia minore di y: FXY(x,y)=P(Xx,Y  y). Per soddisfare gli assiomi della probabilità deve essere: F(, )=1 F(, y)=FY(y), F(x, )=FX(x) F(-, -)=0, F(-, y)=0, F(x, -)=0 F(, y)=FY(y) Metodi Probailistici, Statistici e Processi Stocastici

105 Distribuzioni multivariate
Ora, logicamente ci si aspetta che Y dipenda in qualche modo da X. Infatti, più clenti arrivano più sarà facile raggiungere valori alti di Y. Ma, se per caso, in un mondo poco reale, si verificasse che Y non dipende da X, ci troveremmo di fronte al fatto che P(X<=x) è indipendente dal valore di Y. Dunque: P(X,Y)=P(X<=x) P(Y<=y) Quindi: F(X,Y)=FX(x) FY(y) od anche: f(x,y)dxdy=f(x)dx f(y)dy Diremo che X e Y sono indipendenti se: fX|Y(x|y)=fX(x) Metodi Probailistici, Statistici e Processi Stocastici

106 Esempio Considerate due variabilie X e Y caratterizzate dalla seguente possibile densità: Trovate c Sol: X e Y sono indipendenti? Sono indipendenti se possiamo scrivere: fX|Y(x|y) = fX(x). Ovvero: Nel nostro caso è facile verificare che questa condizione non può essere verificata e quindi le due variabili non sono indipendenti. La ragione è legata alla presenza del termine di interazione y/x Metodi Probailistici, Statistici e Processi Stocastici

107 Valore atteso condizionale
Si può dimostrare che: Nel caso X e Y siano indipendenti Metodi Probailistici, Statistici e Processi Stocastici

108 Esempio Dati X e Y e la loro distribuzione:
Trovare il valore atteso condizionale di X, quello di Y e I corrispondenti valori attesi non condizionali Metodi Probailistici, Statistici e Processi Stocastici

109 Covarianza e Coefficiente di Correlazione
Siano X ed Y due variabili casuali. Si definisce Covarianza di X con Y il seguente: Si definisce coefficiente di correlazione il seguente rapporto: Vale: Dimostrazione: Metodi Probailistici, Statistici e Processi Stocastici

110 Un esempio Dopo attenta riflessione stabilite che le vendite della vostra azienda (y) dipendono, da: X1: Condizioni generali dell’economia (che sintetizzate nell’indice della fiducia dei consumatori) X2: Qualità della produzione, che stimate in base al numero di elementi difettosi scartati durante l’anno. Nei dieci mesi passati raccogliete i seguenti dati: Metodi Probailistici, Statistici e Processi Stocastici

111 Covarianza e Coefficiente di Correlazione per l’esempio
Decidete di analizzare un poco i dati: Vi sembrano ragionevoli? Metodi Probailistici, Statistici e Processi Stocastici

112 Esempio Date due variabili X e Y con la seguente distribuzione: trovare la loro covarianza. Dobbiamo trovare i valori medi. Metodi Probailistici, Statistici e Processi Stocastici

113 Distr. della somma di variabili casuali
Siano X1~d1(X1), e X2, d2(X2), dove d sta per una distribuzione generica, e siano X1 e X2 indipendenti. Qual è la distribuzione di Y=X1+X2? Scriviamo la funzione caratteristica della variabile Y= X1+X2. Si ha: Posto che X1(t) e X2(t) siano definite. Dalla precedente relazione è possibile ricavare tutti i momenti di Y. Generalizzare le precedente formula al caso di n variabili indipendenti Metodi Probailistici, Statistici e Processi Stocastici

114 Distr. della somma di variabili Gaussiane
Siano X1, X1~N(1,12), e X2, X2~N(2,22), due variabili casuali, indipendenti con distribuzione gaussiana. Qual è la distribuzione di Y=X1+X2? Dalla pagina precendete si ha: Quindi Y~N(1+ 2,12+22) Generalizzate il precedente risultato alla somma di N variabili gaussiane indipendenti Metodi Probailistici, Statistici e Processi Stocastici

115 Distribuzione della combinazione lineare di Varibili Gaussiane
Siano X1, X1~N(1,12), e X2, X2~N(2,22), due variabili casuali, indipendenti con distribuzione gaussiana. Qual è la distribuzione di Y=a1X1+a2X2? Ne segue: Y~N(a11+a2 2, a12 12+a2222) Si generalizza (dimostrare per esercizio) come segue. Dato con Xi tutti gaussiani e indipendenti, Xi~N(i, i2) , Y ha distribuzione gaussiana con valor medio e varianza Metodi Probailistici, Statistici e Processi Stocastici

116 La distribuzione bivariata di Gauss
Consideriamo X1 e X2 distribuiti secondo la distribuzione congiunta: Metodi Probailistici, Statistici e Processi Stocastici

117 Capitolo VII: Regressione Lineare
Metodi Probailistici, Statistici e Processi Stocastici

118 Regressione Lineare Multivariata
Supponiamo di avere a disposizione un modello che può essere matematicamente descritto dalla relazione: con x=x1,x2,…xn vettore di variabili casuali. Se f(x) fosse nota, ricadremmo nel caso di funzione di variabili casuali. Tuttavia, nella maggioranza dei casi f(x) non è nota. L’informazione che si ha a disposizione, invece, è una serie di valori Yi =f(xi), (i=1…m), in corrispondenza della serie di campioni xi. Lo scopo è quello, quindi di cercare di spegare Y in termine delle variabili x1,x2,…xm. La domanda che ci poniamo è: riusciamo ad avere informazioni sulla f(x) dalla serie di generazioni xi? Risposta sì. Anzi, quanto più siamo disposti a spendere in termini di informazioni e tempo di calcolo, tanto più riusciremo a ricevere in termini di dettagli sulla forma funzionale della f(x). Il modo più semplice di procedere dal punto numerico è quello di approssimare la f(x) con una forma funzionale lineare e additiva del tipo: Metodi Probailistici, Statistici e Processi Stocastici

119 Regressione Lineare Multipla
Dove I sono i coefficienti della regressione lineare e  è un termine che contiene tutte le dipendenze di ordine superiore di Y da X. IL modello di cui sopra è detto di regressione lineare multipla Il termine  I xi è detto componente sistematica, il termine  è la componente accidentale Per semplicità supponiamo f: XR2R. La regressione lineare su f risulta: Supponiamo ora di avere i seguenti due campioni di X in Tabella In corrispondenza otteniamo i valori di Y in tabella. Inserendo nel modello otteniamo il sistema lineare: i X1 X2 Yi 1 1.5 1.3 4.2 2 3.2 2.4 7.1 Metodi Probailistici, Statistici e Processi Stocastici

120 Regressione Lineare multipla
che può essere risolto per determinare i I, supponendo nulla la componente accidentale. Il problema non può tuttativa essere risolto con esattezza. Infatti, notiamo che se solo se avessimo tre campioni, il sistema potrebbe presenterebbe un’unica soluzione. Soluzione che non esiste in generale quando i campioni fossero 4. Metodi Probailistici, Statistici e Processi Stocastici

121 Notazione Generalizziamo la notazione della tabella precedente.
In notazione vettoriale e matriciale i X1 X2 Xm Yi 1 x11 x1m Y1 2 x21 x22 X2m Y2 n Xn1 xn2 xnm Yn Metodi Probailistici, Statistici e Processi Stocastici

122 Un esempio Dopo attenta riflessione stabilite che le vendite della vostra azienda (y) dipendono, da: X1: Condizioni generali dell’economia (che sintetizzate nell’indice della fiducia dei consumatori) X2: Qualità della produzione, che stimate in base al numero di elementi difettosi scartati durante l’anno. Nei dieci mesi passati raccogliete i seguenti dati: Metodi Probailistici, Statistici e Processi Stocastici

123 Un esempio Utilizzando la notazione precedente abbiamo:
Notiamo che: YX1=0.71 e YX2=-0.58 Metodi Probailistici, Statistici e Processi Stocastici

124 Le Ipotesi della regressione lineare semplice
Linearità: Notiamo che l’errore ha valore atteso nullo Omoschedasticità: La varianza delle yi è costante al variare delle osservazioni. Incorrelazione subordinata: Rango pieno: rango(X)=m Le righe o colonne di X sono linearmente indipendenti Metodi Probailistici, Statistici e Processi Stocastici

125 Proprietà degli errori i
Per ogni i, I hanno le medie condizionale e marginale nulle: Varianza marginale e condizionale sono pari a 2 Sono tra loro incorrelati Metodi Probailistici, Statistici e Processi Stocastici

126 Stima dei  Finora abbiamo visto il modello ed abbiamo visto le proprietà del modello di regressione lineare semplice in termini degli errori. Ma come stimiamo i coefficienti ? Li stimiamo con il metodo dei minimi quadrati come segue. Supponiamo per il momento m=2. Le n osservazioi yi sono n punti in R3 . L’approssimazione lineare, fissata la matrice delle osservazioni X, disegna un insieme di piani che variano al variare di 1 e 2 . Quale errore quadratico commettiamo utilizzando il generico piano? Il piano che utilizzeremo per la regressione lineare sarà quello che minimizza l’errore quadratico della regressione. Da un punto di vista geometrico è il piano che ha distanza minima dalle osservazioni Metodi Probailistici, Statistici e Processi Stocastici

127 Interpretazione Geometrica
Metodi Probailistici, Statistici e Processi Stocastici

128 Espressione dei  e teorema di Gauss Markov
Si può dimostrare che l’espressione dei  è data da: Dove X*T è la trasposta della matrice X* e X*-1 la sua inversa. In questo caso abbiamo incluso nella matrice X la prima colonna pari a tutti 1 per formare la matrice X*. Teorema di Gauss-Markov: lo stimatore  dei minimi quadrati è lineare, corretto ed è lo stimatore di varianza minima Metodi Probailistici, Statistici e Processi Stocastici

129 Errore e Coefficiente di Determinazione
Lo stimatore corretto della varianza degli errori (ricordiamo che il valor medio è nullo!) è: L’errore standard della regressione è invece definito da: Il coefficiente di determinazione del modello è definito da: R dà una misura della bontà del modello e tanto più si avvicina ad uno tanto meglio il modello di regressione spiega Y in termini degli X. Metodi Probailistici, Statistici e Processi Stocastici

130 Risultato della regressione
La regressione lineare produce il piano di regressione con I seguenti coefficienti: Metodi Probailistici, Statistici e Processi Stocastici

131 Risultato della regressione (cont.)
y^ Ortogonalità e.y 10.1 15.4 18.1 16.4 11.3 5.6 7.5 12.0 Metodi Probailistici, Statistici e Processi Stocastici

132 Un esempio analitico La produttività della vostra azienda è legata, pensate, al tasso di rinnovo dei macchinari (X1) e alle motivazioni del personale (X2). Avete a disposizione I seguenti dati: Si determini: L’espressione in forma sintetica del modello di regressione I coefficienti di regressione I residui Mostrate che la somma dei residui è pari a 0 e che il vettore dei residui è ortogonale al vettore delle stime Calcolate il coefficiente di determinazione del modello Y X1 X2 2 1 0.4 4 0.7 6 3 0.9 Metodi Probailistici, Statistici e Processi Stocastici

133 Esempio analitico Errori dell’ordine di 10-14
Metodi Probailistici, Statistici e Processi Stocastici

134 Limiti della regressione lineare
Scatter Plot Metodi Probailistici, Statistici e Processi Stocastici

135 Parte II: Processi stocastici
Metodi Probailistici, Statistici e Processi Stocastici

136 Somma di un Numero Casuale di Variabili casuali
Siete i gestori di un supermercato. Ogni cliente spende Xi, dove I è il numero che indica l’i-esimo cliente. In media I clienti spendono 75EUR a testa. Il numero medio di clienti giornaliero è una variabile casuale N con valor medio 300. Quanto vi aspettate di incassare al giorno? Soluzione. L’incasso giornaliero è dato da: Dobbiamo quindi calcolare il valore atteso di I: Per farlo, condizioniamo sul valore che assumerà N. Abbiamo: Quindi ci attentiamo un incasso di 75*300=22500EUR/Giorno Metodi Probailistici, Statistici e Processi Stocastici

137 Capitolo VIII: Processi di Poisson
Metodi Probailistici, Statistici e Processi Stocastici

138 N(t)=numero di eventi tra 0 e t.
Processi di Conteggio Consideriamo un processo stocastico, in cui siamo interessati a contare arrivi e tempi di arrivo. Per esempio gli arrivi di clienti al supermercato, di telefonate ad un centralino etc. Denotiamo con N(t) il numero di eventi che si verificano nel tempo t, cioè nell’intervallo di tempo 0-t. N(t)=numero di eventi tra 0 e t. Non è difficile intuire che: N(t) è un numero intero non negativo, t N(s)<=N(t) se s<t N(t)-N(s) è il numero di eventi che si sono verificati nel tempo t-s. Si chiamerà incremento dei conteggi tra t e s. Notazione: indicheremo con tk il tempo del k-esimo arrivo. Metodi Probailistici, Statistici e Processi Stocastici

139 Processi di Conteggio (2)
Il tempo Xk=Tk-Tk-1 è il tempo di attesa tra il k-esimo e il k-1-esimo evento Es. Supponete che il supermercato apra alle 9. Il primo cliente arriva alle 9.01 e il secondo alle Abbiamo T1=1min, T2=5min, X2=4min Vale che: Tn=X1+X2+…Xn Due proprietà sono di interesse: indipendenza e stazionarietà degli incrementi Incrementi Indipendenti: Un processo viene detto ad incrementi indipendenti, se i numeri di eventi che si verificano in intervalli di tempo disgiunti sono indipendenti tra loro: P[N(t+s)-N(t)=k|N(t’+s)-N(t’)]= P[N(t+s)-N(t)=k] Incrementi Stazionari: Un processo viene detto ad incrementi stazionari se il numero di eventi che si verifica in un intervallo dipende solo dalla lunghezza dell’intervallo. Sia s la lunghezza dell’intervallo. In termini di probabilità si scrive: P[N(t+s)-N(t)=k]=P[N(t’+s)-N(t’)=k] Metodi Probailistici, Statistici e Processi Stocastici

140 Processi di Poisson Un processo di conteggio è detto processo di Poisson se verifica le seguenti proprietà: N(0)=0 Il processo è a incrementi indipendenti Il processo è a incrementi stazionari e la probabilità di k eventi nel tempo t è data da:  è detto intensità o tasso del processo Metodi Probailistici, Statistici e Processi Stocastici

141 Distribuzione dei tempi di arrivo
Quanto dobbiamo attendere per il primo arrivo? In termini di probabilità, scriviamo la domanda come: qual è la probabilità che X1 sia maggiore di t): P(X1>t). La risposta è la distribuzione cumulativa di X1: P(X1>t)=P[N(t)=0]=P(; k=0)=e-t Qual è la distribuzione di X2? P(X2>t|X1=s)=P[N(t-s)=0|X1=s]= grazie a proprietà di intervalli indipendenti = P[N(t-s)=0]= P(;k=0)=e-(t-s) Ne segue: I tempi di arrivo X1,X2,...,Xn di un processo di Poisson sono variabili aleatorie indipendenti con legge esponenziale di tasso  Metodi Probailistici, Statistici e Processi Stocastici

142 Distribuzione di Tn La distribuzione del tempo di attesa Tn risponde alla domanda: come è distribuita la somma degli Xi? Infatti: Tn=X1+X2+…Xn Dunque:P[Tn>t]=P[X1+X2+…Xn >t] Si dimostra che Tn~(,n) Ricordiamo che I tempi di arrivo sono iid esponenziali. Utilizziamo la funzione generatrice dei momenti: Metodi Probailistici, Statistici e Processi Stocastici

143 Esempio Gli arrivi orari ad un supermercato sono distribuiti secondo una Poisson di media 100[1/ore]. Qual è il tempo di attesa perchè arrivino 500 clenti? Risposta: 5 ore Metodi Probailistici, Statistici e Processi Stocastici

144 Processi di Poisson con selezione
Consideriamo un processo di Poisson con arrivi di tasso . Ad ogni arrivo associamo un tasso di successo p. Per esempio successo è se un cliente compera più di tre tipi di prodotto diverso. Indichiamo con M(t) il numero di successi ottenuti fino al tempo t. M(t) viene detto processo di Poisson con selezione. Si dimostra che: M(t) e un processo di Poisson di intensità p. Metodi Probailistici, Statistici e Processi Stocastici

145 Applicazione Supponiamo che se un cliente compera più di tre prodotti il guadagno sia G. Se compera meno di tre prodotti si ha una perdita L. Quali sono i valori del tasso di arrivo dei clienti e della probabilità p per avere il break-even, se gli arrivi orari seguono un processo di poisson di tasso  e la probabilità che comperino più di tre prodotti è p? Sol. Poissimo dividere il processo in due sottoprocessi di tassi p e (1-p) rispettivamente. Il valore atteso degli acquisti in un’ora è dato rispettivamente da: p e (1-p). Affinchè vi sia break even occorre che pG= (1-p)L p/(1-p)=L/G Metodi Probailistici, Statistici e Processi Stocastici

146 Processi di Poisson composti
Consideriamo un processo in cui gli eventi costituiscono un processo di poisson di tasso . Ogni volta che un evento si realizza, si ha una conseguenza Xi . Per esempio I clienti giungono al supermercato nei tempi ti ed ognuno spende un ammontare Xi. Quanto spendono in totale i clienti, e , dunque, quanto incassa il supermercato? Il processo X(t) è detto processo di Poisson composto. In generale lo caratterizzeranno due distribuzioni, quella di Poisson e quella degli Xi. La distribuzione degli Xi potrà essere continua o discreta. Metodi Probailistici, Statistici e Processi Stocastici

147 Valori Attesi I processi che coinvolgono la somma di variabili casuali sono più facilmente trattabili in termini della funzione generatrice dei momenti. Nel nostro caso dobbiamo calcolare: Metodi Probailistici, Statistici e Processi Stocastici

148 Valori Attesi (cont.) Da cui, derivando la funzione generatrice dei momenti, è facile verificare che: Metodi Probailistici, Statistici e Processi Stocastici

149 Applicazione I clienti che arrivano al supermercato spendono secondo la seguente tabella: Arrivano in media 100 clienti all’ora. Nell’arco di una giornata (8 ore), quanto incassa il supermercato? Risposta: 100*8*E[euro spesi]=100*8*91.6=73280 EUR Incertezza (vedi esempio Excel) EUR p i EUR p i 25 2% 95 5% 30 3% 100 5% 35 3% 105 4% 40 3% 110 4% 45 3% 115 4% 50 4% 120 4% 55 4% 125 4% 60 4% 130 3% 65 4% 135 3% 70 4% 140 3% 75 5% 145 3% 80 5% 150 3% 85 3% 155 3% 90 3% 160 2% Metodi Probailistici, Statistici e Processi Stocastici

150 La rovina dell’assicuratore
The compound Poisson process is very important in insurance, as a model for the arrival of claims at an insurance office. The standard model assumes that premiums arrive at a constant rate c and looks to find the probability that the surplus S(t) = S(0) + ct - X(t) ever hits 0 (ruin occurs). Metodi Probailistici, Statistici e Processi Stocastici

151 Capitolo IX: Processi di Markov Discreti e Omogenei
Metodi Probailistici, Statistici e Processi Stocastici

152 Gestione di Magazzino Siete i gestori di un concessionario di automobili di lusso. Avete posto per 7 auto. Il tempo di consegna delle automobili è di due giorni, per cui se ordinate l’auto al Venerdì, per il Lunedì mattina sono in vetrina. Se al Venerdì della n-esima settimana avete 2 auto o meno di 2 in vetrina, ne ordinate altre in modo da riportavi a 7. Le vendite arrivano secondo una distribuzione di Poisson con media 4 e sono pronta consegna. Chiamiamo Xn il “numero di auto in vetrina all’inizio della n-esima settimana.” Xn è una variabile aleatoria. Infatti, dipendendo dal numero di vendite, potremmo avere 7,6,5,4,3 auto in vetrina ogni Lunedì mattina. Analizziamo come si piò descrivere il comportamento di X Per il nostro problema, notiamo che se mettiamo sull’asse orizzontale il numero della settimana e su quello verticale le auto vendute, abbiamo un risultato del tipo: Metodi Probailistici, Statistici e Processi Stocastici

153 Evoluzione temporale: Processi Discreti
Notiamo che il sistema procede “ a scatti nel tempo”, ovvero ogni settimana il sistema si evolve. Tale tipo di processo è detto discreto (ovviamente dal punto di vista temporale) X X n 7 6 5 ..... 4 3 2 1 1 2 3 ... ... n-1 n n+1 ... t Metodi Probailistici, Statistici e Processi Stocastici

154 Stati del sistema ed Evoluzione temporale
Chiamiamo stati del sistema (S) i valori che la variabile aleatoria X può assumere. Nella figura della pagina precedente, si tratta dell’asse verticale. Nel nostro caso sono 3,4,5,6,7. Abbiamo quindi 5 stati possibili. In generale useremo la notazione S={1,2,…,N} per indicare gli stati del sistema Dato il sistema in un determinato stato alla n-esima settimana, alla n+1-esima il sistema può rimanere ancora nello stesso stato o passare ad un altro stato la settimana successiva Per esempio, se abbiamo 4 auto in vetrina alla 30-esima settimana (X30), e se non si presentano clienti, avremo ancora 4 auto il lunedì della n+1-esima settimana. Se vendiamo 2 auto, X31=7. Metodi Probailistici, Statistici e Processi Stocastici

155 Diagramma degli stati E’ una rappresentazione grafica degli stati del sistema e delle transizioni che il sistema può compiere 1 2 3 p12 p23 p33 p31 p22 Metodi Probailistici, Statistici e Processi Stocastici

156 Probabilità di transizione e Processi di Markov
Il sistema si muove da uno stato all’altro con della probabilità, che vengono dette probabilità di transizione. Le probabilità di transizione rispondono alla domanda: qual è la probabilità che il sistema si muova nello stato j ad n+1 dato che al tempo n era nello stato i e nei tempi precedenti in Xn-1,…X0? In notazione probablistica, la probabilità cercata è: Ora, un processo viene detto Markoviano se la probabilità che il sistema passi allo stato j al tempo n+1, dato che è nello stato i al tempo n, dipende solo dal fatto che il sistema è nello stato I al tempo n e non dipende dagli stati nei quali il sistema si trovava prima di i. Ovvero, è indipendente dal modo in cui il sistema è arrivato in i. In formule: Metodi Probailistici, Statistici e Processi Stocastici

157 La matrice di Markov Si definisce matrice di Markov una matrice:
i cui elementi sono le probabilità di transizione di un sistema markoviano. La i-esima riga descrive lo stato di partenza, la j-esima colonna lo stato di arrivo. Si dimostra che gli elementi della matrice soddisfano le seguenti proprietà: La seconda proprità dice che, se il sistema è in i al tempo n, allora con probabilità 1 al tempo n+1 sarà in uno degli stati del sistema Metodi Probailistici, Statistici e Processi Stocastici

158 E’ un magazzino Markoviano?
Studiamo se il processo che abbiamo a disposizione nella nostra gesione di magazzino è un processo di Markov. Innazitutto scriviamo Xn+1 in forma matematica: Dove Vn rappresenta le vendite della n-esima settimana. Ricaviamo poi la probabilità di Xn. P(Vn)=s dipende solo da vendite in settimana n-esima e non dalle vedntie delle settimane precedenti. Quindi possiamo scrivere: Si tratta quindi di un processo di Markov. In più notiamo che la probabilità non dipende dal fatto di essere nella settimana n-esima. Si tratta quindi di un processo di Markov omogeneo. Metodi Probailistici, Statistici e Processi Stocastici

159 Definizione di Processo di Markov Omogeneo
Un processo stocastico sullo spazio degli stati S, si dice di Markov discreto se n: E’ omogeneo se verifica ovvero la matrice di Markov non dipende dal tempo n. Metodi Probailistici, Statistici e Processi Stocastici

160 La matrice di Markov nel nostro esempio
La matrice sarà della forma: dove abbiamo catalogato gli stati come X1=3,X2=4,…,X5=7 Si ha: Metodi Probailistici, Statistici e Processi Stocastici

161 Matrice di Markov dell’esempio
L’ultimo passo prima di riempire la matrice è quello di calcolare le pij mediante la distribuzione di Poisson. Infine: k 1 2 3 4 5 6 =4 0.018 0.073 0.146 0.195 0.156 0.104 Metodi Probailistici, Statistici e Processi Stocastici

162 Evoluzione temporale della matrice di transizione
Indichiamo con ai le probabilità iniziali del sistema: ai=P(X0=i) (non è condizionale!!!) Qual è la probabilità che al tempo k, Xk=j dato X0=i? Definiamo la matrice delle probabilità di transizione a k-passi come: Dove Indichiamo la probabilità incondizionale di Xk=j con a(k) Che differenza c’è tra a(k) e P(k)? Metodi Probailistici, Statistici e Processi Stocastici

163 Evoluzione temporale della matrice di transizione
Calcoliamo P(0) e P(1). Per P(0) notiamo che pij=P(X0=j|X0=i)=1 se i=j, altrimenti=0. Per P(1), notiamo che: pij(1)=P(X1=j|X0=i)=pij. Quindi P(1)=P Metodi Probailistici, Statistici e Processi Stocastici

164 La distribuzione non condizionale
Definiamo: a(k) è la distribuzione (discreta) della probabilità che il sistema si trovi in un determinato stato per t=k. Infatti, per definizione a(k) è un vettore il cui elemento s-esimo è dato da: Metodi Probailistici, Statistici e Processi Stocastici

165 Teorema: relazione tra P(k) e P
Per un processo markoviano discreto e omogeneo vale: che in forma matriciale equivale a scrivere: Quindi per k=2, si vede che ; per k=3, Per k=s vale: Metodi Probailistici, Statistici e Processi Stocastici

166 Un esempio Consideriamo il seguente gioco. Una pallina può trovarsi sulla metà superiore o inferiore del flipper, rimbalzare da una metà all’altra ed uscire. Rappresentiamo il problema con i seguenti stati: j=1: la pallina è sulla metà superire j=2:la pallina è sulla metà inferiore j=3: la pallina è uscita Determiniamo gli stati del sistema: Lo stato 3 è detto assorbente, perchè il sistema può solo entrare in 3 e non uscire 1 2 3 p12 p23 1 2 3 0.2 0.8 0.5 0.3 Metodi Probailistici, Statistici e Processi Stocastici

167 Equazione di Chapman-Kolmogorv
Il teorema di C-K stabilisce che le probabilità di transizione a n passi soddisfano la seguente equazione: E quindi, in forma matriciale: Metodi Probailistici, Statistici e Processi Stocastici

168 Evoluzione Temporale per l’esempio
k 40 30 20 40 30 20 k Metodi Probailistici, Statistici e Processi Stocastici

169 Esiste una distribuzione di probabilità limite?
Dettagliamo la domanda nel titolo in tre punti: Per n che tende l’infinito, la distribuzione di Xn tende ad una distribuzione limite? Se esiste tale distribuzione limite, è unica? Se esiste ed è unica, come si calcola? Notazione: indichiamo con Se il limite esiste,  è detta distribuzione limite del processo Metodi Probailistici, Statistici e Processi Stocastici

170 Calcolo della distribuzione limite
Teorema 1: se esiste una distribuzione limite, allora soddisfa le seguenti proprietà: Dimostriamo la prima. In forma matriciale: Metodi Probailistici, Statistici e Processi Stocastici

171 Esistenza della distribuzione limite
Notiamo che dal punto di vista dell’algebra lineare la distribuzione limite deve soddisfare il sistema lineare: Ricordiamo che la condizione necessaria affinchè il sistema non possegga la sola soluzione nulla è: Quindi non è garantita l’esistenza della distribuzione limite Metodi Probailistici, Statistici e Processi Stocastici

172 Unicità della distribuzione limite
Anche l’unicità della distribuzione limite non è in genere garantita. Per un esempio vedi Kulkarni, p.129. Metodi Probailistici, Statistici e Processi Stocastici

173 Periodicità, Irriducibilità e Esistenza
Un processo di Markov discreto e omogeneo è detto periodico di periodo d se >1 d è l’intero più grande per cui vale: Con n multiplo di d. Se d=1 il processo è detto aperiodico. In pratica il concetto di periodicità risponde alla domanda: è possibile tornare ad i dopo essere partiti da i? Se il processo è periodico di periodo d allora è possibile tornare ad I solo ai tempi d,2d,…kd. Non è possibile in tempi intermedi. Il periodo può essere calcolato per via grafica dai diagrammi di transizione. Si deve definire un ciclo diretto nel diagramma come il ciclo da un nodo a se stesso. Se tutti I cicli diretti nel diagramma sono multipli di d allora il periodo è d. Metodi Probailistici, Statistici e Processi Stocastici

174 Periodicità, Irriducibilità e Esistenza
Un processo di Markov discreto e omogeneo è detto irriducibile se, i,j esiste k>0 tale che La precedente proprietà dice che è possibile muoversi dallo stato i allo stato j in uno o più passi per tutti gli stati i e j. Condizione sufficiente di esistenza e unicità: un processo di Markov irriducibile e aperiodico ammette un’unica distribuzione limite. Metodi Probailistici, Statistici e Processi Stocastici

175 Distribuzione Stazionaria
Una distribuzione * è detta stazionaria se: per tutti gli stati (i) e per tutti i tempi n≥0. Anche la distribuzione stazionaria, se esiste soddisferà: Ne segue che se esiste una distribuzione limite essa è anche una distribuzione stazionaria Metodi Probailistici, Statistici e Processi Stocastici

176 Costi o ricavi associati agli stati
Spesso il fatto che il sistema sia in un determinato stato comporta all’azienda un costo/ricavo gestionale (es. costo di magazzino delle parti di ricambio o ricavo da vendite) Per sapere quanto è il costo totale atteso, occorre sapere quanto tempo il sistema sta in un determinato stato. Ora notiamo che per modelli markoviani discreti il sistema scatta da uno stato all’altro ogni n. Quindi il tempo totale che il sistema trascorre in uno stato non è altro che la somma del numero di volte che, passa dallo stato di interesse. Denotiamo con j lo stato di interesse e con Xk=j l’evento: il sistema è nello stato j al tempo k. Leghiamo ad Xk la variabile Zj(k) definita come segue: Il numero di volte in cui il sistema passa per lo stato j è proprio la somma delle variabili Zj(k). Quindi: Saremo interessati al valore atteso di Nj(k) Metodi Probailistici, Statistici e Processi Stocastici

177 1 1 K=0 Metodi Probailistici, Statistici e Processi Stocastici

178 Tempi di occupazione Il sistema patirà dallo stato X0=i. Definiamo con mij(k) il numero di volte in cui il sistema passa per lo stato j partendo dallo stato i al tempo 0. In forma matriciale: Si dimostra che: Metodi Probailistici, Statistici e Processi Stocastici

179 Esempio Esempio. Se k=10, scrivere la matrice di occupazione dell’esempio “Pallina da flipper”. Utilizziamo la formula precedente Notiamo il risultato. Se partiamo da 3, stiamo in 3 per 11 volte…sempre! Metodi Probailistici, Statistici e Processi Stocastici

180 Costi condizionali Costi da associare agli stati: C(Xj) è il costo associato al fatto che il sistema è nello stato j. Il costo totale generato nel periodo 0..k, è: Il valore atteso è: Vettore dei costi condizionale allo stato del sistema a k=0: Possiamo quindi ricavare il valore atteso del costo come: Forma matriciale Forma vettoriale Metodi Probailistici, Statistici e Processi Stocastici

181 Esempio Nell’esempio del gioco, ogni volta che la pallina finisce nello stato 3 si perdono 2EUR, ogni volta che siete nello stato 1 o 2 vincete 1 EUR. In 10 partite, quanti soldi si perdono se si parte dallo stato 1? E dallo stato 2? E da 3? E se aveste a=[ ], vi convene giocare? Metodi Probailistici, Statistici e Processi Stocastici

182 La distribuzione dell’occupazione
Sia Nj(k) il numero di volte in cui il sistema visita lo stato j nel tempo 0…k. L’occupazione dello stato j viene definita da: Interpretazione: è la frazione di tempo che il sistema spende nello stato j. La distribuzione di occupazione (^), se esiste, soddisfa le seguenti equazioni: Un processo markoviano irriducibile ammette un’unica distribuzione di occupazione che è uguale alla distribuzione stazionaria. Metodi Probailistici, Statistici e Processi Stocastici

183 Costo per unità di tempo
Il costo per unità di tempo è definito come: Dove i denota lo stato di partenza. Si dimostra che soddisfa la seguente eguaglianza per un processo di Markov irriducibile ed è indipendente da i: Metodi Probailistici, Statistici e Processi Stocastici

184 Esempio 1 Consideriamo un processo di Markov S={1,2,3,4}, discreto e irriducibile che sia caratterizzato dalla seguente distribuzione di occupazione degli stati: ^=[ ] e costi per stato: c=[ ]. Il sistema si muove su base settimanale. Quanto vi costa, nel lungo periodo, il sistema alla settimana? Sol.: 509EUR per settimana Metodi Probailistici, Statistici e Processi Stocastici

185 Problemi Consideriamo un gioco in cui il sistema ha tre stati e può passare da uno stato all’altro con le seguenti probabilità, k=0,1,…: E’ un processo irriducibile? Se lo stato 1 dà un profitto di +10, lo stato 2 una vincita di +15 e lo stato 3 una perdita di -20, vi conviene giocare fino a k=10 se le probabilità di partenza sono [ ]? (Ans. 1.15, sì) E all’infinito? (0.1667) Metodi Probailistici, Statistici e Processi Stocastici

186 Capitolo X: Processi di Markov Continui nel Tempo
Metodi Probailistici, Statistici e Processi Stocastici

187 Introduzione Nel caso dei processi di Markov discreti, si individuavano una serie di istanti k=0,1,…,n n cui lo stato del sistema veniva osservato. Supponiamo ora che il sistema sia osservato con continuità. Un esempio può essere quello di un satellite che gira nello spazio e può essere in 2 stati, funzionante o rotto. Ci chiediamo se al tempo T il satellite sia funzionante o rotto. Metodi Probailistici, Statistici e Processi Stocastici

188 Definizione: Markov continuo
Processo di Markov continuo nel tempo: Un processo stocastico è detto di Markov, continuo del tempo se vale: dove X(s+t) indica lo stato del sistema al tempo t+s. Notiamo che s+t sostituisce k al pedice nella noazione precedente. Interpr.: la probabilità che il sistema passi dallo stato I che occupava in s allo stato j dopo un tempo t dipende solo dallo stato in cui il sistema si trovava in s e da s. Matrice delle probabilità di transizione Metodi Probailistici, Statistici e Processi Stocastici

189 Definizione: Markov continuo omogeneo
Processo di Markov continuo nel tempo è omogeneo se vale: Interpr.: la probabilità che il sistema passi dallo stato i che occupava in s allo stato j dopo un tempo t dipende solo di due stati e non dal tempo s. Matrice delle probabilità di transizione: Metodi Probailistici, Statistici e Processi Stocastici

190 Proprietà della matrice prob. transizione
La matrice delle probailità di transizione soddisfa le seguenti proprietà: Dimostriamo la 3 Metodi Probailistici, Statistici e Processi Stocastici

191 Equazioni di Chapman Kolmogorov
Valgono i due seguenti lemma: I=tasso istantaneo di uscita dallo stato i, qij tasso di transizione dallo stato i allo stato j. Sono le probabilità condizionale che il sistema compia la transizione dallo stato I allo stato j nell’intervallo di tempo dt, dato che è nello stato i a t. Si dimostra che le probabilità di transizione soddisfano le seguenti equazioni: se si condiziona su h. Se si condiziona su t. Metodi Probailistici, Statistici e Processi Stocastici

192 Equazioni di C-K (2) Poniamo:
ij è detto rateo di transizione ed è la probabilità che nel tempo dt il sistema passi allo stato j dato che è nello stato i. Le equazioni di C-K si possono quindi riscrivere come: Metodi Probailistici, Statistici e Processi Stocastici

193 Equazioni di C-K (3) Dove A e’ la matrice dei ratei di transizione del sistema, P e’ il vettore delle probabilita’ degli stati del sistema. Metodi Probailistici, Statistici e Processi Stocastici

194 Costruzione della matrice di transizione
1 2 P21 P12 1 2 Esempio: componente soggetto a rottura e riparazione. 2 stati: in funzione o in riparazione, con tassi di guasto  e riparazione . Chi sono P12 e P21? Sono le probabilita’ di transizione in dt. Quindi: P12= e P21=  La matrice di transizione e’ costruita con le seguenti regole: (+) se il salto e’ in entrata allo stato, (-) se il salto e’ in uscita Prendiamo lo stato 1: si entra in 1 da due con tasso  (+), si esce con tasso  (-). Quindi: Metodi Probailistici, Statistici e Processi Stocastici

195 La matrice di transizione
La matrice di transizione e’: Metodi Probailistici, Statistici e Processi Stocastici

196 Equazione delle Pi(t) Definiamo le probabilità incondizionali che il sistema si trovi nello stato i al tempo t come: Si dimostra (vedi seguito) che le equazioni soddisfatte dalle probabilità incondizionali sono: Metodi Probailistici, Statistici e Processi Stocastici

197 Differenza Che differenza c’è tra: e
Metodi Probailistici, Statistici e Processi Stocastici

198 Soluzione delle equazioni
E’ la probabilita’ che a t il componente sia nello stato 1. Occorre risolvere il sistema di equazioni differenziali lineari precedente. Modo piu’ usato in affidabilita’ e’ mediante trasformata di Laplace. Con trasf. Laplace, le equazioni da differenziali diventano algebriche. Dopo aver lavorato con equazioni algebriche, occorre poi antitrasformare. Si ottiene dunque la disponibilita’ come funzione del tempo. Il risultato per un componente singolo soggetto a riparazioni e rotture e’ il seguente: Metodi Probailistici, Statistici e Processi Stocastici

199 Risultato Probabilità che il sistema sia nello stato 1=Disponibilita’ istantanea: Disponibilita’ asintotica: Interpretazione: tempo che occorre in media alla riparazione diviso il tempo totale Metodi Probailistici, Statistici e Processi Stocastici

200 Probabilità limite Per t che tende ad infinito, se il processo Markoviano è irriducibile, le probabilità limite esistono e soddisfano le seguenti equazioni: ovvero, j: Tale relazione esprime il bilancio tra le entrate e le uscite dallo stato Metodi Probailistici, Statistici e Processi Stocastici

201 Esempio Si consideri un sistema con due componenti, con la possibilità di riparare un solo componente alla volta, nel caso si rompa. I due componenti sono identici e si rompono con tasso costante . Il tasso di riparazione è . Rappresentare il sistema come processo di Markov, scrivere le equazioni di C-K per il processo e trovare le probabilità limite. 2 3 1 2 2 Metodi Probailistici, Statistici e Processi Stocastici

202 Distribuzione stazionaria
Per un processo di Markov continuo,irriducibile, la distribuzione limite è anche la distribuzione stazionaria. Metodi Probailistici, Statistici e Processi Stocastici

203 Distribuzione di occupazione
Sia T un tempo su cui osserviamo il sistema. Sia mij(T) il tempo speso dal sistema nello stato j dato che è partito da I al tempo 0. Se il processo è irriducible, vale allora che: la frazione di tempo che il sistema passa nello stato j al tendere di t all’infinito non dipende da i La frazione di tempo spesa da sistema nello stato j è: Quindi le probabilità limite si possono interpretare come frazione del tempo che il sistema spende in un determonato stato Metodi Probailistici, Statistici e Processi Stocastici

204 Modellazione dei Costi/Ricavo
Il modello dei costi è il seguente. Sia c(X(t)) dt il costo istantaneo (tasso di costo) associato al fatto che il sistema è nello stato j al tempo t. Il costo/ricavo totale che il sistema sosterrà/produrrà nel tempo 0-T sarà: Metodi Probailistici, Statistici e Processi Stocastici

205 Tasso di costo istantaneo limite
Per un processo continuo, Markoviano, irriducibile vale: Esempio: supponiamo che se la macchina produce incassiamo Se si rompe spendiamo costa Calcoliamo se, a regime, conviene investire nella macchina quando =10-4 e =10-2. clim=+940, quindi conviene. Metodi Probailistici, Statistici e Processi Stocastici

206 Capitolo IX: Problemi, dimostrazioni etc.
Metodi Probailistici, Statistici e Processi Stocastici


Scaricare ppt "Metodi Probabilistici, Statistici e Processi Stocastici Università Carlo Cattaneo Emanuele Borgonovo Metodi Probailistici, Statistici e Processi Stocastici."

Presentazioni simili


Annunci Google