2. Introduzione alla probabilità

Slides:



Advertisements
Presentazioni simili
Le distribuzioni di probabilità continue
Advertisements

Definizione di probabilità, calcolo combinatorio,
Variabili aleatorie discrete e continue
Intervalli di confidenza
La probabilità.
Matematica I: Calcolo differenziale, Algebra lineare, Probabilità e statistica Giovanni Naldi, Lorenzo Pareschi, Giacomo Aletti Copyright © The.
Laboratorio Processi Stocastici
1. Classificazione dei sistemi e dei modelli
6. Catene di Markov a tempo continuo (CMTC)
1 2. Introduzione alla probabilità Definizioni preliminari: Prova: è un esperimento il cui esito è aleatorio Spazio degli eventi elementari : è linsieme.
Inferenza Statistica Le componenti teoriche dell’Inferenza Statistica sono: la teoria dei campioni la teoria della probabilità la teoria della stima dei.
Lez. 3 - Gli Indici di VARIABILITA’
Definizione e caratteristiche
Funzione di distribuzione (detta anche cumulativa o di ripartizione)
ANALISI DELLA COVARIANZA
6. Catene di Markov a tempo continuo (CMTC)
3. Processi Stocastici Un processo stocastico è una funzione del tempo i cui valori x(t) ad ogni istante di tempo t sono v.a. Notazione: X : insieme di.
4. Automi temporizzati Il comportamento dei sistemi ad eventi temporizzati non è definito semplicemente da una sequenza di eventi o di valori dello stato,
5. Catene di Markov a tempo discreto (CMTD)
Metodi Quantitativi per Economia, Finanza e Management Lezione n° 11.
STATISTICA A – K (60 ore) Marco Riani
VARIABILI ALEATORIE Sono presentate di seguito le nozioni di:
Inferenza statistica per un singolo campione
Le Variabili Casuali Corso di Teoria dell’Inferenza Statistica 1
Apprendimento Automatico: Apprendimento Probabilistico Roberto Navigli 1 Apprendimento Automatico: Apprendimento Bayesiano.
Valutazione delle ipotesi
Processi Aleatori : Introduzione – Parte I
Distribuzioni di probabilità
7. Teoria delle Code Una coda è costituita da 3 componenti fondamentali: i serventi i clienti uno spazio in cui i clienti attendono di essere serviti.
8. Reti di Code Nella maggior parte dei processi produttivi risulta troppo restrittivo considerare una sola risorsa. Esempio: linea tandem arrivi 1 v.
Corso di biomatematica Lezione 2: Probabilità e distribuzioni di probabilità Davide Grandi.
Corso di biomatematica lezione 6: la funzione c2
Corso di biomatematica Lezione 3: Distribuzioni di probabilità continue Davide Grandi.
Test di ipotesi X variabile casuale con funzione di densità (probabilità) f(x; q) q Q parametro incognito. Test Statistico: regola che sulla base di un.
STATISTICA a.a PARAMETRO t DI STUDENT
STATISTICA a.a DISTRIBUZIONE BINOMIALE (cenni)
Valutazione della stima: gli intervalli di confidenza
I numeri relativi by iprof.
Lezione 8 Numerosità del campione
Num / 36 Lezione 9 Numerosità del campione.
Lezione 4 Probabilità.
PROBABILITÀ La probabilità è un giudizio che si assegna ad un evento e che si esprime mediante un numero compreso tra 0 e 1 1 Evento con molta probabilità.
La probabilità Schema classico.
Statistica economica (6 CFU) Corso di Laurea in Economia e Commercio a.a Docente: Lucia Buzzigoli Lezione 5 1.
QUALCHE LUCIDO DI RIPASSO… 1. Esperimento casuale ( e. aleatorio) risultato Esperimento condotto sotto leffetto del caso: non è possibile prevederne il.
PROBABILITA : se un EVENTO si verifica in h modi diversi su n possibili (POPOLAZIONE) p = h/n Questa definizione è talvolta applicabile a priori (es. lancio.
1.PROBABILITÀ A. Federico ENEA; Fondazione Ugo Bordoni Scuola estiva di fonetica forense Soriano al Cimino 17 – 21 settembre 2007.
Unità 2 Distribuzioni di probabilità Misure di localizzazione Misure di variabilità Asimmetria e curtosi.
Reti di TLC Esercitazione 3
Le variabili casuali e la loro distribuzione di probabilità Generalmente, lanciando un dado, si considera il valore numerico della faccia uscita.
Cap. 15 Caso, probabilità e variabili casuali Cioè gli ingredienti matematici per fare buona inferenza statistica.
è … lo studio delle caratteristiche di regolarità dei fenomeni casuali
Lez. 3 - Gli Indici di VARIABILITA’
Laurea Ing EO/IN/BIO;TLC D.U. Ing EO 10 PROBABILITA’ E VARIABILI ALEATORIE.
PROBABILITA’ Scienza che studia i fenomeni retti dal caso EVENTO (E): avvenimento che può accadere oppure no 1.certo: se si verifica sempre (es. nel lancio.
Martina Serafini Martina Prandi
Calcolo delle probabilità a cura di Maurizio Brizzi
Intervallo di Confidenza Prof. Ing. Carla Raffaelli A.A:
La variabile casuale (v.c.) è un modello matematico in grado di interpretare gli esperimenti casuali. Infatti gli eventi elementari  che compongono lo.
Distribuzioni di probabilità di uso frequente
PROBABILITÀ Corsi Abilitanti Speciali Classe 59A III semestre - 2.
Eventi aleatori Un evento è aleatorio (casuale) quando non si può prevedere con certezza se avverrà o meno I fenomeni (eventi) aleatori sono studiati.
Elementi di teoria delle probabilità
Operazioni di campionamento CAMPIONAMENTO Tutte le operazioni effettuate per ottenere informazioni sul sito /area da monitorare (a parte quelle di analisi)
Elementi di statistica e probabilità Misure Meccaniche e Termiche - Università di Cassino 2 Eventi aleatori e deterministici Un evento aleatorio può.
In alcuni casi gli esiti di un esperimento possono essere considerati numeri naturali in modo naturale. Esempio: lancio di un dado In atri casi si definisce.
1 DISTRIBUZIONI DI PROBABILITÁ. 2 distribu- zione che permette di calcolare le probabilità degli eventi possibili A tutte le variabili casuali, discrete.
1 VARIABILI CASUALI. 2 definizione Una variabile casuale è una variabile che assume determinati valori in modo casuale (non deterministico). Esempi l’esito.
Un evento è un fatto che può accadere o non accadere. Se esso avviene con certezza si dice evento certo, mentre se non può mai accadere si dice evento.
Teoria dei Sistemi di Trasporto Tematica 4: Elementi minimi di teoria della probabilità.
Transcript della presentazione:

2. Introduzione alla probabilità Definizioni preliminari: Prova: è un esperimento il cui esito è aleatorio Spazio degli eventi elementari : è l’insieme di tutti i possibili esiti Evento casuale: è un sottoinsieme A di  ( A   ) Un evento casuale può essere impossibile A =  certo A = 

Variabili aleatorie Ogni evento w   può essere associato in modo biunivoco a un numero attraverso una particolare legge. Tale corrispondenza viene detta variabile aleatoria (v.a.) X(w). Una variabile aleatoria X(w) (o più semplicemente X) può essere: discreta se assume solo un insieme finito o numerabile di valori X  N continua altrimenti X  R Nel seguito indicheremo con X le v.a. e con x i valori che esse possono assumere.

Variabili aleatorie discrete Una variabile aleatoria discreta è completamente definita dalla coppia (X,) dove X = {x1, … , xn}  N e ={x1, … , xn} dove xi = Pr(xi). Naturalmente Esempio: lancio di 2 monete. Il numero di teste è una variabile aleatoria. 1/2 1 insieme numerico insieme non numerico

La funzione di distribuzione (cumulativa) FX(x) di una v. a La funzione di distribuzione (cumulativa) FX(x) di una v.a. discreta X esprime la probabilità che X assuma un valore minore o uguale ad x: FX(x) = Pr (X  x) Esempio: numero di teste nel lancio di 2 monete 1/4 1/2 3/4 1 FX(x) x 2 3 -1

Valore atteso o media Varianza E[X] 1 x Pr(x) Var[X]=0

Esempio: numero di teste nel lancio di 2 monete 1/2 1 E[X] = 0 ·1/4 + 1 ·1/2 + 2 ·1/4 = 1 Var[X] = (0-1)2 ·1/4 + (1-1) 2 ·1/2 + (2-1) 2 ·1/4 = 1/4 + 1/4 = 1/2

Variabili aleatorie continue L’insieme degli eventi di una v.a. continua è un insieme continuo   R. Le v.a. continue sono caratterizzate mediante la funzione densità di probabilità (x). x1 x1+dx (x) x (x1)dx = Pr(x[x1, x1+dx])

La funzione di distribuzione (cumulativa) FX(x) esprime la probabilità che X assuma un valore minore o uguale ad x: Chiaramente la funzione FX(x) è una funzione monotona non decrescente e FX(+)=1. Valore atteso o media Varianza

Variabile aleatoria uniforme continua (x) x a b 1/(b-a) E[X]=(a+b)/2 Var[X]=(b-a)2/12 Variabile aleatoria esponenziale (x) = e- x x  xR+  {0} E[X]=1/  Var[X]= 1/ 2

Variabile aleatoria normale o gaussiana  (x) Var[X]=2 x E[x]=

Se la distribuzione è normale allora il valore medio è anche il valore più probabile. La somma di v.a. gaussiane indipendenti è ancora una v.a. gaussiana indipendente la cui media è pari alla somma delle medie e la cui varianza è pari alla somma delle varianze. Una v.a. gaussiana è detta standard se E[X]=0 e Var[X]=1.

3. Processi Stocastici Un processo stocastico è una funzione del tempo i cui valori x(t) ad ogni istante di tempo t sono v.a. Notazione: X : insieme di possibili valori tT : generico istante di tempo (T: insieme dei possibili istanti di tempo)  (t) : funzione di probabilità o di densità di probabilità all’istante di tempo t (X,  (t)) tT

Una realizzazione di un processo stocastico (X,  (t)) tT è una particolare evoluzione x(t) per tT. Esempio: si lancia una moneta per un numero infinito di volte agli istanti t=0,1,2,… X={0,1} dove x0=0 : esce testa e x1=1 : esce croce. possibile realizzazione tempo xi (xi) 0 1/2 1 1/2 0 1/2 1 1/2 : : : 1 (X,  (0)) (X,  (1)) t xi 0 0 1 0 2 1 3 0 : :

Esempio: si lancia una moneta all’istante t=0 e la Esempio: si lancia una moneta all’istante t=0 e la si lascia nella stessa posizione per ogni t > 0. La tabella (tempo, xi, (xi)) è uguale alla precedente ma vi sono solo 2 possibili realizzazioni tempo xi (xi) 0 1/2 1 1/2 0 1/2 1 1/2 : : : 1 t x1 x2 0 0 1 1 0 1 2 0 1 3 0 1 : : : La tabella (tempo, xi, (xi)) non è sufficiente per descrivere completamente un processo stocastico.

I processi stocastici vengono classificati come segue: sono anche detti catene a stati continui (X è un insieme continuo, ad es. X=R) a stati discreti (X è un insieme discreto, ad es. X={x1,x2,…,xn}) a stati finiti se n < +  a stati infiniti se n = + 

Esiste anche un’altra classificazione dei processi stocastici a tempo continuo (T è un insieme continuo, ad es. T=R+{0}) a tempo discreto (T è un insieme discreto, ad es. T=N)

Processi stocastici stazionari (in senso stretto) Un p.s. è detto stazionario se tutte le sue funzioni di probabilità (o densità di probabilità) sono stazionarie ossia invarianti per traslazioni nel tempo. x1,x2,…,xn(t1,t2,… ,tn) = x1,x2,…,xn(t1+ ,t2+ ,… ,tn+ )  n  1  t1 < t2 < … < tn  x1 , x2 , … , xn  X    T

Processi stocastici stazionari nella media Per ogni istante di tempo tT (X,  (t)) è una v.a. con media x(t). Un p.s. è stazionario nella media se  t T x(t) =  Stazionarietà in senso stretto Stazionarietà nella media

Esempio: si lancia una moneta per un numero Esempio: si lancia una moneta per un numero infinito di volte agli istanti t=0,1,2,… X={0,1} dove x0=0 : testa e x1=1 : croce. x(0) = 1/2 x(1) = 1/2 : È stazionario in senso stretto. Esempio: si lancia una moneta all’istante t=0 e la si lascia nella stessa posizione per ogni t > 0. x(0) = x(1) = … = 1/2

Ovviamente tale probabilità aumenta con gli anni. Esempio: Una macchina può essere guasta x0=0 o funzionante x1=1 ( X={0,1} ). Vogliamo studiare la probabilità che la macchina sia guasta in un certo anno  T={0, 1, … , } (anni di funzionamento). 1 2 3 : 0.9 0.81 0.73 Ovviamente tale probabilità aumenta con gli anni. 0(t)=1-(0.9)t 1(t)=(0.9) t Non è stazionario nella media.

Processi stocastici ergodici Si consideri un p.s. stazionario e sia la media di ogni v.a. (X,  (t)), t T. Per ogni possibile realizzazione posso calcolare processi a tempo discreto processi a tempo continuo Tale p.s. è ergodico se: 1) il limite esiste 2) tale limite non dipende dalla particolare realizzazione 3)

Lo studio di un p.s. ergodico può pertanto essere effettuato sulla base di una sola realizzazione. Esempio: si lancia una moneta per un numero infinito di volte agli istanti t=0,1,2,… X={0,1} dove x0=0 : testa e x1=1 : croce. x(0) = 1/2 x(1) = 1/2 … ergodico Esempio: si lancia una moneta all’istante t=0 e la si lascia nella stessa posizione per ogni t > 0. Ho solo 2 possibili realizzazioni. Il limite esiste ma dipende dalla realizzazione. non ergodico

I Processi di Poisson Un processo di Poisson conta quante volte si verifica un evento nell’unità di tempo supponendo che le seguenti ipotesi siano verificate: 1. Ogni evento si verifica ad intervalli di tempo casuali. 2. Gli accadimenti sono indipendenti l’uno dall’altro. 3. La probabilità che si verifichino xN eventi nell’unità di tempo è con  R+ parametro opportuno.

4. p(x) non dipende dall’istante di tempo t, cioè x N e t R Pr{che si verifichino x eventi in [0,1]} = Prob{che si verifichino x eventi in [t,t+1]}. p(x) x 0 1 2 3 4  < 1 p(x) x 0 1 2 3 4  > 1

Esempio: Il processo degli arrivi in coda ad un semaforo è Poissoniano? Se il precedente semaforo è molto lontano potrebbe esserlo poiché gli arrivi sarebbero indipendenti. Se invece il precedente semaforo è vicino, allora le macchine arrivano generalmente a piccoli gruppi e non sono indipendenti.

Un processo di Poisson genera una v.a. discreta (X,p) con x=N. Se per lo stesso processo contiamo la distanza temporale che intercorre tra 2 eventi consecutivi (tempo di inter-evento) otteniamo una v.a. continua. Il p.s. è allora (Xc,f) dove ora Xc=R+ ed f è una funzione densità di probabilità. Si può dimostrare che i tempi di inter-evento di un p. di P. di parametro  hanno una distribuzione esponenziale di parametro 

Mediamente si verificano  eventi nell’unità di tempo o equivalentemente, il tempo che mediamente passa tra l’occorrenza di un evento e del suo successivo è 1/ . Osservazione: La somma di 2 processi Poissoniani di parametro 1 e 2 è ancora un processo Poissoniano di parametro = 1 +2.