La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Funzione di distribuzione (detta anche cumulativa o di ripartizione)

Presentazioni simili


Presentazione sul tema: "Funzione di distribuzione (detta anche cumulativa o di ripartizione)"— Transcript della presentazione:

1 Funzione di distribuzione (detta anche cumulativa o di ripartizione)
X = variabile aleatoria quantitativa = insieme dei risultati di un esperimento per i quali X risulta non superiore a x Proprietà funzione monotona non decrescente

2 Funzione di distribuzione discreta

3 Funzione di distribuzione continua

4 Densità di probabilità
X continua Proprietà

5 Densità di probabilità gaussiana
x1 x2

6 Affidabilità di un sistema (sanitario)
Probabilità che il sistema continui a erogare lo stesso servizio dopo un prefissato tempo t trascorso dal suo iniziale funzionamento T = durata di funzionamento, v.a. continua Probabilità di guasto entro il tempo t Probabilità di guasto nell’intervallo (t, t+dt)

7 Funzione di distribuzione condizionata
Con riferimento ad un esperimento qualsiasi, sia M un evento, tale che P(M)>0 e sia X una v.a. associata all’insieme S dei possibili risultati, si definisce funzione di distribuzione FX(x/M) della v.a. X ,condizionata da M, la probabilità condizionata dell’evento {X  x}: P{X  x, M} consiste di tutti i risultati  tali che X() x e M

8 Densità di probabilità condizionata
Per v.a. continue, si definisce analogamente la densità di probabilità condizionata: La fX(x/M) gode di tutte le proprietà della densità di probabilità ordinarie

9 Affidabilità condizionata
Con riferimento all’affidabilità del sistema si voglia valutare la probabilità di guasto, condizionata al fatto che il sistema sia ancora funzionante al tempo t

10 Tasso di guasto Probabilità che il sistema si guasti nell’intervallo (t, t+dt) supposto che non si sia guastato prima di t Il tasso di guasto è solo funzione del tempo, coincide con la d.p. condizionata solo per  = t Integrando si ottiene la probabilità di guasto entro il tempo t La costante di integrazione è nulla perché

11 Funzioni del tasso di guasto
Proprietà Prima o poi il sistema si guasta Es.: valutare le funzioni per (t) costante =   d.p. esponenziale e per  = kt (k costante)  d.p. di Rayleigh

12 Il guasto di una unità pregiudica il funzionamento dell’intero sistema
Sistema serie 1 2 n Il guasto di una unità pregiudica il funzionamento dell’intero sistema Eventi indipendenti Si dimostra facilmente come, nel caso di tasso di guasto costante per tutte le unità, si abbia 

13 Sistema parallelo 1 2 n Numero di unità superiori a quelle strettamente necessarie (ridondanti) P.es. nelle emergenze Il sistema è guasto solo se tutte le unità sono guaste, cioè, in alternativa, funziona se almeno una unità è funzionante Es.: nell’ipotesi di unità tutte ugualmente affidabili, valutare l’affidabilità del sistema parallelo se si ritiene funzionante quando almeno 2 unità funzionano

14 Valore medio Indice che descrive sinteticamente la statistica di un esperimento probabilistico. È il valore più significativo e rappresenta il baricentro dell’esperimento. È detto anche valore atteso (expected value). Tranne in casi particolari, non è però è il punto più probabile (moda) nel caso X sia continua se X è discreta

15 Momenti di ordine k Forniscono una più completa caratterizzazione della statistica della v.a. X continua X discreta

16 Momenti centrali di ordine k
Varianza Operano sugli scarti dal valor medio ed eliminano l’effetto della posizione dell’origine nella scala di misura Il momento centrale del secondo ordine è detto varianza e rappresenta la dispersione dei valori del fenomeno attorno al valor medio

17 Disuguaglianza di Chebyshev
Vale per qualsiasi v.a. con varianza finita e fX(x) arbitraria Garantisce che tutti i valori sono addensati attorno al valor medio  definisce un limite dal valor medio oltre il quale la probabilità di X è nota (attraverso la varianza) ed è sufficientemente bassa Applicazioni: scarto di valori di misura estremi (a ds e sn), che hanno poca probabilità di accadere; pulizia dati. Es.: volendo scartare il 5% di dati si fissa =0.025

18 Funzione di distribuzione congiunta di due o più v.a. quantitative
= insieme dei risultati di un esperimento per i quali risulta sia X non superiore a x, sia Y non superiore a y

19 Date due o più v.a. quantitative, esse sono indipendenti se:
Indipendenza Date due o più v.a. quantitative, esse sono indipendenti se:

20 Probabilità congiunta di due eventi discreti
Per semplicità consideriamo due v.a. X e Y discrete o qualitative e rappresentiamo le probabilità dei rispettivi eventi A e B nello spazio S degli eventi. La probabilità congiunta è rappresentata dall’intersezione , cioè: S Diagramma di Venn B A AB

21 Discende dalla probabilità congiunta
Teorema di Bayes Discende dalla probabilità congiunta Inferenza bayesiana: la probabilità ‘a posteriori’ (condizionata) di un evento A può essere valutata attraverso la sua probabilità ‘a priori’ e le probabilità di un evento B che condiziona A. B è un’evento già accaduto, rappresenta l’informazione incorporata nel meccanismo inferenziale e contribuisce a ridurre l’incertezza nella stima di A  aumento della probabilità ‘a posteriori’

22 Densità di probabilità congiunta di due v.a. continue
Per analogia al caso discreto si ha:

23 Teorema di Bayes per v.a. quantitative
X, Y generiche X, Y continue X discreta Y continua X continua Y discreta

24 Funzioni di distribuzione marginali
Date due v.a. X, Y quantitative, si ha: È noto anche che:

25 Densità di probabilità marginali
Se X e Y sono continue, si hanno le densità di probabilità marginali: In base alla formula delle d.p. congiunte si trova:

26 Proprietà della marginalizzazione
Data una v.a. continua  che assume valori , è sempre possibile esprimere la densità di probabilità di un’altra v.a. X, come:


Scaricare ppt "Funzione di distribuzione (detta anche cumulativa o di ripartizione)"

Presentazioni simili


Annunci Google