Scaricare la presentazione
La presentazione è in caricamento. Aspetta per favore
PubblicatoValeriano Barbato Modificato 11 anni fa
1
Funzione di distribuzione (detta anche cumulativa o di ripartizione)
X = variabile aleatoria quantitativa = insieme dei risultati di un esperimento per i quali X risulta non superiore a x Proprietà funzione monotona non decrescente
2
Funzione di distribuzione discreta
3
Funzione di distribuzione continua
4
Densità di probabilità
X continua Proprietà
5
Densità di probabilità gaussiana
x1 x2
6
Affidabilità di un sistema (sanitario)
Probabilità che il sistema continui a erogare lo stesso servizio dopo un prefissato tempo t trascorso dal suo iniziale funzionamento T = durata di funzionamento, v.a. continua Probabilità di guasto entro il tempo t Probabilità di guasto nell’intervallo (t, t+dt)
7
Funzione di distribuzione condizionata
Con riferimento ad un esperimento qualsiasi, sia M un evento, tale che P(M)>0 e sia X una v.a. associata all’insieme S dei possibili risultati, si definisce funzione di distribuzione FX(x/M) della v.a. X ,condizionata da M, la probabilità condizionata dell’evento {X x}: P{X x, M} consiste di tutti i risultati tali che X() x e M
8
Densità di probabilità condizionata
Per v.a. continue, si definisce analogamente la densità di probabilità condizionata: La fX(x/M) gode di tutte le proprietà della densità di probabilità ordinarie
9
Affidabilità condizionata
Con riferimento all’affidabilità del sistema si voglia valutare la probabilità di guasto, condizionata al fatto che il sistema sia ancora funzionante al tempo t
10
Tasso di guasto Probabilità che il sistema si guasti nell’intervallo (t, t+dt) supposto che non si sia guastato prima di t Il tasso di guasto è solo funzione del tempo, coincide con la d.p. condizionata solo per = t Integrando si ottiene la probabilità di guasto entro il tempo t La costante di integrazione è nulla perché
11
Funzioni del tasso di guasto
Proprietà Prima o poi il sistema si guasta Es.: valutare le funzioni per (t) costante = d.p. esponenziale e per = kt (k costante) d.p. di Rayleigh
12
Il guasto di una unità pregiudica il funzionamento dell’intero sistema
Sistema serie 1 2 n Il guasto di una unità pregiudica il funzionamento dell’intero sistema Eventi indipendenti Si dimostra facilmente come, nel caso di tasso di guasto costante per tutte le unità, si abbia
13
Sistema parallelo 1 2 n Numero di unità superiori a quelle strettamente necessarie (ridondanti) P.es. nelle emergenze Il sistema è guasto solo se tutte le unità sono guaste, cioè, in alternativa, funziona se almeno una unità è funzionante Es.: nell’ipotesi di unità tutte ugualmente affidabili, valutare l’affidabilità del sistema parallelo se si ritiene funzionante quando almeno 2 unità funzionano
14
Valore medio Indice che descrive sinteticamente la statistica di un esperimento probabilistico. È il valore più significativo e rappresenta il baricentro dell’esperimento. È detto anche valore atteso (expected value). Tranne in casi particolari, non è però è il punto più probabile (moda) nel caso X sia continua se X è discreta
15
Momenti di ordine k Forniscono una più completa caratterizzazione della statistica della v.a. X continua X discreta
16
Momenti centrali di ordine k
Varianza Operano sugli scarti dal valor medio ed eliminano l’effetto della posizione dell’origine nella scala di misura Il momento centrale del secondo ordine è detto varianza e rappresenta la dispersione dei valori del fenomeno attorno al valor medio
17
Disuguaglianza di Chebyshev
Vale per qualsiasi v.a. con varianza finita e fX(x) arbitraria Garantisce che tutti i valori sono addensati attorno al valor medio definisce un limite dal valor medio oltre il quale la probabilità di X è nota (attraverso la varianza) ed è sufficientemente bassa Applicazioni: scarto di valori di misura estremi (a ds e sn), che hanno poca probabilità di accadere; pulizia dati. Es.: volendo scartare il 5% di dati si fissa =0.025
18
Funzione di distribuzione congiunta di due o più v.a. quantitative
= insieme dei risultati di un esperimento per i quali risulta sia X non superiore a x, sia Y non superiore a y
19
Date due o più v.a. quantitative, esse sono indipendenti se:
Indipendenza Date due o più v.a. quantitative, esse sono indipendenti se:
20
Probabilità congiunta di due eventi discreti
Per semplicità consideriamo due v.a. X e Y discrete o qualitative e rappresentiamo le probabilità dei rispettivi eventi A e B nello spazio S degli eventi. La probabilità congiunta è rappresentata dall’intersezione , cioè: S Diagramma di Venn B A AB
21
Discende dalla probabilità congiunta
Teorema di Bayes Discende dalla probabilità congiunta Inferenza bayesiana: la probabilità ‘a posteriori’ (condizionata) di un evento A può essere valutata attraverso la sua probabilità ‘a priori’ e le probabilità di un evento B che condiziona A. B è un’evento già accaduto, rappresenta l’informazione incorporata nel meccanismo inferenziale e contribuisce a ridurre l’incertezza nella stima di A aumento della probabilità ‘a posteriori’
22
Densità di probabilità congiunta di due v.a. continue
Per analogia al caso discreto si ha:
23
Teorema di Bayes per v.a. quantitative
X, Y generiche X, Y continue X discreta Y continua X continua Y discreta
24
Funzioni di distribuzione marginali
Date due v.a. X, Y quantitative, si ha: È noto anche che:
25
Densità di probabilità marginali
Se X e Y sono continue, si hanno le densità di probabilità marginali: In base alla formula delle d.p. congiunte si trova:
26
Proprietà della marginalizzazione
Data una v.a. continua che assume valori , è sempre possibile esprimere la densità di probabilità di un’altra v.a. X, come:
Presentazioni simili
© 2024 SlidePlayer.it Inc.
All rights reserved.