Funzione di distribuzione (detta anche cumulativa o di ripartizione) X = variabile aleatoria quantitativa = insieme dei risultati di un esperimento per i quali X risulta non superiore a x Proprietà funzione monotona non decrescente
Funzione di distribuzione discreta
Funzione di distribuzione continua
Densità di probabilità X continua Proprietà
Densità di probabilità gaussiana x1 x2
Affidabilità di un sistema (sanitario) Probabilità che il sistema continui a erogare lo stesso servizio dopo un prefissato tempo t trascorso dal suo iniziale funzionamento T = durata di funzionamento, v.a. continua Probabilità di guasto entro il tempo t Probabilità di guasto nell’intervallo (t, t+dt)
Funzione di distribuzione condizionata Con riferimento ad un esperimento qualsiasi, sia M un evento, tale che P(M)>0 e sia X una v.a. associata all’insieme S dei possibili risultati, si definisce funzione di distribuzione FX(x/M) della v.a. X ,condizionata da M, la probabilità condizionata dell’evento {X x}: P{X x, M} consiste di tutti i risultati tali che X() x e M
Densità di probabilità condizionata Per v.a. continue, si definisce analogamente la densità di probabilità condizionata: La fX(x/M) gode di tutte le proprietà della densità di probabilità ordinarie
Affidabilità condizionata Con riferimento all’affidabilità del sistema si voglia valutare la probabilità di guasto, condizionata al fatto che il sistema sia ancora funzionante al tempo t
Tasso di guasto Probabilità che il sistema si guasti nell’intervallo (t, t+dt) supposto che non si sia guastato prima di t Il tasso di guasto è solo funzione del tempo, coincide con la d.p. condizionata solo per = t Integrando si ottiene la probabilità di guasto entro il tempo t La costante di integrazione è nulla perché
Funzioni del tasso di guasto Proprietà Prima o poi il sistema si guasta Es.: valutare le funzioni per (t) costante = d.p. esponenziale e per = kt (k costante) d.p. di Rayleigh
Il guasto di una unità pregiudica il funzionamento dell’intero sistema Sistema serie 1 2 n Il guasto di una unità pregiudica il funzionamento dell’intero sistema Eventi indipendenti Si dimostra facilmente come, nel caso di tasso di guasto costante per tutte le unità, si abbia
Sistema parallelo 1 2 n Numero di unità superiori a quelle strettamente necessarie (ridondanti) P.es. nelle emergenze Il sistema è guasto solo se tutte le unità sono guaste, cioè, in alternativa, funziona se almeno una unità è funzionante Es.: nell’ipotesi di unità tutte ugualmente affidabili, valutare l’affidabilità del sistema parallelo se si ritiene funzionante quando almeno 2 unità funzionano
Valore medio Indice che descrive sinteticamente la statistica di un esperimento probabilistico. È il valore più significativo e rappresenta il baricentro dell’esperimento. È detto anche valore atteso (expected value). Tranne in casi particolari, non è però è il punto più probabile (moda) nel caso X sia continua se X è discreta
Momenti di ordine k Forniscono una più completa caratterizzazione della statistica della v.a. X continua X discreta
Momenti centrali di ordine k Varianza Operano sugli scarti dal valor medio ed eliminano l’effetto della posizione dell’origine nella scala di misura Il momento centrale del secondo ordine è detto varianza e rappresenta la dispersione dei valori del fenomeno attorno al valor medio
Disuguaglianza di Chebyshev Vale per qualsiasi v.a. con varianza finita e fX(x) arbitraria Garantisce che tutti i valori sono addensati attorno al valor medio definisce un limite dal valor medio oltre il quale la probabilità di X è nota (attraverso la varianza) ed è sufficientemente bassa Applicazioni: scarto di valori di misura estremi (a ds e sn), che hanno poca probabilità di accadere; pulizia dati. Es.: volendo scartare il 5% di dati si fissa =0.025
Funzione di distribuzione congiunta di due o più v.a. quantitative = insieme dei risultati di un esperimento per i quali risulta sia X non superiore a x, sia Y non superiore a y
Date due o più v.a. quantitative, esse sono indipendenti se: Indipendenza Date due o più v.a. quantitative, esse sono indipendenti se:
Probabilità congiunta di due eventi discreti Per semplicità consideriamo due v.a. X e Y discrete o qualitative e rappresentiamo le probabilità dei rispettivi eventi A e B nello spazio S degli eventi. La probabilità congiunta è rappresentata dall’intersezione , cioè: S Diagramma di Venn B A AB
Discende dalla probabilità congiunta Teorema di Bayes Discende dalla probabilità congiunta Inferenza bayesiana: la probabilità ‘a posteriori’ (condizionata) di un evento A può essere valutata attraverso la sua probabilità ‘a priori’ e le probabilità di un evento B che condiziona A. B è un’evento già accaduto, rappresenta l’informazione incorporata nel meccanismo inferenziale e contribuisce a ridurre l’incertezza nella stima di A aumento della probabilità ‘a posteriori’
Densità di probabilità congiunta di due v.a. continue Per analogia al caso discreto si ha:
Teorema di Bayes per v.a. quantitative X, Y generiche X, Y continue X discreta Y continua X continua Y discreta
Funzioni di distribuzione marginali Date due v.a. X, Y quantitative, si ha: È noto anche che:
Densità di probabilità marginali Se X e Y sono continue, si hanno le densità di probabilità marginali: In base alla formula delle d.p. congiunte si trova:
Proprietà della marginalizzazione Data una v.a. continua che assume valori , è sempre possibile esprimere la densità di probabilità di un’altra v.a. X, come: