Funzione di distribuzione (detta anche cumulativa o di ripartizione)

Slides:



Advertisements
Presentazioni simili
8) GLI INTERVALLI DI CONFIDENZA
Advertisements

Le distribuzioni di probabilità continue
2. Introduzione alla probabilità
Definizione di probabilità, calcolo combinatorio,
Distribuzione Normale o Curva di Gauss
Matematica I: Calcolo differenziale, Algebra lineare, Probabilità e statistica Giovanni Naldi, Lorenzo Pareschi, Giacomo Aletti Copyright © The.
IDROLOGIA.
6. Catene di Markov a tempo continuo (CMTC)
1 2. Introduzione alla probabilità Definizioni preliminari: Prova: è un esperimento il cui esito è aleatorio Spazio degli eventi elementari : è linsieme.
2.VARIABILI CONTINUE A. Federico ENEA; Fondazione Ugo Bordoni Scuola estiva di fonetica forense Soriano al Cimino 17 – 21 settembre 2007.
Variabili casuali a più dimensioni
Fondamenti della Misurazione
Classificatore bayesiano
6. Catene di Markov a tempo continuo (CMTC)
3. Processi Stocastici Un processo stocastico è una funzione del tempo i cui valori x(t) ad ogni istante di tempo t sono v.a. Notazione: X : insieme di.
Metodi Quantitativi per Economia, Finanza e Management Lezione n° 11.
redditività var. continua classi di redditività ( < 0 ; >= 0)
VARIABILI ALEATORIE Sono presentate di seguito le nozioni di:
Cinematica Studio puramente descrittivo del moto dei corpi, indipendentemente dalle cause (=> forze) che determinano le variazioni dello stato di moto.
Le Variabili Casuali Corso di Teoria dell’Inferenza Statistica 1
Valutazione delle ipotesi
Apprendimento Bayesiano
INFERENZA NEL MODELLO DI REGRESSIONE LINEARE MULTIPLA (parte 1)
Processi Aleatori : Introduzione – Parte I
Abbiamo visto un esempio di applicazione del teorema, ma a noi interessa l’applicazione del Teorema di Bayes alla combinazione delle informazioni, ovvero.
Distribuzioni di probabilità
8. Reti di Code Nella maggior parte dei processi produttivi risulta troppo restrittivo considerare una sola risorsa. Esempio: linea tandem arrivi 1 v.
Corso di biomatematica Lezione 2: Probabilità e distribuzioni di probabilità Davide Grandi.
PATTERN RECOGNITION.
Funzioni di densità (o di probabilità) congiunte.
Lezione 4 Probabilità.
Popolazione campione Y - variabile casuale y - valori argomentali Frequenza relativa: Estrazione Densità della classe i-esima: Lezione 1.
Teoria degli errori.
Introduzione Statistica descrittiva Si occupa dellanalisi dei dati osservati. Si basa su indicatori statistici (di posizione, di variazione, di concentrazione,
Trattamento delle Osservazioni
Statistica economica (6 CFU) Corso di Laurea in Economia e Commercio a.a Docente: Lucia Buzzigoli Lezione 5 1.
Le distribuzioni campionarie
QUALCHE LUCIDO DI RIPASSO… 1. Esperimento casuale ( e. aleatorio) risultato Esperimento condotto sotto leffetto del caso: non è possibile prevederne il.
1.PROBABILITÀ A. Federico ENEA; Fondazione Ugo Bordoni Scuola estiva di fonetica forense Soriano al Cimino 17 – 21 settembre 2007.
Unità 6 Test parametrici e non parametrici Test per la verifica della normalità Funzione di ripartizione.
Unità 2 Distribuzioni di probabilità Misure di localizzazione Misure di variabilità Asimmetria e curtosi.
Errori casuali Si dicono casuali tutti quegli errori che possono avvenire, con la stessa probabilità, sia in difetto che in eccesso. Data questa caratteristica,
Le variabili casuali e la loro distribuzione di probabilità Generalmente, lanciando un dado, si considera il valore numerico della faccia uscita.
Cap. 15 Caso, probabilità e variabili casuali Cioè gli ingredienti matematici per fare buona inferenza statistica.
Laurea Ing EO/IN/BIO;TLC D.U. Ing EO 10 PROBABILITA’ E VARIABILI ALEATORIE.
Lezione B.10 Regressione e inferenza: il modello lineare
Martina Serafini Martina Prandi
R. Soncini Sessa, MODSS, L21 Accettare la casualità Rodolfo Soncini Sessa MODSS Copyright 2004 © Rodolfo Soncini Sessa.
redditività var. continua classi di redditività ( < 0 ; >= 0)
Calcolo delle probabilità a cura di Maurizio Brizzi
“Teoria e metodi della ricerca sociale e organizzativa”
Le distribuzioni campionarie
Intervallo di Confidenza Prof. Ing. Carla Raffaelli A.A:
La variabile casuale (v.c.) è un modello matematico in grado di interpretare gli esperimenti casuali. Infatti gli eventi elementari  che compongono lo.
Modelli di variabili casuali
Eventi aleatori Un evento è aleatorio (casuale) quando non si può prevedere con certezza se avverrà o meno I fenomeni (eventi) aleatori sono studiati.
Elaborazione statistica di dati
1 CORSO DI LAUREA IN FINANZA E ASSICURAZIONI Corso integrato di Statistica e Calcolo delle probabilità Calcolo delle probabilità a cura di Maurizio Brizzi.
TRATTAMENTO STATISTICO DEI DATI ANALITICI
Elementi di teoria delle probabilità
La covarianza.
Operazioni di campionamento CAMPIONAMENTO Tutte le operazioni effettuate per ottenere informazioni sul sito /area da monitorare (a parte quelle di analisi)
Informazioni “Moduli di MATEMATICA E STATISTICA”, S. INVERNIZZI, M. RINALDI, A, SGARRO, Ed. Zanichelli, Bologna Testo di riferimento da cui sono.
L’analisi di regressione e correlazione Prof. Luigi Piemontese.
Elementi di statistica e probabilità Misure Meccaniche e Termiche - Università di Cassino 2 Eventi aleatori e deterministici Un evento aleatorio può.
In alcuni casi gli esiti di un esperimento possono essere considerati numeri naturali in modo naturale. Esempio: lancio di un dado In atri casi si definisce.
1 DISTRIBUZIONI DI PROBABILITÁ. 2 distribu- zione che permette di calcolare le probabilità degli eventi possibili A tutte le variabili casuali, discrete.
Distribuzioni limite La distribuzione normale Si consideri una variabile casuale rappresentata mediante una combinazione lineare di altre variabili casuali.
1 VARIABILI CASUALI. 2 definizione Una variabile casuale è una variabile che assume determinati valori in modo casuale (non deterministico). Esempi l’esito.
Teoria dei Sistemi di Trasporto Tematica 4: Elementi minimi di teoria della probabilità.
Transcript della presentazione:

Funzione di distribuzione (detta anche cumulativa o di ripartizione) X = variabile aleatoria quantitativa = insieme dei risultati di un esperimento per i quali X risulta non superiore a x Proprietà funzione monotona non decrescente

Funzione di distribuzione discreta

Funzione di distribuzione continua

Densità di probabilità X continua Proprietà

Densità di probabilità gaussiana x1 x2

Affidabilità di un sistema (sanitario) Probabilità che il sistema continui a erogare lo stesso servizio dopo un prefissato tempo t trascorso dal suo iniziale funzionamento T = durata di funzionamento, v.a. continua Probabilità di guasto entro il tempo t Probabilità di guasto nell’intervallo (t, t+dt)

Funzione di distribuzione condizionata Con riferimento ad un esperimento qualsiasi, sia M un evento, tale che P(M)>0 e sia X una v.a. associata all’insieme S dei possibili risultati, si definisce funzione di distribuzione FX(x/M) della v.a. X ,condizionata da M, la probabilità condizionata dell’evento {X  x}: P{X  x, M} consiste di tutti i risultati  tali che X() x e M

Densità di probabilità condizionata Per v.a. continue, si definisce analogamente la densità di probabilità condizionata: La fX(x/M) gode di tutte le proprietà della densità di probabilità ordinarie

Affidabilità condizionata Con riferimento all’affidabilità del sistema si voglia valutare la probabilità di guasto, condizionata al fatto che il sistema sia ancora funzionante al tempo t

Tasso di guasto Probabilità che il sistema si guasti nell’intervallo (t, t+dt) supposto che non si sia guastato prima di t Il tasso di guasto è solo funzione del tempo, coincide con la d.p. condizionata solo per  = t Integrando si ottiene la probabilità di guasto entro il tempo t La costante di integrazione è nulla perché

Funzioni del tasso di guasto Proprietà Prima o poi il sistema si guasta Es.: valutare le funzioni per (t) costante =   d.p. esponenziale e per  = kt (k costante)  d.p. di Rayleigh

Il guasto di una unità pregiudica il funzionamento dell’intero sistema Sistema serie 1 2 n Il guasto di una unità pregiudica il funzionamento dell’intero sistema Eventi indipendenti Si dimostra facilmente come, nel caso di tasso di guasto costante per tutte le unità, si abbia 

Sistema parallelo 1 2 n Numero di unità superiori a quelle strettamente necessarie (ridondanti) P.es. nelle emergenze Il sistema è guasto solo se tutte le unità sono guaste, cioè, in alternativa, funziona se almeno una unità è funzionante Es.: nell’ipotesi di unità tutte ugualmente affidabili, valutare l’affidabilità del sistema parallelo se si ritiene funzionante quando almeno 2 unità funzionano

Valore medio Indice che descrive sinteticamente la statistica di un esperimento probabilistico. È il valore più significativo e rappresenta il baricentro dell’esperimento. È detto anche valore atteso (expected value). Tranne in casi particolari, non è però è il punto più probabile (moda) nel caso X sia continua se X è discreta

Momenti di ordine k Forniscono una più completa caratterizzazione della statistica della v.a. X continua X discreta

Momenti centrali di ordine k Varianza Operano sugli scarti dal valor medio ed eliminano l’effetto della posizione dell’origine nella scala di misura Il momento centrale del secondo ordine è detto varianza e rappresenta la dispersione dei valori del fenomeno attorno al valor medio

Disuguaglianza di Chebyshev Vale per qualsiasi v.a. con varianza finita e fX(x) arbitraria Garantisce che tutti i valori sono addensati attorno al valor medio  definisce un limite dal valor medio oltre il quale la probabilità di X è nota (attraverso la varianza) ed è sufficientemente bassa Applicazioni: scarto di valori di misura estremi (a ds e sn), che hanno poca probabilità di accadere; pulizia dati. Es.: volendo scartare il 5% di dati si fissa =0.025

Funzione di distribuzione congiunta di due o più v.a. quantitative = insieme dei risultati di un esperimento per i quali risulta sia X non superiore a x, sia Y non superiore a y

Date due o più v.a. quantitative, esse sono indipendenti se: Indipendenza Date due o più v.a. quantitative, esse sono indipendenti se:

Probabilità congiunta di due eventi discreti Per semplicità consideriamo due v.a. X e Y discrete o qualitative e rappresentiamo le probabilità dei rispettivi eventi A e B nello spazio S degli eventi. La probabilità congiunta è rappresentata dall’intersezione , cioè: S Diagramma di Venn B A AB

Discende dalla probabilità congiunta Teorema di Bayes Discende dalla probabilità congiunta Inferenza bayesiana: la probabilità ‘a posteriori’ (condizionata) di un evento A può essere valutata attraverso la sua probabilità ‘a priori’ e le probabilità di un evento B che condiziona A. B è un’evento già accaduto, rappresenta l’informazione incorporata nel meccanismo inferenziale e contribuisce a ridurre l’incertezza nella stima di A  aumento della probabilità ‘a posteriori’

Densità di probabilità congiunta di due v.a. continue Per analogia al caso discreto si ha:

Teorema di Bayes per v.a. quantitative X, Y generiche X, Y continue X discreta Y continua X continua Y discreta

Funzioni di distribuzione marginali Date due v.a. X, Y quantitative, si ha: È noto anche che:

Densità di probabilità marginali Se X e Y sono continue, si hanno le densità di probabilità marginali: In base alla formula delle d.p. congiunte si trova:

Proprietà della marginalizzazione Data una v.a. continua  che assume valori , è sempre possibile esprimere la densità di probabilità di un’altra v.a. X, come: