Nona lezione, prima del secondo modulo AA 2010-11.

Slides:



Advertisements
Presentazioni simili
Le distribuzioni di probabilità continue
Advertisements

LA VARIABILITA’ IV lezione di Statistica Medica.
Distribuzione Normale o Curva di Gauss
Matematica I: Calcolo differenziale, Algebra lineare, Probabilità e statistica Giovanni Naldi, Lorenzo Pareschi, Giacomo Aletti Copyright © The.
2.VARIABILI CONTINUE A. Federico ENEA; Fondazione Ugo Bordoni Scuola estiva di fonetica forense Soriano al Cimino 17 – 21 settembre 2007.
Variabili casuali a più dimensioni
Inferenza Statistica Le componenti teoriche dell’Inferenza Statistica sono: la teoria dei campioni la teoria della probabilità la teoria della stima dei.
Lez. 3 - Gli Indici di VARIABILITA’
Elementi di statistica Elementi di statistica M. Dreucci Masterclasses LNF Elementi di statistica M. Dreucci.
Progetto Pilota 2 Lettura e interpretazione dei risultati
VARIABILI DOPPIE: UN ESEMPIO
Distribuzione degli Errori di Misura
Valutazione delle ipotesi
Distribuzione degli Errori di Misura La distribuzione normale Johann Carl Friedrich Gauss ( )
DISTRIBUZIONE CAMPIONARIA CONGIUNTA DI DUE VARIABILI (1)
DIFFERENZA TRA LE MEDIE
Flusso Flusso del campo elettrico Superficie aperta Superficie chiusa
Corso di biomatematica lezione 4: La funzione di Gauss
Corso di biomatematica Lezione 2: Probabilità e distribuzioni di probabilità Davide Grandi.
Corso di biomatematica lezione 6: la funzione c2
STATISTICA a.a METODO DEI MINIMI QUADRATI REGRESSIONE
Analisi bivariata Passiamo allo studio delle relazioni tra variabili
Lezione 4 Probabilità.
Popolazione campione Y - variabile casuale y - valori argomentali Frequenza relativa: Estrazione Densità della classe i-esima: Lezione 1.
Pag. 1 A.A A. Mostacci – Confronti fra misure Confronto fra misure 1. Confronto fra misure e valor atteso (previsione teorica, …) 2. Confronto.
Teoria degli errori.
Le distribuzioni campionarie
Unità 2 Distribuzioni di probabilità Misure di localizzazione Misure di variabilità Asimmetria e curtosi.
Errori casuali Si dicono casuali tutti quegli errori che possono avvenire, con la stessa probabilità, sia in difetto che in eccesso. Data questa caratteristica,
Errori casuali Si dicono casuali tutti quegli errori che possono avvenire, con la stessa probabilità, sia in difetto che in eccesso. Data questa caratteristica,
INDICE I VALORI MEDI LA MEDIA GEOMETRICA LA MEDIA ARITMETICA
Le variabili casuali e la loro distribuzione di probabilità Generalmente, lanciando un dado, si considera il valore numerico della faccia uscita.
STATISTICA PER LA RICERCA SPERIMENTALE E TECNOLOGICA
Cap. 15 Caso, probabilità e variabili casuali Cioè gli ingredienti matematici per fare buona inferenza statistica.
PROPAGAZIONE DEGLI ERRORI:
La verifica d’ipotesi Docente Dott. Nappo Daniela
Lezione B.10 Regressione e inferenza: il modello lineare
Strumenti statistici in Excell
Il residuo nella predizione
Calcolo delle probabilità a cura di Maurizio Brizzi
COVARIANZA: DEFINIZIONE E CALCOLO
9) VERIFICA DI IPOTESI L’ipotesi statistica è una supposizione riguardante caratteristiche ignote ignote di una v.c. X. Es.: campionamento con ripetizione,
Analisi e Gestione del Rischio Lezione 7 Prodotti con pay-off non lineare.
Metodi Quantitativi per Economia, Finanza e Management Lezione n°5.
Metodi Quantitativi per Economia, Finanza e Management Lezione n°7.
PROBABILITÀ Corsi Abilitanti Speciali Classe 59A III semestre - 2.
Metodo di Cramer Dato il sistema lineare a due incognite per risolvere il sistema dobbiamo costruire 3 matrici. È detta matrice un qualsiasi gruppo di.
Eventi aleatori Un evento è aleatorio (casuale) quando non si può prevedere con certezza se avverrà o meno I fenomeni (eventi) aleatori sono studiati.
La distribuzione campionaria della media
UNIVERSITA’ DEGLI STUDI DI PERUGIA
Elaborazione statistica di dati
Metodologia della ricerca e analisi dei dati in (psico)linguistica 24 Giugno 2015 Statistica inferenziale
STATISTICHE DESCRITTIVE
TRATTAMENTO STATISTICO DEI DATI ANALITICI
STATISTICA P IA F ONDAZIONE DI C ULTO E R ELIGIONE C ARD. G. P ANICO Azienda Ospedaliera CORSO DI LAUREA IN INFERMIERISTICA Sr. Margherita Bramato.
La covarianza.
Informazioni “Moduli di MATEMATICA E STATISTICA”, S. INVERNIZZI, M. RINALDI, A, SGARRO, Ed. Zanichelli, Bologna Testo di riferimento da cui sono.
16) STATISTICA pag.22. Frequenze frequenza assoluta (o frequenza): numero che esprime quante volte un certo valore compare in una rilevazione statistica.
L’analisi di regressione e correlazione Prof. Luigi Piemontese.
Elementi di statistica e probabilità Misure Meccaniche e Termiche - Università di Cassino 2 Eventi aleatori e deterministici Un evento aleatorio può.
DIPENDENZA STATISTICA TRA DUE CARATTERI Per una stessa collettività può essere interessante studiare più caratteri presenti contemporaneamente in ogni.
Elementi di teoria della probabilità e distribuzioni di probabilità.
LAUREA IN SCIENZE NATURALI (CLASSE L-32) LAUREA IN SCIENZE GEOLOGICHE (CLASSE L-34) Lezioni del II semestre – A.A. 2011/2012 Matematica con elementi di.
In alcuni casi gli esiti di un esperimento possono essere considerati numeri naturali in modo naturale. Esempio: lancio di un dado In atri casi si definisce.
1 DISTRIBUZIONI DI PROBABILITÁ. 2 distribu- zione che permette di calcolare le probabilità degli eventi possibili A tutte le variabili casuali, discrete.
1 VARIABILI CASUALI. 2 definizione Una variabile casuale è una variabile che assume determinati valori in modo casuale (non deterministico). Esempi l’esito.
Analisi delle osservazioni
Introduzione alle distribuzioni di probabilità di Gauss o normale di Bernoulli o binomiale di Poisson o dei casi rari.
Psicometria modulo 1 Scienze tecniche e psicologiche Prof. Carlo Fantoni Dipartimento di Scienze della Vita Università di Trieste Implementazione.
Teoria dei Sistemi di Trasporto Tematica 4: Elementi minimi di teoria della probabilità.
Transcript della presentazione:

Nona lezione, prima del secondo modulo AA

Applicandolo agli errori casuali, soprattutto quelli statistici ne Anche il caso ha regole

Una gita scolastica …. a Monte Carlo

spesso

finito di “successi”

frequenza F Sara’ essenziale un attento studio della probabilita’ binomiale di testa, per es.

su queste modalita’ si distribuisce la distribuzione di probabilita’ P(A), dove ciascuna P(A) e’ un NB senza dimensioni

Il secondo assioma regola la probabilita’ totale

Conseguenze degli assiomi 1) P(  A i )=Σ i P(A i ) se AiAi Ai=Ai= i,j principio delle probabilita’ totali Dim P(A  B  C)= P(A  B)+P(C)= P(A)+P(B)+P(C) etc 2) P(  )= 0.00 Dim 3) P(A)= 1-P(A) 4) P(B) ≤ P(A)4) P(A)= 1-P(A) 4) P(A  B)= P(A)+ P(B)- P(A  B)

Cosi’ in generale: P(A  B)=P(A)+P(B)-P(A  B) se A  B =  conteggio doppio, altrimenti !

Scriviamo. P(A,B) = P(A)* P(B)* F(A,B) = dove F(A,B) = P(A,B)/(P(A)*P(B)) e poi = P(A)*F(A,B) F(A,B) = 1 F(A,B) > 1, se si favoriscono, probabilisticamente F(A,B) < 1, se si sfavoriscono, probabilisticamente = P(B)*F(A,B)

P(A e B)= =P(A,B) =P(A) F(A,B) P(B) P(B/A) P(A/B) F(A,B)>1 ⇒ P(A,B) > P(A) P(B) F(A,B)=1 ⇒ P(A,B) = P(A) P(B) F(A,B)<1 ⇒ P(A,B) < P(A) P(B) si favoriscono sono indipendenti si sfavoriscono

Primi esempi di distribuzioni di probabilita’ cioe’ insiemi {P j } di numeri reali P j ciascuno probabilita’dell’ esito j j-esimo degli n esiti ( j=1, … n) su cui la probabilita’ si distribuisce NB P j soddisfano Σ P j = 1 e gli altri assiomi

Due esiti di probabilita’ qualunque (moneta “truccata”) - + P testa =q= (1-p) >1/2 P croce = p <1/2 p+q=1 L’ esempio primordiale: due esiti maschiofemmina materia antimateria successoinsuccesso

Altri esempi di distribuzioni uniformi 2 Sconfitta totocalcio: le probabilita’ di una partita “da tripla” NB P j  1/n se si “spalma” su piu’ esiti P j deve ridursi per mantenere Σ P j = 1 !!!!!! X Pareggio 0 1 Vittoria +1 1/3

Distribuzioni non uniformi Aaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa aaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa 1 testa 1 croce 0 0 testa 2 croce +2 2 testa 0 croce -2 2 monete 3 monete 2 testa 1 croce 0 testa 3 croce +3 3 testa 0 croce -3 1/4 1/2 1 testa 2 croce +1 1/8 3/8 NB primi esempi di distribuzioni binomiali PjPj PjPj

NB P j  1/n P deve ridursi se si “spalma” su piu’ esiti per mantenere Σ P j = 1 Se gli esiti diventano continui l’ indice j diventa una variabile continua x Distribuzione uniforme continua A a 0 <j< 36 0 <x< L x x

0 <j< 36 0 <x< L x x P( x<x<x+dx)=dP= = p(x)dx

ΣjΣj  dx deve esserci un area

Distribuzioni continue non uniformi g(x)dx = dG = dP = p(x)dx aaaaaaaaa La gaussiana e’ certo la piu’ importante anche qui, deve esserci un area

Definizione dei momenti di una distribuzione di probabilita’ Media di x m Media degli scarti x-m … (=0 !) Media degli scarti quadratici (x-m) 2 varianza = σ 2 σ = dev standard Media degli scarti cubici etc

Definizione di valore medio di una variabile casuale p(x) PxiPxi Il baricentro della distribuzione detto anche momento primo intorno all’ origine

Nota Bene m = non e’ la media aritmetica di n misure x E’ una proprieta’ della distribuzione Non ci sono (ancora) misure, qui !!!!!!

Nota Bene m non e’ la media aritmetica di n misure x E’ una proprieta’ della distribuzione Non ci sono (ancora) misure, qui !!!!!! Sono due cose diverse !!!! m= x n → ∞

Primi Esempi m = = Σ P j x j = (½) (-1)+ (½) (+1)= 0 Il valore medio per il lancio d’una moneta e’ zero !! Come spesso, il valore medio non e’ un’ esito possibile - + P testa =q >1/2 P croce = p <1/2 successoinsuccesso Due esiti non equiprobabili m = = Σ P j x j = q (-1)+ p (+1) = p-q Anche qui, il valore medio non e’ un’ esito possibile

Altri esempi di medie….. non e’ un esito e’ un esito

Lo scarto medio (il momento d’ ordine uno) intorno al valore atteso e’ identicamente 0 = Σ j P j (x j -m) = Σ j P j x j - Σ j P j m = m - m =0 come lo scarto medio di n misure intorno alla loro media aritmetica x non e’ un concetto utile Dobbiamo ricorrere allo scarto quadratico medio (il momento d’ ordine due)

Nota Bene σ non e’ la S “del laboratorio” e’ la sua astrazione concettuale σ = deviazione standard della distribuzione = √ Σ j P j (x j -m) 2 σ e’ una proprieta’ della distribuzione S = stima della deviazione standard di n misure= √ Σ i (xi-x) 2 /(N-1) e’ una stima ottenuta da un campione Non ci sono (ancora) misure, qui !!!!!! Sono due cose diverse !!!! σ n → ∞ S

Primi Esempi Come spesso, il valore medio non e’ un’ esito possibile - + P testa =q >1/2 P croce = p <1/2 successoinsuccesso Due esiti non equiprobabili +1 = [-1- (p-q)] 2 q + [+1- (p-q)] 2 p = 4pq = p-q p+q =1

Altri esempi di dev. standard

Lo scarto cubico medio aaaaa a E’ il primo momento dispari dello scarto x-m non identicamente nullo Lo incontreremo in alcuni casi Spesso nella forma adimenionale Misura la simmetria intorno a m μ 3 (m) β = μ 3 (m)/σ 3 Piu’ momenti μ 4 (m), μ 5 (m) etc fornisco meglio descrivo le proprieta’ GLOBALI della P j E cosi’ via

Un primo esempio nel continuo: la distribuzione uniforme

Un secondo esempio nel continuo: la distribuzione di Gauss Vedremo, facendo i due integrali, che = m = σ 2 β = μ 3 (m)/σ 3 =0

σ 2 = = = = -2m + m 2 = - 2m 2 +m 2 = = - m 2 = = - 2 = La varianza e’ la media dei quadrati meno il quadrato della media

Scriviamo. P(A,B) = P(A)* P(B)* F(A,B) = dove F(A,B) = P(A,B)/(P(A)*P(B)) e poi = P(A)*F(A,B) F(A,B) = 1 = P(B)*F(A,B) = ΣiΣi = = ∫dx∫ dy xp(x,y) ∫dx x p(x) = σx2 =σx2 = P i = Σ j P ij P j = Σ i P ij p(x)=∫ dy p(x,y) p(y)=∫ dx p(x,y) x i P ij ΣiΣjΣiΣj = Σ i x i P i = ΣiΣjΣiΣj yjPjyjPj y j P ij =Σi=Σi = x x y y dP= dxdy p(x,y) in generale > p(x,y) = p(x) (p(y) < P ij = P(x i,y j ) in generale > P ij = P i P j < P ij = P (x i, y j ) σ xy ΣiΣjΣiΣj (x i - )(y j - ) P ij ) (y- )> = - = (x- ) (y- )p(x,y)∫∫dxdy ∫dx∫ dy xp(x,y) = ∫dy∫ dx yp(x,y) ∫dy y p(y) = covarianza di x e y = = = ∫dx x p(x) ) 2 > = ΣiΣi (x i - ) 2 P i σx2 =σx2 = ) 2 >= (y j - ) 2 P j σy2 =σy2 = ΣjΣj ) 2 > = σy2 =σy2 = ∫dy(y- ) 2 p(y) ) 2 > = ∫dx(x- ) 2 p(x) σx2 =σx2 =

Varianze e Covarianza σ x 2 = = ) (x- )> = ) 2 > = = - 2 σ y 2 = = ) (y- )> = ) 2 > = = - 2 σ xy = ) (y- )> = - La covarianza non deve essere positiva !!! e’ nulla, se x e y sono indipendenti e’ positiva, se x e y si favoriscono e’ negativa, se x e y si sfavoriscono una fluttuazione di y- con stesso segno accompagna una di x- piu’ spesso che una con segno opposto una fluttuazione di y- con segno opposto accompagna una di x- piu’ spesso che una con stesso segno una fluttuazione di y- con stesso segno accompagna una di x- altrettanto spesso che una con segno opposto sempre positive

se y= x σ xy = σ x σ x = σ x 2 se y= f(x) σ xy = σ x σ f(x) ~ df/dx σ x 2 positiva Positiva o negativa Massima correlazione in caso di dipendenza funzionale

ε

MA!!!