Nona lezione, prima del secondo modulo AA
Applicandolo agli errori casuali, soprattutto quelli statistici ne Anche il caso ha regole
Una gita scolastica …. a Monte Carlo
spesso
finito di “successi”
frequenza F Sara’ essenziale un attento studio della probabilita’ binomiale di testa, per es.
su queste modalita’ si distribuisce la distribuzione di probabilita’ P(A), dove ciascuna P(A) e’ un NB senza dimensioni
Il secondo assioma regola la probabilita’ totale
Conseguenze degli assiomi 1) P( A i )=Σ i P(A i ) se AiAi Ai=Ai= i,j principio delle probabilita’ totali Dim P(A B C)= P(A B)+P(C)= P(A)+P(B)+P(C) etc 2) P( )= 0.00 Dim 3) P(A)= 1-P(A) 4) P(B) ≤ P(A)4) P(A)= 1-P(A) 4) P(A B)= P(A)+ P(B)- P(A B)
Cosi’ in generale: P(A B)=P(A)+P(B)-P(A B) se A B = conteggio doppio, altrimenti !
Scriviamo. P(A,B) = P(A)* P(B)* F(A,B) = dove F(A,B) = P(A,B)/(P(A)*P(B)) e poi = P(A)*F(A,B) F(A,B) = 1 F(A,B) > 1, se si favoriscono, probabilisticamente F(A,B) < 1, se si sfavoriscono, probabilisticamente = P(B)*F(A,B)
P(A e B)= =P(A,B) =P(A) F(A,B) P(B) P(B/A) P(A/B) F(A,B)>1 ⇒ P(A,B) > P(A) P(B) F(A,B)=1 ⇒ P(A,B) = P(A) P(B) F(A,B)<1 ⇒ P(A,B) < P(A) P(B) si favoriscono sono indipendenti si sfavoriscono
Primi esempi di distribuzioni di probabilita’ cioe’ insiemi {P j } di numeri reali P j ciascuno probabilita’dell’ esito j j-esimo degli n esiti ( j=1, … n) su cui la probabilita’ si distribuisce NB P j soddisfano Σ P j = 1 e gli altri assiomi
Due esiti di probabilita’ qualunque (moneta “truccata”) - + P testa =q= (1-p) >1/2 P croce = p <1/2 p+q=1 L’ esempio primordiale: due esiti maschiofemmina materia antimateria successoinsuccesso
Altri esempi di distribuzioni uniformi 2 Sconfitta totocalcio: le probabilita’ di una partita “da tripla” NB P j 1/n se si “spalma” su piu’ esiti P j deve ridursi per mantenere Σ P j = 1 !!!!!! X Pareggio 0 1 Vittoria +1 1/3
Distribuzioni non uniformi Aaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa aaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa 1 testa 1 croce 0 0 testa 2 croce +2 2 testa 0 croce -2 2 monete 3 monete 2 testa 1 croce 0 testa 3 croce +3 3 testa 0 croce -3 1/4 1/2 1 testa 2 croce +1 1/8 3/8 NB primi esempi di distribuzioni binomiali PjPj PjPj
NB P j 1/n P deve ridursi se si “spalma” su piu’ esiti per mantenere Σ P j = 1 Se gli esiti diventano continui l’ indice j diventa una variabile continua x Distribuzione uniforme continua A a 0 <j< 36 0 <x< L x x
0 <j< 36 0 <x< L x x P( x<x<x+dx)=dP= = p(x)dx
ΣjΣj dx deve esserci un area
Distribuzioni continue non uniformi g(x)dx = dG = dP = p(x)dx aaaaaaaaa La gaussiana e’ certo la piu’ importante anche qui, deve esserci un area
Definizione dei momenti di una distribuzione di probabilita’ Media di x m Media degli scarti x-m … (=0 !) Media degli scarti quadratici (x-m) 2 varianza = σ 2 σ = dev standard Media degli scarti cubici etc
Definizione di valore medio di una variabile casuale p(x) PxiPxi Il baricentro della distribuzione detto anche momento primo intorno all’ origine
Nota Bene m = non e’ la media aritmetica di n misure x E’ una proprieta’ della distribuzione Non ci sono (ancora) misure, qui !!!!!!
Nota Bene m non e’ la media aritmetica di n misure x E’ una proprieta’ della distribuzione Non ci sono (ancora) misure, qui !!!!!! Sono due cose diverse !!!! m= x n → ∞
Primi Esempi m = = Σ P j x j = (½) (-1)+ (½) (+1)= 0 Il valore medio per il lancio d’una moneta e’ zero !! Come spesso, il valore medio non e’ un’ esito possibile - + P testa =q >1/2 P croce = p <1/2 successoinsuccesso Due esiti non equiprobabili m = = Σ P j x j = q (-1)+ p (+1) = p-q Anche qui, il valore medio non e’ un’ esito possibile
Altri esempi di medie….. non e’ un esito e’ un esito
Lo scarto medio (il momento d’ ordine uno) intorno al valore atteso e’ identicamente 0 = Σ j P j (x j -m) = Σ j P j x j - Σ j P j m = m - m =0 come lo scarto medio di n misure intorno alla loro media aritmetica x non e’ un concetto utile Dobbiamo ricorrere allo scarto quadratico medio (il momento d’ ordine due)
Nota Bene σ non e’ la S “del laboratorio” e’ la sua astrazione concettuale σ = deviazione standard della distribuzione = √ Σ j P j (x j -m) 2 σ e’ una proprieta’ della distribuzione S = stima della deviazione standard di n misure= √ Σ i (xi-x) 2 /(N-1) e’ una stima ottenuta da un campione Non ci sono (ancora) misure, qui !!!!!! Sono due cose diverse !!!! σ n → ∞ S
Primi Esempi Come spesso, il valore medio non e’ un’ esito possibile - + P testa =q >1/2 P croce = p <1/2 successoinsuccesso Due esiti non equiprobabili +1 = [-1- (p-q)] 2 q + [+1- (p-q)] 2 p = 4pq = p-q p+q =1
Altri esempi di dev. standard
Lo scarto cubico medio aaaaa a E’ il primo momento dispari dello scarto x-m non identicamente nullo Lo incontreremo in alcuni casi Spesso nella forma adimenionale Misura la simmetria intorno a m μ 3 (m) β = μ 3 (m)/σ 3 Piu’ momenti μ 4 (m), μ 5 (m) etc fornisco meglio descrivo le proprieta’ GLOBALI della P j E cosi’ via
Un primo esempio nel continuo: la distribuzione uniforme
Un secondo esempio nel continuo: la distribuzione di Gauss Vedremo, facendo i due integrali, che = m = σ 2 β = μ 3 (m)/σ 3 =0
σ 2 = = = = -2m + m 2 = - 2m 2 +m 2 = = - m 2 = = - 2 = La varianza e’ la media dei quadrati meno il quadrato della media
Scriviamo. P(A,B) = P(A)* P(B)* F(A,B) = dove F(A,B) = P(A,B)/(P(A)*P(B)) e poi = P(A)*F(A,B) F(A,B) = 1 = P(B)*F(A,B) = ΣiΣi = = ∫dx∫ dy xp(x,y) ∫dx x p(x) = σx2 =σx2 = P i = Σ j P ij P j = Σ i P ij p(x)=∫ dy p(x,y) p(y)=∫ dx p(x,y) x i P ij ΣiΣjΣiΣj = Σ i x i P i = ΣiΣjΣiΣj yjPjyjPj y j P ij =Σi=Σi = x x y y dP= dxdy p(x,y) in generale > p(x,y) = p(x) (p(y) < P ij = P(x i,y j ) in generale > P ij = P i P j < P ij = P (x i, y j ) σ xy ΣiΣjΣiΣj (x i - )(y j - ) P ij ) (y- )> = - = (x- ) (y- )p(x,y)∫∫dxdy ∫dx∫ dy xp(x,y) = ∫dy∫ dx yp(x,y) ∫dy y p(y) = covarianza di x e y = = = ∫dx x p(x) ) 2 > = ΣiΣi (x i - ) 2 P i σx2 =σx2 = ) 2 >= (y j - ) 2 P j σy2 =σy2 = ΣjΣj ) 2 > = σy2 =σy2 = ∫dy(y- ) 2 p(y) ) 2 > = ∫dx(x- ) 2 p(x) σx2 =σx2 =
Varianze e Covarianza σ x 2 = = ) (x- )> = ) 2 > = = - 2 σ y 2 = = ) (y- )> = ) 2 > = = - 2 σ xy = ) (y- )> = - La covarianza non deve essere positiva !!! e’ nulla, se x e y sono indipendenti e’ positiva, se x e y si favoriscono e’ negativa, se x e y si sfavoriscono una fluttuazione di y- con stesso segno accompagna una di x- piu’ spesso che una con segno opposto una fluttuazione di y- con segno opposto accompagna una di x- piu’ spesso che una con stesso segno una fluttuazione di y- con stesso segno accompagna una di x- altrettanto spesso che una con segno opposto sempre positive
se y= x σ xy = σ x σ x = σ x 2 se y= f(x) σ xy = σ x σ f(x) ~ df/dx σ x 2 positiva Positiva o negativa Massima correlazione in caso di dipendenza funzionale
ε
MA!!!