Scaricare la presentazione
La presentazione è in caricamento. Aspetta per favore
1
Nona lezione, prima del secondo modulo http://people.na.infn.it/palladin/Lezioni2010-11/110301Lezione09.pdf AA 2010-11
3
Applicandolo agli errori casuali, soprattutto quelli statistici ne Anche il caso ha regole
4
Una gita scolastica …. a Monte Carlo
7
spesso
8
finito di “successi”
9
frequenza F Sara’ essenziale un attento studio della probabilita’ binomiale di testa, per es.
11
su queste modalita’ si distribuisce la distribuzione di probabilita’ P(A), dove ciascuna P(A) e’ un NB senza dimensioni
12
Il secondo assioma regola la probabilita’ totale
16
Conseguenze degli assiomi 1) P( A i )=Σ i P(A i ) se AiAi Ai=Ai= i,j principio delle probabilita’ totali Dim P(A B C)= P(A B)+P(C)= P(A)+P(B)+P(C) etc 2) P( )= 0.00 Dim 3) P(A)= 1-P(A) 4) P(B) ≤ P(A)4) P(A)= 1-P(A) 4) P(A B)= P(A)+ P(B)- P(A B)
17
Cosi’ in generale: P(A B)=P(A)+P(B)-P(A B) se A B = conteggio doppio, altrimenti !
18
Scriviamo. P(A,B) = P(A)* P(B)* F(A,B) = dove F(A,B) = P(A,B)/(P(A)*P(B)) e poi = P(A)*F(A,B) F(A,B) = 1 F(A,B) > 1, se si favoriscono, probabilisticamente F(A,B) < 1, se si sfavoriscono, probabilisticamente = P(B)*F(A,B)
19
P(A e B)= =P(A,B) =P(A) F(A,B) P(B) P(B/A) P(A/B) F(A,B)>1 ⇒ P(A,B) > P(A) P(B) F(A,B)=1 ⇒ P(A,B) = P(A) P(B) F(A,B)<1 ⇒ P(A,B) < P(A) P(B) si favoriscono sono indipendenti si sfavoriscono
23
Primi esempi di distribuzioni di probabilita’ cioe’ insiemi {P j } di numeri reali P j ciascuno probabilita’dell’ esito j j-esimo degli n esiti ( j=1, … n) su cui la probabilita’ si distribuisce NB P j soddisfano Σ P j = 1 e gli altri assiomi
24
Due esiti di probabilita’ qualunque (moneta “truccata”) - + P testa =q= (1-p) >1/2 P croce = p <1/2 p+q=1 L’ esempio primordiale: due esiti maschiofemmina materia antimateria successoinsuccesso
25
Altri esempi di distribuzioni uniformi 2 Sconfitta totocalcio: le probabilita’ di una partita “da tripla” NB P j 1/n se si “spalma” su piu’ esiti P j deve ridursi per mantenere Σ P j = 1 !!!!!! X Pareggio 0 1 Vittoria +1 1/3
26
Distribuzioni non uniformi Aaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa aaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa 1 testa 1 croce 0 0 testa 2 croce +2 2 testa 0 croce -2 2 monete 3 monete 2 testa 1 croce 0 testa 3 croce +3 3 testa 0 croce -3 1/4 1/2 1 testa 2 croce +1 1/8 3/8 NB primi esempi di distribuzioni binomiali PjPj PjPj
28
NB P j 1/n P deve ridursi se si “spalma” su piu’ esiti per mantenere Σ P j = 1 Se gli esiti diventano continui l’ indice j diventa una variabile continua x Distribuzione uniforme continua A a 0 <j< 36 0 <x< L x x
29
0 <j< 36 0 <x< L x x P( x<x<x+dx)=dP= = p(x)dx
30
ΣjΣj dx deve esserci un area
31
Distribuzioni continue non uniformi g(x)dx = dG = dP = p(x)dx aaaaaaaaa La gaussiana e’ certo la piu’ importante anche qui, deve esserci un area
32
Definizione dei momenti di una distribuzione di probabilita’ Media di x m Media degli scarti x-m … (=0 !) Media degli scarti quadratici (x-m) 2 varianza = σ 2 σ = dev standard Media degli scarti cubici etc
33
Definizione di valore medio di una variabile casuale p(x) PxiPxi Il baricentro della distribuzione detto anche momento primo intorno all’ origine
34
Nota Bene m = non e’ la media aritmetica di n misure x E’ una proprieta’ della distribuzione Non ci sono (ancora) misure, qui !!!!!!
35
Nota Bene m non e’ la media aritmetica di n misure x E’ una proprieta’ della distribuzione Non ci sono (ancora) misure, qui !!!!!! Sono due cose diverse !!!! m= x n → ∞
36
Primi Esempi m = = Σ P j x j = (½) (-1)+ (½) (+1)= 0 Il valore medio per il lancio d’una moneta e’ zero !! Come spesso, il valore medio non e’ un’ esito possibile - + P testa =q >1/2 P croce = p <1/2 successoinsuccesso Due esiti non equiprobabili m = = Σ P j x j = q (-1)+ p (+1) = p-q Anche qui, il valore medio non e’ un’ esito possibile
37
Altri esempi di medie….. non e’ un esito e’ un esito
40
Lo scarto medio (il momento d’ ordine uno) intorno al valore atteso e’ identicamente 0 = Σ j P j (x j -m) = Σ j P j x j - Σ j P j m = m - m =0 come lo scarto medio di n misure intorno alla loro media aritmetica x non e’ un concetto utile Dobbiamo ricorrere allo scarto quadratico medio (il momento d’ ordine due)
42
Nota Bene σ non e’ la S “del laboratorio” e’ la sua astrazione concettuale σ = deviazione standard della distribuzione = √ Σ j P j (x j -m) 2 σ e’ una proprieta’ della distribuzione S = stima della deviazione standard di n misure= √ Σ i (xi-x) 2 /(N-1) e’ una stima ottenuta da un campione Non ci sono (ancora) misure, qui !!!!!! Sono due cose diverse !!!! σ n → ∞ S
43
Primi Esempi Come spesso, il valore medio non e’ un’ esito possibile - + P testa =q >1/2 P croce = p <1/2 successoinsuccesso Due esiti non equiprobabili +1 = [-1- (p-q)] 2 q + [+1- (p-q)] 2 p = 4pq = p-q p+q =1
44
Altri esempi di dev. standard
45
Lo scarto cubico medio aaaaa 3 3 3 3 a E’ il primo momento dispari dello scarto x-m non identicamente nullo Lo incontreremo in alcuni casi Spesso nella forma adimenionale Misura la simmetria intorno a m μ 3 (m) β = μ 3 (m)/σ 3 Piu’ momenti μ 4 (m), μ 5 (m) etc fornisco meglio descrivo le proprieta’ GLOBALI della P j E cosi’ via
46
Un primo esempio nel continuo: la distribuzione uniforme
47
Un secondo esempio nel continuo: la distribuzione di Gauss Vedremo, facendo i due integrali, che = m = σ 2 β = μ 3 (m)/σ 3 =0
48
σ 2 = = = = -2m + m 2 = - 2m 2 +m 2 = = - m 2 = = - 2 = La varianza e’ la media dei quadrati meno il quadrato della media
49
Scriviamo. P(A,B) = P(A)* P(B)* F(A,B) = dove F(A,B) = P(A,B)/(P(A)*P(B)) e poi = P(A)*F(A,B) F(A,B) = 1 = P(B)*F(A,B) = ΣiΣi = = ∫dx∫ dy xp(x,y) ∫dx x p(x) = σx2 =σx2 = P i = Σ j P ij P j = Σ i P ij p(x)=∫ dy p(x,y) p(y)=∫ dx p(x,y) x i P ij ΣiΣjΣiΣj = Σ i x i P i = ΣiΣjΣiΣj yjPjyjPj y j P ij =Σi=Σi = x x y y dP= dxdy p(x,y) in generale > p(x,y) = p(x) (p(y) < P ij = P(x i,y j ) in generale > P ij = P i P j < P ij = P (x i, y j ) σ xy ΣiΣjΣiΣj (x i - )(y j - ) P ij ) (y- )> = - = (x- ) (y- )p(x,y)∫∫dxdy ∫dx∫ dy xp(x,y) = ∫dy∫ dx yp(x,y) ∫dy y p(y) = covarianza di x e y = = = ∫dx x p(x) ) 2 > = ΣiΣi (x i - ) 2 P i σx2 =σx2 = ) 2 >= (y j - ) 2 P j σy2 =σy2 = ΣjΣj ) 2 > = σy2 =σy2 = ∫dy(y- ) 2 p(y) ) 2 > = ∫dx(x- ) 2 p(x) σx2 =σx2 =
50
Varianze e Covarianza σ x 2 = = ) (x- )> = ) 2 > = = - 2 σ y 2 = = ) (y- )> = ) 2 > = = - 2 σ xy = ) (y- )> = - La covarianza non deve essere positiva !!! e’ nulla, se x e y sono indipendenti e’ positiva, se x e y si favoriscono e’ negativa, se x e y si sfavoriscono una fluttuazione di y- con stesso segno accompagna una di x- piu’ spesso che una con segno opposto una fluttuazione di y- con segno opposto accompagna una di x- piu’ spesso che una con stesso segno una fluttuazione di y- con stesso segno accompagna una di x- altrettanto spesso che una con segno opposto sempre positive
53
se y= x σ xy = σ x σ x = σ x 2 se y= f(x) σ xy = σ x σ f(x) ~ df/dx σ x 2 positiva Positiva o negativa Massima correlazione in caso di dipendenza funzionale
54
ε
55
MA!!!
Presentazioni simili
© 2024 SlidePlayer.it Inc.
All rights reserved.