La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Nona lezione, prima del secondo modulo AA 2010-11.

Presentazioni simili


Presentazione sul tema: "Nona lezione, prima del secondo modulo AA 2010-11."— Transcript della presentazione:

1 Nona lezione, prima del secondo modulo AA

2

3 Applicandolo agli errori casuali, soprattutto quelli statistici ne Anche il caso ha regole

4 Una gita scolastica …. a Monte Carlo

5

6

7 spesso

8 finito di “successi”

9 frequenza F Sara’ essenziale un attento studio della probabilita’ binomiale di testa, per es.

10

11 su queste modalita’ si distribuisce la distribuzione di probabilita’ P(A), dove ciascuna P(A) e’ un NB senza dimensioni

12 Il secondo assioma regola la probabilita’ totale

13

14

15

16 Conseguenze degli assiomi 1) P(  A i )=Σ i P(A i ) se AiAi Ai=Ai= i,j principio delle probabilita’ totali Dim P(A  B  C)= P(A  B)+P(C)= P(A)+P(B)+P(C) etc 2) P(  )= 0.00 Dim 3) P(A)= 1-P(A) 4) P(B) ≤ P(A)4) P(A)= 1-P(A) 4) P(A  B)= P(A)+ P(B)- P(A  B)

17 Cosi’ in generale: P(A  B)=P(A)+P(B)-P(A  B) se A  B =  conteggio doppio, altrimenti !

18 Scriviamo. P(A,B) = P(A)* P(B)* F(A,B) = dove F(A,B) = P(A,B)/(P(A)*P(B)) e poi = P(A)*F(A,B) F(A,B) = 1 F(A,B) > 1, se si favoriscono, probabilisticamente F(A,B) < 1, se si sfavoriscono, probabilisticamente = P(B)*F(A,B)

19 P(A e B)= =P(A,B) =P(A) F(A,B) P(B) P(B/A) P(A/B) F(A,B)>1 ⇒ P(A,B) > P(A) P(B) F(A,B)=1 ⇒ P(A,B) = P(A) P(B) F(A,B)<1 ⇒ P(A,B) < P(A) P(B) si favoriscono sono indipendenti si sfavoriscono

20

21

22

23 Primi esempi di distribuzioni di probabilita’ cioe’ insiemi {P j } di numeri reali P j ciascuno probabilita’dell’ esito j j-esimo degli n esiti ( j=1, … n) su cui la probabilita’ si distribuisce NB P j soddisfano Σ P j = 1 e gli altri assiomi

24 Due esiti di probabilita’ qualunque (moneta “truccata”) - + P testa =q= (1-p) >1/2 P croce = p <1/2 p+q=1 L’ esempio primordiale: due esiti maschiofemmina materia antimateria successoinsuccesso

25 Altri esempi di distribuzioni uniformi 2 Sconfitta totocalcio: le probabilita’ di una partita “da tripla” NB P j  1/n se si “spalma” su piu’ esiti P j deve ridursi per mantenere Σ P j = 1 !!!!!! X Pareggio 0 1 Vittoria +1 1/3

26 Distribuzioni non uniformi Aaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa aaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa 1 testa 1 croce 0 0 testa 2 croce +2 2 testa 0 croce -2 2 monete 3 monete 2 testa 1 croce 0 testa 3 croce +3 3 testa 0 croce -3 1/4 1/2 1 testa 2 croce +1 1/8 3/8 NB primi esempi di distribuzioni binomiali PjPj PjPj

27

28 NB P j  1/n P deve ridursi se si “spalma” su piu’ esiti per mantenere Σ P j = 1 Se gli esiti diventano continui l’ indice j diventa una variabile continua x Distribuzione uniforme continua A a 0

29 0

30 ΣjΣj  dx deve esserci un area

31 Distribuzioni continue non uniformi g(x)dx = dG = dP = p(x)dx aaaaaaaaa La gaussiana e’ certo la piu’ importante anche qui, deve esserci un area

32 Definizione dei momenti di una distribuzione di probabilita’ Media di x m Media degli scarti x-m … (=0 !) Media degli scarti quadratici (x-m) 2 varianza = σ 2 σ = dev standard Media degli scarti cubici etc

33 Definizione di valore medio di una variabile casuale p(x) PxiPxi Il baricentro della distribuzione detto anche momento primo intorno all’ origine

34 Nota Bene m = non e’ la media aritmetica di n misure x E’ una proprieta’ della distribuzione Non ci sono (ancora) misure, qui !!!!!!

35 Nota Bene m non e’ la media aritmetica di n misure x E’ una proprieta’ della distribuzione Non ci sono (ancora) misure, qui !!!!!! Sono due cose diverse !!!! m= x n → ∞

36 Primi Esempi m = = Σ P j x j = (½) (-1)+ (½) (+1)= 0 Il valore medio per il lancio d’una moneta e’ zero !! Come spesso, il valore medio non e’ un’ esito possibile - + P testa =q >1/2 P croce = p <1/2 successoinsuccesso Due esiti non equiprobabili m = = Σ P j x j = q (-1)+ p (+1) = p-q Anche qui, il valore medio non e’ un’ esito possibile

37 Altri esempi di medie….. non e’ un esito e’ un esito

38

39

40 Lo scarto medio (il momento d’ ordine uno) intorno al valore atteso e’ identicamente 0 = Σ j P j (x j -m) = Σ j P j x j - Σ j P j m = m - m =0 come lo scarto medio di n misure intorno alla loro media aritmetica x non e’ un concetto utile Dobbiamo ricorrere allo scarto quadratico medio (il momento d’ ordine due)

41

42 Nota Bene σ non e’ la S “del laboratorio” e’ la sua astrazione concettuale σ = deviazione standard della distribuzione = √ Σ j P j (x j -m) 2 σ e’ una proprieta’ della distribuzione S = stima della deviazione standard di n misure= √ Σ i (xi-x) 2 /(N-1) e’ una stima ottenuta da un campione Non ci sono (ancora) misure, qui !!!!!! Sono due cose diverse !!!! σ n → ∞ S

43 Primi Esempi Come spesso, il valore medio non e’ un’ esito possibile - + P testa =q >1/2 P croce = p <1/2 successoinsuccesso Due esiti non equiprobabili +1 = [-1- (p-q)] 2 q + [+1- (p-q)] 2 p = 4pq = p-q p+q =1

44 Altri esempi di dev. standard

45 Lo scarto cubico medio aaaaa a E’ il primo momento dispari dello scarto x-m non identicamente nullo Lo incontreremo in alcuni casi Spesso nella forma adimenionale Misura la simmetria intorno a m μ 3 (m) β = μ 3 (m)/σ 3 Piu’ momenti μ 4 (m), μ 5 (m) etc fornisco meglio descrivo le proprieta’ GLOBALI della P j E cosi’ via

46 Un primo esempio nel continuo: la distribuzione uniforme

47 Un secondo esempio nel continuo: la distribuzione di Gauss Vedremo, facendo i due integrali, che = m = σ 2 β = μ 3 (m)/σ 3 =0

48 σ 2 = = = = -2m + m 2 = - 2m 2 +m 2 = = - m 2 = = - 2 = La varianza e’ la media dei quadrati meno il quadrato della media

49 Scriviamo. P(A,B) = P(A)* P(B)* F(A,B) = dove F(A,B) = P(A,B)/(P(A)*P(B)) e poi = P(A)*F(A,B) F(A,B) = 1 = P(B)*F(A,B) = ΣiΣi = = ∫dx∫ dy xp(x,y) ∫dx x p(x) = σx2 =σx2 = P i = Σ j P ij P j = Σ i P ij p(x)=∫ dy p(x,y) p(y)=∫ dx p(x,y) x i P ij ΣiΣjΣiΣj = Σ i x i P i = ΣiΣjΣiΣj yjPjyjPj y j P ij =Σi=Σi = x x y y dP= dxdy p(x,y) in generale > p(x,y) = p(x) (p(y) < P ij = P(x i,y j ) in generale > P ij = P i P j < P ij = P (x i, y j ) σ xy ΣiΣjΣiΣj (x i - )(y j - ) P ij ) (y- )> = - = (x- ) (y- )p(x,y)∫∫dxdy ∫dx∫ dy xp(x,y) = ∫dy∫ dx yp(x,y) ∫dy y p(y) = covarianza di x e y = = = ∫dx x p(x) ) 2 > = ΣiΣi (x i - ) 2 P i σx2 =σx2 = ) 2 >= (y j - ) 2 P j σy2 =σy2 = ΣjΣj ) 2 > = σy2 =σy2 = ∫dy(y- ) 2 p(y) ) 2 > = ∫dx(x- ) 2 p(x) σx2 =σx2 =

50 Varianze e Covarianza σ x 2 = = ) (x- )> = ) 2 > = = - 2 σ y 2 = = ) (y- )> = ) 2 > = = - 2 σ xy = ) (y- )> = - La covarianza non deve essere positiva !!! e’ nulla, se x e y sono indipendenti e’ positiva, se x e y si favoriscono e’ negativa, se x e y si sfavoriscono una fluttuazione di y- con stesso segno accompagna una di x- piu’ spesso che una con segno opposto una fluttuazione di y- con segno opposto accompagna una di x- piu’ spesso che una con stesso segno una fluttuazione di y- con stesso segno accompagna una di x- altrettanto spesso che una con segno opposto sempre positive

51

52

53 se y= x σ xy = σ x σ x = σ x 2 se y= f(x) σ xy = σ x σ f(x) ~ df/dx σ x 2 positiva Positiva o negativa Massima correlazione in caso di dipendenza funzionale

54 ε

55 MA!!!


Scaricare ppt "Nona lezione, prima del secondo modulo AA 2010-11."

Presentazioni simili


Annunci Google