La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

TQuArs – a.a. 2010/11 Tecniche quantitative per l’analisi nella ricerca sociale Giuseppe A. Micheli Lezione B.3 Dall’esperimento bernoulliano ai teoremi.

Presentazioni simili


Presentazione sul tema: "TQuArs – a.a. 2010/11 Tecniche quantitative per l’analisi nella ricerca sociale Giuseppe A. Micheli Lezione B.3 Dall’esperimento bernoulliano ai teoremi."— Transcript della presentazione:

1 TQuArs – a.a. 2010/11 Tecniche quantitative per l’analisi nella ricerca sociale Giuseppe A. Micheli Lezione B.3 Dall’esperimento bernoulliano ai teoremi di convergenza

2 In questa lezione.. In questa lezione studiamo un modello probabilistico costituito da una molteplicità di esperimenti dello stesso tipo ripetuti. Definiremo il concetto di esperimento ‘bernoulliano’, che ha come esito due sole modalità alternative e ne trarremo quattro spunti:  Svilupperemo la forma che assume la distribuzione di una variabile ottenuta come somma di tanti esperimenti bernoulliani.  Seguiremo due processi di formazione della variabile ‘somma’, secondo il disegno campionario scelto (con/senza reimmissione).  Verificheremo a quali condizioni si può determinare la media e la varianza di questa variabile ‘somma’ a partire da medie e varianze delle variabili costituenti.  Infine rileveremo a quali condizioni processi di combinazione di variabili di questo tipo convergono alla distribuzione Normale.

3 Il tassello elementare delle variabili casuali Torniamo a un esempio delle prime lezioni. Una Commissio- ne composta da 11 deputati, 7 del Polo (P) e 4 dell’Ulivo (U), deve nominare un Presidente. I deputati rimettono alla sorte la nomina. Se si tratta di estrarre a sorte un solo presidente la probabilità di eleggere uno del Polo è P(P)=7/11=0,64, quella di uno dell’Ulivo è P(U)=4/11=0,36. Non ci sono altre modalità alternative. Infatti P(P)+P(U)=1. Una Variabile Casua- le è una successione ordinata di coppie di valori {x i, p i } univo- camente associati, relativi a un esperi- mento probabilistico, dove le x i indicano i valori associati agli esiti dell’esperimento e le p i le corrispon-denti probabilità di estrarre casualmente la modalità x i. 0 1 P(0) P(1) X= Possiamo sintetizzare queste informazioni in una varia- bile casuale X=“Coalizione del coordinatore”. Trattando- si di due sole modalità alternative l’attenzione si può concentrare sull’accadimento di una di esse, definendo ‘Successo’ l’estrazione di quella modalità e ‘Insuccesso’ quella dell’altra. Si può associare alla prima modalità valore numerico 1 (si tratta davvero di ‘un accadimen- to’, né di meno né di più), alla seconda il valore 0. Questa ‘legge’ di distribuzione di proba- bilità è la più elementare che esiste: la definiamo ‘variabile di Bernoulli’.

4 La distribuzione di Bernoulli Chiamiamo ellitticamente la probabilità di successo P(1)=p e quella di insuccesso P(0)=q. Di questa distribuzione (discreta, in quanto assume solo valori quantitativi discreti, e ‘notevole’ cioè definita da una ‘regola’ matematica) possiamo tracciare il grafico (un diagramma ad aste) e determinare i parametri di base, media e varianza. Si può dimostrare che:  La media della distribuzione di Bernoulli è E(X)=p  La varianza è V(X)=pq, la deviazione standard  X =pq 0 1 q p X= A fianco il diagramma ad aste della variabile “Presidente del Polo”, con p=0,64, q=0,36=1-p, m X =0,64,  2 X =0,23. Esempio. Si estragga a caso una delle 20 regioni italiane: 11 hanno presidenza di centrodestra, 9 di centrosinistra. La va- riabile “presidente di centrodestra” ha distribuzione 01 0,45 0,55 X=

5 Dicotomie ed eventi rari qualunque variabile può essere ricondotta a forma dicotomica. DUE OSSERVAZIONI. La prima è che qualunque variabile può essere ricondotta a forma dicotomica. Per esempio: le regioni italiane hanno tassi di occupazione maschile a 25 e 34 anni compresi tra il 55% (Calabria) e il 91% (Trentino): posso aggregarli in forma di variabile di- screta o per classi. Ma se fisso una soglia minima (l’80%) di occupazione di fatto trasformo la mia variabile quantitativa discreta (X=tasso di occupazione) in una variabile dicotomi- ca “Regioni sotto la soglia fissata di occupazione”, con pro- babilità di estrarre una regione sotto la soglia p=10/20. La seconda osservazione è che una distribuzione di Ber- noulli con p pari (o vicina) a 0,5 è una distribuzione simmetrica. Invece quanto più lontano è p da 0,5 (o molto più basso o molto più alto) la distribuzione sarà asimme- trica. Per questa particolare variabile maggiore è la asimmetria maggiore è la varianza. In particolare parliamo di eventi rari quando la probabilità di successo è molto bassa (per es. la probabilità che un anzia- no debba ricorrere a una struttura residenziale assistita è generalmente stimata dall’OMS intorno al 3%). =0,97 x 0,03=0,17 =0,5 x 0,5=0,50

6 Reiterare esperimenti bernoulliani Un’estrazione casuale da una popolazione dicotomica con probabilità di successo P(X) costante e indipendente da altre estrazioni si dice esperimento bernoulliano. Ma è raro che possa interessarci un singolo esperimento. Avremo in genere cam- pionamenti costituiti da una sequenza di s estrazioni “con reimmissione nell’urna” (detti campionamenti ‘bernoulliani’), e cercheremo di capire quanti ‘successi’ (accadimenti del carattere sotto osservazione) si sono realizzati in s estrazioni. Torniamo alla commissione parlamentare e al caso in cui essa debba sorteggiare ogni settimana un presidente. A ognuno degli 11 assessori può capitare di essere estratto più volte: ogni estrazione è indipendente dalle precedenti. A ogni estrazione la probabilità che esca un deputato del Polo è pari al rapporto tra componenti del Polo in Commissione (7) e totale dei componenti (11) [P(P)=0,636, costante]. La distribuzione di Bernoulli X=“un presidente proveniente dal Polo” è: 0 1 q=0,364 p=0,636 X=

7 Combinare i risultati di due esperimenti Ripetiamo il sorteggio tra i deputati. Su due sorteggi quelli andati al Polo possono essere due, uno o nessuno. Riportando le modalità dell’esperimento in forma di tabella a doppia entrata, possiamo capire in quali casi troviamo 0 delegati del Polo, in quali uno e così via. Per esempio, nella combinazione inscritta in un cir- colo esce uno del Polo al primo sorteggio (probabilità p) e uno dell’ Ulivo (proba- bilità q) al secondo: il numero di delegati del Polo sorteggiati è quindi 1. X I X II 01 0 0q*q0q*q 1q*p1q*p q 1 1p*q1p*q 2p*p2p*p p qp1 Qual’è la probabilità di questa combinazione Qual’è la probabilità di questa combinazione? Sappiamo che in generale P(PU)=P(P) x P(U/P) (sesto postulato del calcolo delle probabilità), e quindi cambia molto se i due esperimenti sono influenzati l’uno dall’altro. Donde l’utilità di fare l’ipotesi di indipendenza tra le due variabili X I e X II. In tal caso infatti P(PU)=P(P) x P(U). Per e- sempio P(10)=p * q. Ma il risultato “1” (un eletto del Polo su 2) si può ottenere anche con la sequenza “primo sorteg- giato dell’Ulivo, secondo del Polo”, con probabili- tà q * p di accadere. Le due sequenze {P,U} e {U,P} sono tra loro disgiunte, quindi la proba- bilità complessiva è la somma delle probabilità… Così la somma di due variabili bernoulliane indipendenti dà luogo a una nuova variabile: 0 1 2 q 2 2pq p 2 X (2) =

8 Da due a tre a ‘n’ esperimenti ripetuti X (2) X III 01 0 0q2*q0q2*q 1q2*p1q2*p q2q2 1 1 2pq * q 2 2pq * p 2pq 2 2p2*q2p2*q 3p2*p3p2*p p2p2 qp1 La distribuzione di probabilità di una se- quenza di due esperimenti bernoulliani ha una sua forma particolare. Ai valori X=0,1,2 associa come probabilità i pro- dotti delle probabilità ponderati per i coefficienti binomiali (vedi il triangolo di Tartaglia) corrispondenti. 0 1 2 q 2 2pq p 2 X (2) = X I +X II = Verificate voi che media e varianza sono: E[X (2) ]=2p Var[X (2) ]=2pq Ma ora si può andare avanti, sorteggiando un terzo delegato, e sommando quindi la variabile X III con la variabile appena calcolata X (2). Calcolando nella distribuzione congiunta le pro- babilità composte e poi sommando quelle che corrispondono a somme identiche (caselle cer- chiate) perveniamo a una nuova variabile ana- loga alla precedente: 0 1 2 3 q 3 3pq 2 3p 2 q p 3 X (3) = X I +X II +X III = dove E[X (3) ]=3p; V[X (3) ]=3pq

9 Il triangolo di Tartaglia qpqp q 2 2qp p 2 q 3 3q 2 p 3qp 2 p 3 q 4 4q 3 p 6q 2 p 2 4qp 3 1p 4 q 5 5q 4 p 10q 3 p 2 10q 2 p 3 5qp 4 1p 5 q 6 6q 5 p 15q 4 p 2 20q 3 p 3 15q 2 b 4 6qp 5 1p 6 N h Ricapitoliamo. Se combino due esperimenti bernoulliani con probabilità costante p la distri- buzione della somma è X={0,1,2} con corrispondenti numerosità { q 2,2qp,p 2 }. Se combino tre di questi esperimenti bernoulliani la distribuzione della somma è X={0,1,2,3} con corrispondenti numerosità { q 3,3q 2 p,3qp 2,p 3 }. E così via.. Cavolo. Sono i termini dello sviluppo delle successive potenze di un binomio; e i coefficienti numerici sono i “coefficienti binomiali”; e tutto questo, termini e coefficienti, sappiamo condensarlo nel magico “triangolo” di Tartaglia. Allora possiamo lanciarci a calcolare le probabilità, per esempio, di cinque presidenze del Polo su 6 settimane, o anche tut- te e sei! O di altre com- binazioni intermedie...

10 La distribuzione binomiale.364.636.133.463.404.048.253.442.257.017.123.322.374.164.006.056.195.341.298.104.002.025.107.248.325.227.066 … … … … Ecco le risposte (nella sesta riga in blu). Data la compo- sizione dell’urna (7 del Polo e 4 dell’Ulivo) c’è un 6,6% di probabilità per il Polo di fare l’en plein (6 presidenti in 6 settimane). E la com- posizione più frequente o ‘modale’ è 2U+4P in ordine vario (prob=32,5%). Ogni riga esprime dunque le probabilità di 0,1,2,..x ‘successi’ su n esperimenti bernoulliani identici. La somma di ogni riga (controllate!) è uno. Sintetizziamo questi risultati in forma di regola. Ecco la distribuzione di probabilità binomiale: x = 0, 1, 2,.. N X = p(x) = p x q n-x N x La distribuzione binomiale corrisponde dunque all’esito di un processo di somma di tanti esperimenti bernoulliani ripetuti identici tra loro.

11 Evoluzione della distribuzione binomiale xixixixi pipipipi xixixixi Una distribuzione binomiale è totalmente definita da due parametri: il numero n degli esperimenti sem- plici combinati e la probabilità p costante di ‘suc- cesso’, cioè di accadimento dell’evento a cui siamo interessati. Per brevità la indicheremo con Bin(n,p). al crescere di n la distribuzione binomiale si espande indefinitamente Costruiamo i diagrammi ad aste delle due distribu- zioni binomiali con p=0,636 e rispettivamente n=3 e n=6. Ciò che si vede – a buon senso intuibile – è che al crescere di n il campo di variazione di X si allarga verso destra, e di conseguenza le probabilità si abbassano (la somma deve essere 1). In gene- rale al crescere di n la distribuzione binomiale si espande indefinitamente. Possiamo quindi aspettarci che crescano sia media che varianza. In effetti avevamo già trovato che: se X  Bin(2,p) allora m(X)=2p e V(X)=2pq; se X  Bin(3,p) allora m(X)=3p e V(X)=3pq … Esiste forse una regola per calcolare media e varianza di una variabile somma? Sì! Bin(3;0,636) Bin(6;0,636)

12 Media e varianza di una somma di variabili «La media della somma (o della differenza) di due variabili è pari alla somma (o alla differenza) tra le medie delle variabili componenti» Vale infatti una regola generale, qualunque siano le distribuzioni coinvolte: E(XY) =  i  j (x i y j ) * p ij = =  i  j x i* p ij   i  j y j* p ij = =  i x i*  j p ij   j y j*  i p ij = =  i x i p i   j y j p j = = E(X)  E(Y) c.v.d. Per la varianza non vale una regola così semplice: «La varianza della somma (o differenza) di due variabili è pari alla som- ma (sempre) delle varianze delle variabili componenti, più (meno) una quantità detta Covarianza» V(XY)= i  j (x i y j )–E(XY) 2 p ij = i  j x i y j –m X –(m Y ) 2 p ij = i  j (x i –m X )(y j –m Y ) 2 p ij = = i  j (x i –m X ) 2 p ij + i  j (y j –m Y ) 2 p ij  2 *  i  j (x i –m X ) * (y j -m Y )p ij = = i (x i –m X ) 2 p i +  j (y j –m Y ) 2 p j 2cov(XY) = = Var(X) + Var(Y)  2cov(XY) q.e.d. chiamiamo covarianza o Cov(XY) l’espressione cerchiata E(XY) = E(X)  E(Y) V(XY)= Var(X) + Var(Y)  2Cov(XY)

13 (cos’è davvero la covarianza?) La varianza di una variabile somma è dunque qualcosa di più (o di meno) della pura somma delle varianze. Essa dipende anche dalla covarianza Cov(X,Y) =  i  j [ (x i – m X ) * (y j –m Y ) ] * p ij Dove, come sappiamo p ij esprime la Prob [(X=x i )(Y=y j )]. La covarianza è una misura importantissima in analisi bivariata (e quindi la ritroveremo tra qualche lezione). Si può mostrare che se X e Y sono v.c. indipen- denti (nel qual caso p ij =p i* p j ) la Cov(X,Y) si annulla e vale la regola particolare: Per capire il ruolo di Cov(X,Y) nella somma di variabili basta ricordare il sesto po- stulato del calcolo delle probabilità: “Se A e B sono insiemi di eventi indipendenti allora P(AB)=P(A) * P(B)”. Analogamente se X e Y sono v.c. indipendenti, allora p ij =P[(X=x i )(Y=y j )]=p i* p j e in questo caso la covarianza Cov(X,Y) si annulla:  i  j (x i – m X ) * (y j –m Y )p ij = i x i –m X p ij*  j y j –m Y p ij = i x i –m X p i *  j y j –m Y p j =0 * 0=0 «La varianza della somma (o della differenza) di due variabili tra loro indipendenti è pari alla somma (sempre) delle varianze» V(XY)= Var(X) + Var(Y)

14 Asimmetria e distribuzione binomiale La Binomiale è la distribuzione di probabilità della somma di n esperimenti bernoulliani identici tra loro (p costante) ma anche tra loro indipendenti. Quindi xixixixi pipipipi Bin(5;0,50) m=2,5; m=2,5;=1,12 Bin(5;0,25) m=1,25; m=1,25;=0,88 Ma se la prova prevede per ogni test quattro risposte alternative, di cui una sola è giusta (carognata!) la probabilità di azzeccare a caso la risposta giusta scende a p=0,25 le probabilità di ottenere 4 e 5 successi diventano P(4)=0,015;P(5)=0,001 e le vostre chances complessive di farcela scendono a meno del 2%. Se X Bin(n,p)  m X =np  2 X =npq e  X =npq. L’evoluzione della Binomiale dipende dal parametro p. Se p=0,5 esa conserverà la simmetria anche al crescere delle prove che si vengono sommando. Se l’evento è invece più raro la Binomiale ne risentirà. Supponiamo che vogliate partecipare a una prova di selezione, consistente in 5 test a risposta chiusa (sì- no) non avendo studiato un accidente. Rispondendo a caso a ogni test avrete probabilità p=0,5 di azzeccar- lo. Dopo 5 test (vedi figura) le probabilità di ottenere 4 e 5 successi saranno P(4)=0,156; P(5)=0,031. Se per la sufficienza bastano quattro risposte giuste, avrete il 18,7% di probabilità di farcela. Mica male!

15 Forma della binomiale al crescere di enne xixixixi pipipipi Bin(10;0,50) m=5,00; m=5,00;=1,58 Bin(20;0,50) m=10,0; m=10,0;=2,24 S’è già visto che se XBin(n,p) la media è np e  X =npq. Quindi al crescere di n (cioè al moltiplicarsi degli esperimenti bernoulliani, o della dimensione del cam- pione estratto) la distribuzione sposta il suo baricentro verso destra e si disperde indefinitamente. Ma la cosa più sorprendente riguarda la forma… Bin(10;0,25) m=2,50; m=2,50;=1,37 Bin(20;0,25) m=5,00; m=5,00;=1,94 Bin(10;0,10) m=1,00; m=1,00;=0,95 Bin(20;0,10) m=2,00; m=2,00;=1,34

16 Convergenza della binomiale alla simmetria Bin(30;0,25) m=7,50; m=7,50;=2,37Bin(30;0,10) m=3,00; m=3,00;=1,64 Se p=1/2 è già simmetrica la v. di Ber- noulli e tale resta la Bin(n,p) per ogni n Se p=1/4 la binomiale già per n=10 ha forma simmetrica, figurarsi per n=30. Ma anche se p=1/10 (eventi rari) man mano che la curva al crescere di n si sposta assume una forma simmetrica.. In blu Bin(10;1/4) In rosso Bin(20;1/4) In grigio Bin(30;1/4) Una regola generale sembrerebbe essere che per n>30 qualunque binomiale tende a convergere a una forma simmetrica… Per evidenziare la tendenza alla sim- metria disegniamo la binomiale in for- ma continua (scorretto ma efficace!)

17 Campioni non bernoulliani e convergenza alla binomiale Dato un ‘esperimento bernoulliano’ ripetuto s volte su una popolazione di N elementi, di cui k di un tipo e (N-k) di un altro:  Se il campionamento avviene ‘con reimmissione’, le s estrazioni sono tra loro indipendenti con probabilità costante e la probabilità di estrarre h ‘successi’ su s è definita dalla legge di distribuzione BINOMIALE.  Se il campionamento avviene ‘senza reimmissione’ la probabilità ‘di successo’ è condizionata dall’esito delle prove precedenti e la probabilità di estrarre h ‘successi’ su s è definita dalla legge di distribuzione IPERGEOMETRICA. Le due distribuzioni differiscono, ma solo per piccole dimensioni della popola- zione. Detta k/n=p e ricordando che la numerosità complessiva è quella del campione, è possibile confrontare media e varianza delle due variabili: Dunque l’ipergeometrica ha di- spersione minore, ma tende a convergere alla Binomiale al crescere dell’ammontare com- plessivo N della popolazione e dello scarto tra dimensione N della popolazione e dimensione s del campione. MediaVarianza Binomiales*ps*ps*p*qs*p*q Ipergeometricas*ps*ps * p * q * (N-s)/(N-1) L’ipergeometrica ha media uguale alla corri- spondente binomiale e varianza moltiplicata per il rapporto (N-s)/(N-1)<1. Rapporto che tende a 1 al crescere di N e dello scarto N-s.

18 La variabile ‘media’ Chiusa la parentesi, torniamo al tema della convergenza e riepiloghiamo. Siano X 1, X 2,.. X n, n variabili tra loro indipendenti e con uguale media  e varianza  2. La v.c. somma ha V(  i X i )=  i V(X i )=n 2 e E(  i X i )=  i E(X i )=n * . Nel caso particolare in cui X i sia una Bernoulli con =p e  2 =pq, la Bin(n,p) somma di n esperimenti bernoulliani avrà media np e varianza npq. Abbiamo seguito graficamente l’evoluzione della Binomiale. Per n crescente la distribuzione tende a una forma simmetrica e campanulare accattivante, ma (che guaio) che si espande e si disperde indefinitamente. Dimostrarlo richiede pochi passi. Date le proprietà di media e varianza E(k * X)=k * E(X) e V(k * X)=k 2 * V(X) si ottiene: E(x i )/n=(1/n) * E(x i )= =(1/n) * E(x i )=(1/n) * n= V(x i )/n=(1/n 2 ) * V(x i )= =(1/n 2 ) * V(x i )=(1/n 2 )n 2 = 2 /n Ma cosa succede se teniamo fermo il campo di variazione della variabile che si ottiene per combinazione delle varia- bili elementari considerando non la som- ma bensì la media di n v.c. indipen- denti e identicamente distribuite? E(x i )/n= E(x i )=/n Si può provare che essa ha media E(x i )/n=, V(x i )/n= 2 /n e deviazione standard E(x i )=/n.

19 La variabile ‘media’ e la convergenza stocastica Facciamo il punto della situazione, usando sempre come base la binomiale. npq La variabile Somma di n esperimenti bernoulliani identici tra loro e indipendenti si distribuisce secondo una Binomiale con media np e deviazione standard npq. Al crescere del numero n di estrazioni la curva assume forma simmetrica campanulare, ma con crescente dispersione e traslazione verso destra. /n [pq/n] Se considero invece la variabile Media degli stessi n esperimenti bernoulliani, essa si distribuisce secondo una Binomiale con media p e deviazione standard /n= [pq/n]. Al crescere del numero n di estrazioni la curva assumerà allora ancora forma simmetrica campanulare e per giunta centrata sul parametro p della popola- zione, ma con crescente concentrazione intorno a tale parametro. Poiché /n0 per n se prendiamo un intorno di p piccolo quanto si vuole la probabilità di osservare modalità in tale intorno crescerà indefinitamente. Si dice che la v.c. media di n v.c. con media  converge stocasticamente a  per n Dunque, con la variabile Somma la forma simmetrica si disperde senza limiti, con la variabile Media essa tende al limite a concentrarsi intorno a un solo punto. Nessuna di queste due combinazioni di variabili (somma e media) produce una successione che converga a una forma standard. Come possiamo ‘tenere fermo’ il campo di variazione della combinazione lineare delle X i ?

20 La variabile ‘somma di v.c. standardizzate’ Ma noi conosciamo il modo di ‘tenere ferme’ sia la posizione centrale che la dispersione di una v.c.: standardizzandola. Consideriamo allora n v.c. qualunque, indipendenti e identicamente distribuite (anche skew, non importa!), e costruiamo la successione delle v.v. somma standardizzate: convergenza in legge La nuova distribuzione converge non a un valore ma a una forma riconoscibile ed esprimibile matema- ticamente. Si parla di convergenza in legge. S 1 =X 1  Z 1 =(S 1 -) /  S 2 =X 1 +X 2  Z 2 =(S 2 -2) / [2] S 3 =X 1 +X 2 +X 3  Z 1 =(S 1 -3) / [3] … S n =X i  Z n =(S n -n) / [n] Per esempio, se X  Bin(n,p) la varia- bile Somma stan- dardizzata è pari a Z n =(S n -np)/(npq) per ogni n. v.c. Media v.c. Somma

21 Il teorema del limite centrale La definizione di convergenza ‘in legge’ obbliga a entrare nel mondo ‘alto’ della matematica. Facciamolo in punta di piedi. C’è convergen- za in legge quando la funzione di densità di una variabile che si modifica in funzio- ne di un ‘contatore’ n (per esempio il nume- ro di esperimenti bernoulliani, o di estrazioni in un campione) tende per n, a combacia- re con una forma limite indipendente da n. Enunciato formale:«Data una suc- cessione di v.c. X 1..X n, di cui siano note le funzioni di ripartizione (cu- mulate) F 1 (X),F 2 (X)..F n (X) si dice che X n, converge in legge alla v.c. X per n quando lim n F n (X)= F(X), salvo punti di discontinuità». Per primo fu De Moivre (1733) a dimostrare che la binomiale con p=0,5, stan- dardizzata, converge in leg-ge al crescere delle prove n, alla normale N(np,npq). Ma il risultato più importante va sotto il nome di… Teorema del limite centrale: «Siano X 1,X 2..X n n variabili qualunque, indi- pendenti e identicamente distribuite, con media  e varianza  2. Sia S n = X 1 +X 2 +..+X n la successione delle va- riabili Somma con media n e varian- za n 2. E sia Z n =(S n -n)/[n] la v.c. standardizzata ricavata da S n. Si di- mostra che la successione {Z n } converge in legge alla Normale ridotta N(0,1)» (Lindeberg-Levy).

22 La distribuzione Normale ridotta E’ evidente l’importanza del Teorema del Limite. Esso dice che la distribuzione limite di una somma standardizzata di varia- bili (indipendenti tra loro), qua- lunque esse siano purché iden- tiche, è sempre di tipo N(0,1): una distribuzione universale, che non dipende da nessun parametro! m m+m-m-2m+2 34,1% 2,3% 13,6% 34,1% 13,6% 2,3% f(-1<x<1)=68,2% L’area sottesa alla curva in un intervallo dato è dunque fissa e tabulabile.

23 La tavola della Normale ridotta z zz z Per usare la tavola della N(0,1) si cerca nella prima colonna (z=inte- ro+primo decimale) e prima riga (secondo decimale) l’estremo su- periore z di un inter- vallo 0<Z<z (z=0 corri- sponde alla media): all’incrocio tra riga e colonna di entrata si individua la probabilità di quella regione: f(0<Z<z)=(z). Per es. 1,96 f(0<Z<1,96)=0,475 e quindi: -1,961,96 f(-1,96<Z<1,96)= =2(z)=0,95=95%

24 Richiamo: come usare la tavola z La tavola si limita a ‘tabulare’ le probabilità del campo di esistenza positivo della Normale ridotta. Il motivo è chiaro: poiché la curva è simmetrica, il campo di esistenza negativo è perfettamente speculare. Per esempio (come abbiamo appena visto) f(-z<Z<0)=(-z)=(z). Ricapitoliamo qui sotto alcuni esercizi di buon senso di calcolo di regioni via via più complesse: Se z=1,96 (z)=0,475 (z) 0,5-(z) 0,5+(z) 0,5 (z) (w)+(z) (w)= (-w) (z) Prob.di una regione su- periore alla media e in- feriore a z (z) Prob.di una regione su- periore a z, superiore alla media Prob.di una regione dal valore mini- mo fino a z (cumulata) Prob.di una regione ir- regolare in- torno alla media


Scaricare ppt "TQuArs – a.a. 2010/11 Tecniche quantitative per l’analisi nella ricerca sociale Giuseppe A. Micheli Lezione B.3 Dall’esperimento bernoulliano ai teoremi."

Presentazioni simili


Annunci Google