La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Corso di Laurea Magistrale in Economia e Professioni

Presentazioni simili


Presentazione sul tema: "Corso di Laurea Magistrale in Economia e Professioni"— Transcript della presentazione:

1 Corso di Laurea Magistrale in Economia e Professioni
Statistica per l’analisi dei dati Prima parte: il campionamento nella revisione contabile Dispensa 2 Argomenti: elementi di inferenza statistica Prof. Giorgio Tassinari a.a II parte

2 inferenza statistica In generale dobbiamo affrontare problemi in cui, sulla base della conoscenza di alcuni elementi della popolazione, si vogliono trarre conclusioni su tutta la popolazione da cui questi elementi provengono Avendo però osservato solo alcuni elementi della popolazione le conclusioni che possiamo trarre sull’intera popolazione sono caratterizzate da incertezza. popolazioni concettuali (infinite) Per popolazione intendiamo l’insieme delle unità statistiche a cui vogliamo riferire le nostre conclusioni popolazioni reali (finite) le fatture emesse da una azienda nell’anno contabile costituiscono una popolazione finita tutte le possibili uscite T o C in successivi lanci di una moneta sono una popolazione infinita II parte

3 Il procedimento logico-induttivo attraverso cui si arriva, sulla base di un campione, a trarre conclusioni sull’intera popolazione è detto inferenza statistica. Oggetto dell’inferenza sono alcune misure di sintesi della distribuzione di uno o più caratteri nella popolazione (medie, varianze, proporzioni,…) popolazione stime verifica di ipotesi parametri ? distribuzioni campionarie teoria della probabilità campione statistiche II parte

4 Questa n-upla è uno dei possibili elementi dello spazio campionario S.
Data quindi una popolazione P, un criterio di campionamento C e la numerosità campionaria n, è possibile definire l’insieme di tutti i possibili campioni S(P,C,n). Se indichiamo con P(c) la probabilità di ogni campione c, appartenete ad S, di essere estratto, la coppia {S,P(c)} è detta piano di campionamento. Consideriamo un piano di campionamento casuale semplice con ripetizione: una volta estratte le n unità campionarie ed osservata la caratteristica di interesse avremo la n-upla (x1,x2,…,xn), ovvero il campione osservato. Questa n-upla è uno dei possibili elementi dello spazio campionario S. Al variare della n-upla in S viene generata una v.c. campionaria (X1,X2,…,Xn) II parte

5 P(X1=x1,X2=x2,…,Xn=xn)=P(X1=x1)P(X2=x2)…P(Xn=xn)
La v.c. n-upla campionaria (X1,X2,…,Xn) è una variabile n-dimensionale a componenti i.i.d. (indipendenti ed identicamente distribuite). Questo significa che la v.c. Xj (j=1,…n), generata dalla j-esima estrazione, ha la stessa distribuzione di probabilità della caratteristica X nella popolazione. (x1,x2,…,xn) -> (X1,X2,…,Xn) Dato che la v.c. n-upla campionaria (X1,X2,…,Xn) è a componenti i.i.d., allora la sua funzione di probabilità congiunta è data da: P(X1=x1,X2=x2,…,Xn=xn)=P(X1=x1)P(X2=x2)…P(Xn=xn) Questa rappresenta la probabilità di avere osservato il campione (x1,x2,…,xn) II parte

6 Consideriamo ad esempio il numero di impiegati per ufficio in una azienda.
N. impiegati 1 2 3 4 Totale Frequenza relativa 0.15 0.30 0.45 0.10 1.00 Se estraiamo un campione casuale di n=5 uffici, la variabile numero di impiegati potrà assumere valori da 1 a 4, con probabilità pari alla frequenza relativa associata ad ogni singolo valore. Ciò significa che le 5 v.c. generate dalle 5 estrazioni avranno distribuzione di probabilità uguale fra loro ed uguale a quella della caratteristica in esame. Ad esempio, la prima unità estratta avrà: P(X1=1)=0.15, P(X1=2)=0.30, P(X1=3)=0.45, P(X1=4)=0.10 Supponiamo di avere estratto un campione con n=5 che ha fornito i seguenti valori: (x1=1,x2=3, x3=2, x4=1, x5=4) La probabilità associata al campione osservato è: P(x1=1,x2=3, x3=2, x4=1, x5=4)=P(x1=1)P(x2=3)P(x3=2)P(x4=1)P(x5=4)= 0.15*0.45*0.30*0.15*0.10= II parte

7 In realtà quello ci interessa è il problema inverso (o induttivo).
Indichiamo con θ un parametro della popolazione, ovvero una sua costante caratteristica (nel caso di popolazioni finite una media, varianza,…) Noto θ, la distribuzione di probabilità della v.c. n-upla campionaria (X1,X2,…,Xn) ci consente di assegnare una probabilità a qualsiasi campione osservato (x1,x2,…,xn) [problema diretto]. In realtà quello ci interessa è il problema inverso (o induttivo). Non conosciamo il valore di un parametro θ della popolazione, e lo si vuole “valutare” per mezzo del campione osservato (x1,x2,…,xn). I metodi che permettono di risolvere il problema inverso sono detti di inferenza statistica Ad esempio, se il parametro θ a cui siamo interessati è la media μ del numero di impiegati per ufficio dell’azienda sotto esame, ed abbiamo osservato il campione (x1=1,x2=3, x3=2, x4=1, x5=4) avremo: II parte

8 Inferenza statistica Stima dei parametri Verifica di ipotesi
stima puntuale stima per intervallo La verifica di ipotesi consente di fare una congettura, un’affermazione su θ, detta ipotesi, e di decidere, sulla base del campione, se essa può essere accettata. Si tratta cioè di dividere lo spazio campionario in due sottoinsiemi: il sottoinsieme A dei campioni che porta ad accettare l’ipotesi, ed il sottoinsieme complementare R che invece porta al rifiuto dell’ipotesi. Dato lo spazio parametrico Θ, ovvero l’insieme di tutti i valori che può assumere il parametro incognito θ, e dato lo spazio campionario S, la stima dei parametri consente, in base al campione osservato, di un valore (stima puntuale) o un insieme di valori (stima per intervallo) al valore incognito θ. S S Θ Θ (x1,x2,…,xn) - R ω ω A S Θ dove ω rappresenta il sottoinsieme dello spazio parametrico cui appartiene θ (x1,x2,…,xn) II parte

9 Statistiche campionarie e distribuzioni campionarie
Ogni processo di inferenza statistica è caratterizzato da una componente di incertezza, i dati x sono infatti interpretati come realizzazione di un vettore casuale X. Se si ripete l’esperimento, nelle medesime condizioni, si ottengono dei dati x0, generalmente diversi da x. L’inferenza viene eseguita cercando di estrarre tutta l’informazione possibile contenuta nel campione, per fare una valutazione dell’intera popolazione rispetto al fenomeno studiato. Pertanto, si fa uso di opportune funzioni dei valori campionari (somma, media aritmetica, differenza tra massimo e minimo e così via) che permettano di effettuare questa valutazione. Queste funzioni vengono dette statistiche campionarie. Si definisce statistica (campionaria) ogni trasformata T = t(X1, … ,Xn), che sintetizza opportunamente il campione casuale X = (X1,…,Xn). Formalmente si tratta di funzioni che associano a ogni n-pla un singolo numero reale (ad esempio la media campionaria, la varianza campionaria,…) II parte

10 Una statistica campionaria è essa stessa una variabile casuale:
è funzione della v.c. assume, in generale, valori diversi a seconda del campione estratto ha una propria distribuzione di probabilità che dipende dalla distribuzione della v.c. la probabilità che la statistica campionaria assuma un certo valore è pari alla probabilità complessiva di tutti i campioni (dello spazio campionario) per i quali si ottiene tale valore è una variabile casuale o, in generale, un vettore casuale con una determinata distribuzione di probabilità, chiamata distribuzione campionaria. Una statistica campionaria, utilizzata per stimare un generico parametro θ viene detta stimatore di θ Ad esempio la media campionaria è uno stimatore di II parte

11 I parametri che si debbono stimare, o rispetto ai quali verificare ipotesi, rappresentano delle misure di sintesi della popolazione, cioè funzioni della distribuzione del carattere nella stessa popolazione (medie, varianze, proporzioni) E’ abbastanza ragionevole pensare di stimare (in modo puntuale) un parametro incognito θ applicando, ai dati campionari, la stessa sintesi che θ opera sulla popolazione. Questo modo di procedere viene denominato “plug in principle” e si basa sull’idea di stimare funzioni dei dati in popolazione (parametri) applicando le stesse funzioni ai dati campionari (es.: stimare la media di pop. con la media campionaria, la varianza di pop. con la varianza campionaria, ecc. …) Tuttavia, non sempre è possibile usare tale metodo e, comunque, non è detto che tale metodo produca una “buona” stima del parametro. Esistono altri metodi per individuare gli stimatori (dei minimi quadrati, della massima verosimiglianza, dei momenti, ecc.) II parte

12 Definizione: si chiama stimatore del parametro θ ogni statistica utilizzata per stimare θ.
Il valore che lo stimatore T assume in un campione osservato si chiama stima. In realtà viene osservato un singolo campione e, poiché non è nota la popolazione, non è possibile dire se la stima ottenuta in base al campione osservato è “buona” o no (così come non si poteva decidere se il campione era rappresentativo) Al fine di decidere se lo stimatore rappresenta una proposta ragionevole oppure no per stimare il parametro è necessario considerare la distribuzione dello stimatore nello spazio dei campioni II parte

13 distribuzione di probabilità di (distribuzione campionaria)
Data una popolazione di 100 documenti, in cui la percentuale di errore è del 20%, supponiamo di estrarre un campione di 3 documenti, e di verificare quanti di essi sono errati distribuzione di probabilità di (distribuzione campionaria) Campione s Valore assunto dalla statistica camp. Pr(s) (0,0,0) (1-θ)3 (0,0,1) 1/3 θ(1-θ)2 (0,1,0) (1,0,0) (0,1,1) 2/3 θ2(1-θ) (1,0,1) (1,1,0) (1,1,1) 1 θ3 (1-θ) = 0.512 1/3 3xθ(1-θ)2 = 0.384 2/3 3xθ2(1-θ) = 0.096 1 θ = 0.008 Totale Supponiamo di osservare tre documenti e di ottenere (1,0,1). Secondo il “plug in principle” proponiamo la proporzione campionaria come stima di θ. Se invece avessimo osservato un campione (0,0,1), avremmo avuto il che avrebbe portato a conclusioni diverse. II parte

14 Distribuzione della media campionaria
Se si indica con x1, x2, …, xn l’insieme dei valori rilevati in un campione di ampiezza n, la media aritmetica campionaria si ottiene sommando le osservazioni e dividendole per n: Se calcoliamo la media campionaria per tutti i possibili campioni dello spazio campionario U avremo la distribuzione della media campionaria. I parametri che ci consentono una “descrizione” di questa distribuzione sono: - il valore atteso - la varianza II parte

15 Distribuzione delle medie campionarie
Si consideri una popolazione finita, costituita da N = 4 elementi, e avente la seguente distribuzione xi 1 2 3 4 f(xi) 0.25 Consideriamo tutti i possibili campioni di dimensione n = 2 estraibili da questa popolazione; se il campionamento avviene con reimmissione, i campioni di ampiezza 2 sono 42 = 16 Universo campionario Si tratta di disposizioni con ripetizione per cui Campioni Medie (1,1) 1 (3,1) 2 (1,2) 1.5 (3,2) 2.5 (1,3) (3,3) 3 (1,4) (3,4) 3.5 (2,1) (4,1) (2,2) (4,2) (2,3) (4,3) (2,4) (4,4) 4 Distribuzione delle medie campionarie 1 1.5 2 2.5 3 3.5 4 1/16 2/16 3/16 4/16 II parte

16 media della distribuzione della media campionaria:
la distribuzione della media campionaria ha una forma a campana, simile a una distribuzione normale, anche se la popolazione ha la distribuzione uniforme media della distribuzione della media campionaria: varianza della distribuzione della media campionaria: II parte

17 Il valore atteso della distribuzione della media campionaria è, indipendentemente dalla forma distributiva di X, equivalente al valore atteso μ della popolazione: La varianza non è uguale alla varianza della popolazione, tuttavia vale la relazione infatti II parte

18 Se il campionamento, nell’esempio precedente, viene fatto senza reimmissione, i campioni estraibili da questa popolazione finita costituita da 4 elementi sono soltanto 6, Si tratta di combinazioni semplici per cui Universo campionario Campioni Medie (1,2) 1.5 (1,3) 2 (1,4) 2.5 (2,3) (2,4) 3 (3,4) 3.5 Distribuzione delle medie campionarie 1.5 2 2.5 3 3.5 1/6 2/6 II parte

19 Lo scarto quadratico medio
In generale, se estraiamo un campione casuale di ampiezza n da una popolazione con media μ e varianza σ2, allora la distribuzione della media campionaria ha media: Per campioni estratti da popolazioni infinite o se il campionamento è effettuato con reimmissione, la varianza della media campionaria è: Per campioni estratti senza reimmissione da popolazione finita, la varianza della media campionaria è: Lo scarto quadratico medio è detto errore standard della media, e rappresenta una misura della variabilità delle medie dei campioni di ampiezza n estratti da una popolazione con varianza σ2 viene detto fattore correttivo per la popolazione finita, e tende ad 1 più la dimensione del campione è piccola rispetto alla dimensione della popolazione II parte

20 Per quanto riguarda la forma funzionale della distribuzione si può inoltre affermare che se la popolazione segue un modello normale (con media μ e varianza σ2) anche la distribuzione campionaria della media campionaria segue a sua volta una variabile aleatoria normale con la media e varianza indicate in precedenza Più in generale, data una popolazione con media μ e varianza σ2, se da essa si estraggono campioni di dimensione n, allora la variabile: è una v.c. la cui distribuzione tende ad una distribuzione normale standardizzata per n->∞ (Teorema del limite centrale) Qualunque sia la distribuzione della popolazione, si può quindi affermare che la distribuzione della media campionaria è approssimativamente normale con media μ e varianza σ2/√n, per n sufficientemente grande. II parte

21 Schema riassuntivo distribuzione della media campionaria
Campionamento da una popolazione distribuita normalmente con media μ e varianza σ2 la distribuzione della media campionaria è normale Campionamento da una popolazione non distribuita normalmente con media μ e varianza σ2 se la distribuzione della media campionaria è approssimativamente normale, per n abbastanza grande II parte

22 Distribuzione della media campionaria (varianza σ2 incognita)
Quanto visto in precedenza richiede la conoscenza della varianza σ2 della popolazione. Nel caso che il numero n degli elementi del campione sia grande (grande campione), se σ2 non è nota, si sostituisce a σ2 la varianza s2 del campione. Se invece l’ampiezza n del campione è piccola (piccolo campione), si hanno dei risultati solo se il campione proviene da una popolazione normale. Sia data una popolazione normale avente media μ, e da essa si estraggano campioni casuali di ampiezza n; indicando con la media campionaria e con S lo scarto quadratico medio campionario, la variabile: è una variabile aleatoria avente la distribuzione t di Student con grado di libertà ν = n − 1 II parte

23 Proprietà principali della t di Student:
è simmetrica rispetto all’asse x = 0 la densità ha una forma a campana simile a quella della normale ma le sue code sono più “pesanti”; è caratterizzata dai gradi di libertà (g) , definiti (nel contesto che consideriamo) come dimensione del campione (n) meno il numero delle ipotesi che si avanzano (nel caso della distribuzione della media, una sola, quindi g = n -1); al crescere di g la t assomiglia sempre più ad una Normale e, per g≥30 ne è praticamente indistinguibile. Esistono tavole statistiche anche per la distribuzione t di Student. In queste tavole si hanno i valori di h corrispondenti all’espressione: Pr(t ≥ h) = α II parte

24 Distribuzione t di Student Ad esempio: gdl=9 α=0.05: t0.05=1.833
Se gdl=9, trovare il valore di tα tale che la somma dell’area a destra di tα e dell’area a sinistra di −tα vale α = 0.05 Area totale delle due code = α = 0.05 area a destra di tα (una coda) = α/2 = tα = t0.025 = 2.262 II parte

25 In sintesi, la distribuzione della media campionaria potrà essere:
Grandi campioni Piccoli campioni σ2 Popolazione distribuita secondo una N(μ,σ2) Distribuzione non nota o diversa dalla Normale Distribuzione non nota o diversa dalla Normale Nota La distribuzione della media campionaria dipende distribuzione di X nella popolazione Non nota La distribuzione della media campionaria dipende distribuzione di X nella popolazione II parte

26 distribuzione binomiale
Distribuzione campionaria del numero di successi e della proporzione Se un campione casuale di n elementi è estratto da una popolazione suddivisibile in due classi mutuamente escludentisi (E e Ē) caratterizzata dalla probabilità p’ del verificarsi dell’evento E, allora la distribuzione campionaria del numero di successi è descritta dalla distribuzione binomiale nel caso di campionamento con ripetizione distribuzione ipergeometrica nel caso di campionamento senza ripetizione La distribuzione campionaria del numero di successi X, nel caso di estrazione con ripetizione, essendo binomiale, avrà valore atteso e varianza pari a: mentre nel caso di campionamento senza ripetizione avremo la stessa media, e varianza: II parte

27 distribuzione binomiale
Se invece consideriamo la proporzione di successi (eventi E) in un campione di n elementi, avremo il parametri campionario X/n, direttamente legato alla v.c. X numero di successi. La distribuzione campionaria di P=X/n sarà descritta da: distribuzione binomiale nel caso di campionamento con ripetizione con: distribuzione ipergeometrica nel caso di campionamento senza ripetizione con: II parte

28 In base al teorema del limite centrale avremo inoltre che:
La variabile X numero di successi tende, al crescere di n, alla distribuzione normale per cui la probabilità di avere valori di X inferiori ad un certo x sarà: La variabile P proporzione di successi tende, al crescere di n, alla distribuzione normale per cui la probabilità di avere valori di P inferiori ad un certo p sarà: II parte

29 Proprietà degli stimatori
Stima puntuale Proprietà degli stimatori Uno stimatore è uno strumento che consente di ottenere delle stime, ovvero dei valori che possano “validamente” approssimare il valore di un parametro θ della popolazione. In genere è possibile calcolare più di uno stimatore per uno stesso campione, ognuno dei quali fornisce potenziali stime per il parametro θ e la scelta dello stimatore è basata sull’analisi della sua distribuzione di probabilità e di alcune proprietà auspicabili. correttezza efficienza consistenza sufficienza II parte

30 La distorsione di uno stimatore T è definita da: B(T ) = E (T ) - θ
Correttezza T è uno stimatore corretto di θ se il suo valore atteso è uguale al valore del parametro incognito: E(T) = θ Siccome non siamo in grado di sapere se la stima ottenuta in base ad un singolo campione osservato sia buona, si richiede che lo stimatore che la produce sia corretto, ovvero che la stima sia almeno basata su una regola buona “in media”. La distorsione di uno stimatore T è definita da: B(T ) = E (T ) - θ II parte

31 V (T ) = E [T - E(T )]2 = E[T -θ]2
Efficienza Accanto al valore atteso di uno stimatore è utile considerare anche la sua varianza. V (T ) = E [T - E(T )]2 = E[T -θ]2 La varianza di uno stimatore fornisce una misura sintetica di quanto i valori della stima che osserviamo nei singoli campioni “distano” dal valore vero del parametro che costituisce la loro media. Dati due stimatori corretti per il parametro θ: Diremo che f è più efficiente di g se: II parte

32 MSE(T) = E(T–θ)2 = Var(T) + B2(T)
La correttezza di uno stimatore è importante perché indica che lo stimatore T ha una distribuzione centrata sul parametro θ. D’altra parte, il valore atteso di T è tanto più rappresentativo quanto più la sua varianza è piccola. Tuttavia, poiché la varianza di T misura la dispersione attorno al suo valore atteso, se E(T ) ≠ θ (stimatore distorto) è necessario usare un diverso criterio di valutazione della variabilità: MSE(T) = E(T–θ)2 = Var(T) + B2(T) detto errore quadratico medio (mean square error) Per stimatori corretti l’MSE coincide con la varianza Diremo che f è più efficiente di g se: Uno stimatore T si dice consistente (in senso forte) per il parametro θ se il suo errore quadratico medio tende a zero al crescere di n II parte

33 Stima della media della popolazione
Si consideri una popolazione X, con media μ e varianza σ2. Lo stimatore media campionaria è stimatore corretto, infatti: La varianza della media campionaria è: pertanto è uno stimatore consistente, poiché: Se la popolazione è distribuita normalmente con N(μ,σ2) allora anche la media campionaria si distribuisce come una Normale II parte

34 Stima della proporzione della popolazione
Si consideri una popolazione X distribuita come una Bernoulli con parametro π. La proporzione campionaria è stimatore corretto della proporzione π, infatti: La varianza della proporzione campionaria è: pertanto è uno stimatore consistente, poiché: II parte

35 Stima della varianza della popolazione
Si consideri una popolazione X, con media μ e varianza σ2. Se utilizziamo lo stimatore “naturale” della varianza campionaria: il suo valore atteso è: La distorsione dipende essenzialmente dal valore di n: Non si tratta di un difetto grave, la distorsione infatti decresce rapidamente al crescere di n, tuttavia spesso si utilizza un’apposito stimatore Si definisce varianza campionaria corretta lo stimatore: S2 è uno stimatore corretto infatti: e consistente per σ2: II parte

36 Stima intervallare Per mezzo della stima puntuale, sulla base di un campione osservato s S, si ottiene una stima t del parametro θ, ossia un singolo valore, che, tuttavia, può differire in modo rilevante da θ stesso. Per rappresentare l’incertezza legata alla stima, è opportuno accompagnare la stima puntuale con una misura di variabilità dello stimatore nello spazio dei campioni. stima intervallare La stima intervallare consiste nel calcolare, sulla base dei dati di un campione, un intervallo di valori [c1,c2 ] per cui sia possibile dire che il valore del parametro cada al suo interno, con un livello di “fiducia (o confidenza)” pari a 1-α (assegnato). II parte

37 In generale sia X una v.c. con f(x,θ) dipendente da θ ignoto,
considerato un campione di numerosità n che fornisce i valori (X1,…,Xj,…,Xn), se C1 e C2 sono due v.c. funzione di (X1,…,Xj,…,Xn) , tali che W=C2-C1 è indipendente da θ e che: P[C1≤θ≤C2]=1-α, esse determinano un intervallo di confidenza del parametro θ avente coefficiente di confidenza pari a 1-α. Se per tale intervallo si afferma che al suo interno è compreso l'ignoto parametro θ, tale affermazione gode di un grado di fiducia pari ad 1-α. Per costruire un intervallo di confidenza fissiamo una regola [C1(X1,…Xn); C2(X1,…,Xn)] in base a cui calcoleremo l'intervallo, in funzione del campione (X1,…,Xn). Un volta estratto un campione (x1,…, xn), si calcolano gli estremi dell'intervallo come [C1(x1,…,xn) ;C2(x1,…,xn)]. A priori possiamo dire che la probabilità di estrarre un campione tale da fornire un intervallo che includa θ è (1-α). A posteriori, confidiamo di aver estratto uno dei campioni che forniscono un intervallo che include θ. II parte

38 Z è una quantità pivot in quanto:
Per costruire IC un metodo è quello della quantità pivotale o ausiliaria. Una quantità pivot è una funzione dei dati campionari e del parametro incognito θ da stimare, la cui distribuzione nello spazio dei campioni S è completamente nota e non dipende da nessun altro parametro incognito. Se ad esempio vogliamo stimare la media μ in popolazione di un carattere X, tale che X~N(μ,σ2) con σ noto Sappiamo che: Z è una quantità pivot in quanto: è funzione dei dati campionari (attraverso la media campionaria) e del parametro incognito μ, è di distribuzione nota nello spazio dei campioni (è N(0,1)) non dipende da nessun altro parametro incognito (abbiamo supposto σ noto) II parte

39 Inversione di una quantità pivot
Essendo nota la distribuzione della QP, allora per ogni α fissato, 0< α <1, esisteranno due valori q1 e q2 dipendenti da α, tali che Nel caso precedente della media, fissato un livello di probabilità 1-α , è possibile determinare due valori z2 e z1 tali che: II parte

40 Abbiamo quindi uno stimatore intervallare definito dall’intervallo:
che ha probabilità 1-α di contenere il valore incognito μ. Ad esempio se α=0.05 La stima intervallare, calcolata sul campione, è invece definita da: e consente di affermare che questo intervallo conterrà μ con un livello di “fiducia” (o “confidenza”) pari a 1-α (non è più corretto parlare di “probabilità…) II parte

41 Risolvendo la disequazione rispetto a μ, si ottiene:
Si parla di “confidenza” e non di probabilità perché inizialmente si considera: questo consente di affermare che la probabilità di estrarre un campione la cui media sia distante da μ meno di zα/2σ/√n è pari a 0,95. Risolvendo la disequazione rispetto a μ, si ottiene: Il cui significato è: se consideriamo per ciascun campione dello spazio campionario S l’intervallo di estremi allora la frazione 1-α di tutti gli intervalli associati ai campioni di S hanno estremi tali da contenere il valore incognito μ. II parte

42 Estratto quindi un campione effettivo si potrà calcolare il parametro campionario e determinare gli estremi dell’intervallo. Tuttavia non si può dire che con probabilità 1-α (ad esempio del 95%) il parametro incognito è compreso in questo intervallo, in quanto esprime una proprietà che riguarda lo spazio campionario e non il singolo campione osservato. Ma, dato che a priori la probabilità di ottenere un campione a cui è associato un intervallo che contiene il parametro incognito è del 95%, si ha “fiducia” che l’intervallo effettivamente determinato sia un intervallo valido. II parte

43 La lunghezza di un intervallo di confidenza con grado di fiducia (1−α)⋅100% è
e dipende quindi da tre fattori: n: al crescere dell’ampiezza del campione, la lunghezza dell’intervallo diminuisce, quindi la stima è più precisa; α: al crescere del grado di fiducia richiesto, la lunghezza dell’intervallo aumenta, quindi la stima è meno precisa; σ: al crescere della deviazione standard, che riflette la variabilità del campione, la lunghezza dell’intervallo aumenta. II parte

44 Stima intervallare di una media
◊ Varianza della popolazione nota Dato un campione di dimensione n estratto da una popolazione con media μ e varianza σ², avremo che, per il teorema del limite centrale: dove è l'ascissa che lascia α/2% dei casi della normale standardizzata alla sua sinistra, mentre è l'ascissa che lascia la medesima percentuale di casi alla sua destra. Per mezzo di una semplice trasformazione matematica avremo che la formula precedente diviene: Potremo cioè dire che la media della popolazione è compresa nell'intervallo: con un grado di affidabilità dell'1-α%. II parte

45 ◊ Varianza della popolazione ignota
In questo caso, se la numerosità del campione è sufficientemente grande (n≥30), i limiti dell'intervallo potranno essere calcolati esattamente con le stesse modalità del caso in cui la varianza della popolazione sia nota, utilizzando come stima della varianza della popolazione la varianza calcolata sui dati campionari che indicheremo con s²: avremo quindi gli intervalli: II parte

46 Gli intervalli saranno perciò:
Se invece la numerosità del campione è inferiore a 30 unità non potremo più assumere la distribuzione normale come distribuzione limite; in particolare avremo che: Gli intervalli saranno perciò: II parte

47 Stima intervallare di una proporzione
Abbiamo già avuto modo di notare come il parametro proporzione possa essere considerato come una media Pertanto potremo costruire intervalli di confidenza seguendo una formula del tutto analoga a quella della media. Quindi se π è la proporzione della popolazione da stimare e p è la proporzione calcolata sulla base delle osservazioni campionarie, avremo gli intervalli per π: L'approssimazione che si compie nel sostituire π con p per il calcolo della varianza è pari a quella che si ha quando si sostituisce σ con s, ed introduce una fonte di errore trascurabile per campioni sufficientemente grandi. II parte

48 Normalmente si scelgono valori di probabilità: α=0. 10, α=0. 05, α=0
Normalmente si scelgono valori di probabilità: α=0.10, α=0.05, α=0.02, α=0.01 (i più utilizzati sono α=0.05 e α=0.01). Sulla base della tavola della normale standardizzata è possibile ricavare i valori di zα/2 per i valori di α sopra indicati α=0.10 » z0.050=1.64 α=0.05 » z0.025=1.96 α=0.02 » z0.010=2.33 α=0.01 » z0.005=2.58 II parte

49 Esempio 1 Si vuole stimare l’importo medio μ delle 2000 fatture emesse da un’azienda in un certo esercizio e si costruisce un campione di 100 fatture. L’importo medio risulta pari a 450 euro, e lo scarto campionario corretto è pari a 65 euro. L’intervallo di stima al 95% (cioè con una probabilità di errore pari a 0,05) sarà dato da: caso di campionamento con ripetizione caso di campionamento senza ripetizione Se ad esempio il campione fosse n=50, sempre con (1-α)%=95%, avremo rispettivamente: Se invece il campione fosse sempre n=100, ma con (1-α)%=99%, avremo rispettivamente: campionamento con ripetizione campionamento senza ripetizione II parte

50 Se invece il campione fosse di numerosità n=25 avremo:
Tavola della distribuzione t di Student II parte

51 Esempio 2 Date 5000 fatture emesse da un’azienda in un certo esercizio, si vuole stimare la proporzione π delle fatture contenenti errori formali e si costruisce un campione di 150 fatture, delle quali 9 contengono errori formali. Si vuole costruire un intervallo al 95% per la proporzione π. La proporzione campionaria è: caso di campionamento con ripetizione caso di campionamento senza ripetizione II parte

52 Esempio 3 Consideriamo nuovamente di volere stimare l’importo medio μ delle 2000 fatture emesse da un’azienda in un certo esercizio, e di ipotizzare che lo scarto quadratico medio sia pari a 65 euro. Quale dovrà essere la numerosità del campione affinché possiamo essere “confidenti” al 95% che l’errore compiuto nella stima non superi i 10 euro (ipotizzando un campionamento con ripetizione)? Il campione dovrà quindi essere n=163 II parte

53 Se dall’osservazione del campione di 163 fatture si ottenesse una media per fattura di 450 euro, avremo il seguente intervallo di confidenza al 95%: II parte

54 Verifica delle ipotesi
Per ipotesi statistica intendiamo un'assunzione riguardante generalmente un parametro o una distribuzione di una popolazione. La verifica o controllo di ipotesi consiste nello stabilire se l'assunzione fatta si possa considerare esatta o meno, sulla base delle osservazioni campionarie. Un test per provare un'ipotesi è un criterio per accettare o respingere l'ipotesi fatta sulla popolazione in base alle risultanze di un campione estratto da questa popolazione. L'ipotesi che viene formulata sul valore che un parametro può assumere, e che si vuole provare per mezzo del test, è detta ipotesi nulla H0, mentre viene indicata con H1 l'ipotesi alternativa, che è l'ipotesi sul valore che lo stesso parametro può assumere in alternativa a quello definito nell'ipotesi nulla. II parte

55 Le ipotesi possono essere:
semplici: se definiscono un punto nello spazio dei parametri H0: θ=a H1: θ =b composte: se definiscono delle regioni H0: θ=a H1: θ≠a; H0: θ=a H1: θ>a H0 : θ = a H1 : θ = b Ipotesi semplice H1 : θ < a Ipotesi composta monodirezionale H1 : θ > a Ipotesi composta monodirezionale H1 : θ ≠ a Ipotesi composta bidirezionale II parte

56 Nella verifica di ipotesi si segue la seguente procedura:
definizione dell'ipotesi nulla assunzione della distribuzione del parametro campionario decisione del grado di rischio che si è disposti a correre decisione sulla numerosità del campione definizione, in base ai punti precedenti, della regione critica o di rifiuto R estrazione del campione, calcolo del parametro, controllo con la regione critica, accettazione o rifiuto dell'ipotesi nulla. Nel compiere questa decisione si possono commettere due tipi di errore: rifiutare l'ipotesi nulla H0 quando in realtà è vera (errore di I tipo) accettare l'ipotesi nulla H0 quando in realtà è falsa (errore di II tipo) II parte

57 La possibilità di commettere uno di questi errori dipende dal fatto che la prova di ipotesi, essendo di carattere inferenziale, viene effettuata in condizioni di informazione limitata, cioè per mezzo di un campione. Questo significa che, sulla base delle informazioni prodotte da un sottoinsieme della popolazione, non potremo mai essere sicuri che l'affermazione fatta nei riguardi della popolazione sia corretta (la certezza l'avremmo solamente osservando l'intera popolazione). Ai due tipi di errore sono associate le probabilità e α e β. In particolare se è la funzione test, definiamo la probabilità di rifiutare H0 quando in realtà è vera (probabilità errore di I tipo) la probabilità che la statistica S cada nella regione di accettazione A, quando l'ipotesi nulla è falsa. Il valore di probabilità α è detto livello di significatività, e corrisponde alla dimensione della regione critica. II parte

58 Riassumendo potremo avere: ipotesi
decisioni H0 vera H0 falsa respingere H0 errore I tipo prob=α decisione corretta prob=1-β accettare H0 decisione corretta prob=1-α errore II tipo prob=β Esiste una relazione tra α e β, tale per cui se diminuiamo la probabilità di avere un errore di I specie α, aumenterà la probabilità di commettere un errore di seconda specie β. II parte

59 E' chiaro se vogliamo ridurre la probabilità β, dovremo aumentare α.
Se consideriamo ad esempio le ipotesi: avremo un'area in cui saremo portati ad accettare H0 , (intervallo A,B). Entro tale intervallo sarà però possibile commettere un errore di II specie. E' chiaro se vogliamo ridurre la probabilità β, dovremo aumentare α. II parte

60 se β o 1- β sono inadeguate modificare α o n e ripetere il test.
La procedura di verifica di ipotesi può quindi essere sintetizzata come segue, nel caso in cui siano prefissati α ed n: definizione dell'ipotesi nulla assunzione della distribuzione del parametro campionario determinazione della numerosità campionaria n definizione di α: livello di significatività identificazione della regione critica estrazione del campione, calcolo del parametro, controllo con la regione critica, e quindi accettazione o rifiuto dell'ipotesi nulla controllo di β (detta curva operativa caratteristica OC) o di 1- β, detta funzione di potenza, in relazione a prefissate ipotesi alternative se β o 1- β sono adeguate alle necessità proprie dell'analisi, confermare la decisione se β o 1- β sono inadeguate modificare α o n e ripetere il test. La curva operativa caratteristica è un grafico indicante la probabilità di errore di II tipo sotto diverse ipotesi alternative. Questi grafici forniscono indicazioni riguardo a quanto un test permette di minimizzare l'errore di II specie; indicano in altri termini la potenza di un test nell'evitare di prendere decisioni errate. II parte

61 definizione dell'ipotesi nulla
Se invece di fissare a priori i valori di α e n, si vuole mantenere controllata la probabilità di errore di II tipo, potremo sviluppare un test in cui α e β sono dati, ed, in base a questi, si determina la numerosità n del campione da osservare, tale da soddisfare i livelli di probabilità richiesti. In questo caso il processo di verifica di ipotesi sarà: definizione dell'ipotesi nulla assunzione della distribuzione del parametro campionario definizione di α: livello di significatività, e di β calcolo della numerosità n del campione identificazione della regione critica estrazione del campione, calcolo del parametro, controllo con la regione critica, e quindi accettazione o rifiuto dell'ipotesi nulla II parte

62 Controllo di ipotesi sulla media di una popolazione
σ nota Test bilaterale stabilire le ipotesi stabilire il parametro campionario da utilizzare: decidere il livello di significatività α stabilire la numerosità campionaria n stabilire i limiti critici di z in base ad α ed n estrarre il campione e calcolare il valore di z per il campione e controllare la sua posizione nei confronti dei valori dei limiti critici decidere se accettare o rifiutare l'ipotesi nulla individuare, se necessario, la curva operativa caratteristica II parte

63 Supponiamo di estrarre il campione e di ottenere Calcoliamo
Data la produzione di una macchina che produce componenti meccanici per i quali è previsto un diametro di 67mm, con una deviazione standard di 3mm, decidere, sulla base di un campione di 25 unità se la produzione rispetta le specifiche, con un livello di significatività del 5%. per =5%=0.05 avremo che i valori limite di z saranno 1.96; graficamente il test sarà: Supponiamo di estrarre il campione e di ottenere Calcoliamo Il valore di z ricade all'interno dell'intervallo fissato come regione di accettazione: si è quindi portati ad accettare l'ipotesi nulla. II parte

64 Vediamo di determinare la curva operativa caratteristica.
Si ipotizza che alcune ipotesi alternative siano vere; consideriamo ad esempio vera l'ipotesi μ=68; β sarà la probabilità di avere campioni con media che ricade nell'intervallo di accettazione costruito con μ=67, quando in realtà μ=68. I limiti di accettazione per μ=67 saranno: E' sufficiente calcolare i valori di z per i due limiti: e determinare la probabilità di avere valori campionari entro questi due limiti, se è vero che μ=68: Utilizzando la tavola della normale standardizzata avremo β= II parte

65 Ripetendo questo calcolo per diverse alternative avremo: μ β
z1 z2 β 1- β 68.5 -4.47 -0.53 0.29 0.71 68.0 -3.63 0.30 0.62 0.38 67.5 -2.80 1.13 0.87 0.13 67.0 -1.96 1.96 0.95 0.05 66.5 -1.13 2.80 66.0 -0.30 3.63 65.5 0.53 4.47 II parte

66 Per diminuire β, fissato a, si dovrà modificare la numerosità campionaria n; quindi per avere valori di 1- β più bassi dovremo aumentare n. Se consideriamo ad esempio n=100 avremo che i limiti saranno e 67.59, per cui i valori di probabilità saranno: μ z1 z2 β 1- β 68.5 -6.97 -3.04 0.00 1.00 68.0 -5.30 -1.37 0.09 0.91 67.5 -3.63 0.30 0.62 0.38 67.0 -1.96 1.96 0.95 0.05 66.5 -0.30 3.63 66.0 1.37 5.30 65.5 3.04 6.97 Graficamente avremo quindi, confrontando le due curve delle funzioni di potenza: II parte

67 Test unilaterale E' il caso in cui si applica il test per la media ad una sola coda per accettare l'ipotesi: oppure Si applicherà evidentemente lo stesso procedimento utilizzato nel caso di test bilaterali, però il limite della regione di rifiuto sarà determinato in modo che si trovi da un lato solo della distribuzione del parametro campionario media. Supponiamo di volere verificare l’ipotesi: utilizzando un campione n=25, e sapendo che σ=2, con un livello di significatività α=0.05. Per α=0.05, il limite di accettazione sarà z=-1.645 II parte

68 per cui il limite della regione di rifiuto sarà:
Si rifiuterà quindi l'ipotesi nulla se la media calcolata sul campione di 25 prove sarà inferiore a 63.64, oppure se il valore di z calcolato sempre nel campione sarà inferiore a In questo caso la curva operativa caratteristica sarà: valori medi limite regione di rifiuto curva operativa caratteristica 62.5 2.85 0.0020 63.0 1.60 0.0548 63.5 0.35 0.3632 64.3 -1.645 0.9500 65.0 -3.40 0.9997 II parte

69 β esprime quindi la probabilità di avere valori medi campionari superiori a quando la media della popolazione è diversa da 64.3: II parte

70 Controllo di ipotesi sulla media di una popolazione
σ ignota In questo caso si dovrà utilizzare la distribuzione del parametro campionario t-Student: con n-1 gradi di libertà, purché la popolazione di provenienza possa essere considerata normale. II parte

71 Esempio test bilaterale: supponiamo di volere effettuare il test per:
Ipotizziamo di avere osservato un campione con n=12 che fornisce i seguenti valori: 55, 62,54,58,65,64,60,62,59,67,62,61; e di volere avere un livello di significatività del 5%. Avremo quindi una distribuzione t con (n-1)=(12-1)=11 gradi di libertà da cui otterremo: in base al campione avremo inoltre: potremo quindi calcolare il valore di t nel campione: per cui rifiuteremo l'ipotesi nulla. II parte

72 Il valore del t campionario è invece:
Esempio test unilaterale: data una miscela chimica in cui debbono essere presenti almeno 64.3 parti di un additivo, si vuole verificare con 25 prove se la produzione garatisce tale tipo di composizione della miscela al livello del 5%. Il campione di 25 prove ha presentato: In questo caso i gradi di libertà saranno (25-1)=24, per cui la soglia del valore t sarà Il valore del t campionario è invece: per cui potremo accettare l'ipotesi nulla II parte

73 Conclusioni relative alla verifica di ipotesi sulla media
carattere distribuito in modo normale Se , sistemi di ipotesi del tipo σ2 non noto si testano per mezzo della statistica: σ2 noto si testano per mezzo della statistica: Se n è grande (di solito si assume n≥30) allora la differenza tra t e Z è piccola e possiamo dire che, approssimativamente: carattere distribuito NON in modo normale Se n è abbastanza elevato, è possibile richiamare il teorema del Limite Centrale per cui, sotto H0, la statistica test II parte

74 Controllo di ipotesi sulla proporzione di una popolazione
Quando si deve sottoporre a test l’ipotesi che la proporzione della popolazione assuma un determinato valore p0 si conta il numero X di volte in cui la caratteristica osservata si presenta nel campione di ampiezza n e si calcola la proporzione campionaria: si osserva cioè il numero di successi in n prove (o proporzione di successi). Si ha quindi a che fare con la distribuzione binomiale e si effettua un test di ipotesi sul parametro p di una popolazione binomiale. Quando la numerosità n del campione è sufficientemente grande, Bin(n,p) ~ N(np,np(1-p)) per cui il test di ipotesi sulla proporzione può essere basato sulla distribuzione normale. Per sottoporre a test l’ipotesi H0: p=p0 (o in modo analogo p ≤ p0 o p ≥ p0) si utilizza: che si distribuisce come una normale standardizzata per n sufficientemente grande. II parte

75 Potremo quindi procedere nel modo già illustrato per i test per la media nel caso dei grandi campioni. test Ipotesi nulla H0 Ipot. Altern. H1 Liv. Signif. α Valori critici Regione rifiuto una coda p ≤ p0 p > p0 0.01 2.326 Z > 2.326 0.05 1.645 Z > 1.645 p ≥ p0 p < p0 -2.326 Z < -1.645 Z < due code p = p0 p ≠ p0 e 2.576 Z < Z > 2.576 -1.96 e 1.96 Z < -1.96 Z > 1.96 II parte

76 Si effettuano 500 lanci di una moneta, e si ottiene testa 267 volte.
Decidere se la moneta è truccata con un livello di significatività del 5% Ripetere il calcolo nel caso in cui si ottenga testa 280 volte Si assume come ipotesi nulla: H0 : p = 0.5 e come ipotesi alternativa: H1: p ≠ 0.5. Si effettua un test a due code con α=0.05, per cui la regione di rifiuto sarà definita dai valori: Z<-1.96 e Z>1.96 Abbiamo n=500, x=267, p0=0.5 Z=1.52 cade pertanto nella regione di accettazione, quindi l’ipotesi nulla non può essere rifiutata, potremo quindi ritenere che la moneta non è truccata. Nel caso in cui si ottenga 280 volte testa, avremo: n=500, x=280, p0=0.5 In questo caso Z cade nella regione di rifiuto, saremo quindi portati a rifiutare l’ipotesi nulla, ritenendo pertanto che la moneta sia truccata, con un livello di significatività del 5% II parte

77 Si assume come ipotesi nulla: H0 : p ≥ 0.95
Nell’effettuare una verifica su alcune procedure di controllo interno si ritiene che almeno il 95% della documentazione debba essere conforme alle procedure previste. L’esame di un campione di 200 documenti rivela che in 18 di loro sono riscontrabili delle irregolarità. Sottoponiamo a test la percentuale di conformità richiesta, al livello di significatività α=0.01. Si assume come ipotesi nulla: H0 : p ≥ 0.95 e come ipotesi alternativa: H1: p < 0.95. Si effettua un test a una coda e si ha: n= x=18 x=182 p0=0.95 Per il livello di significatività α=0.01 la regione di rifiuto è data dai valori Z<−2.326. Il valore cade nella regione di rifiuto, perciò si rifiuta l’ipotesi nulla, al livello di significatività dell’1%, concludendo che la percentuale di documenti conformi è inferiore al 95%. II parte


Scaricare ppt "Corso di Laurea Magistrale in Economia e Professioni"

Presentazioni simili


Annunci Google