Corso di Laurea Magistrale in Economia e Professioni

Slides:



Advertisements
Presentazioni simili
ESERCITAZIONE 2 Come leggere la tavola della normale e la tavola t di Student. Alcune domande teoriche.
Advertisements

Test delle ipotesi Il test consiste nel formulare una ipotesi (ipotesi nulla) e nel verificare se con i dati a disposizione è possibile rifiutarla o no.
8) GLI INTERVALLI DI CONFIDENZA
Stime per intervalli Oltre al valore puntuale di una stima, è interessante conoscere qual è il margine di errore connesso alla stima stessa. Si possono.
Metodi Quantitativi per Economia, Finanza e Management Lezione n°6.
ITIS “G.Galilei” – Crema Lab. Calcolo e Statistica
Intervalli di confidenza
Proprietà degli stimatori
2.VARIABILI CONTINUE A. Federico ENEA; Fondazione Ugo Bordoni Scuola estiva di fonetica forense Soriano al Cimino 17 – 21 settembre 2007.
Inferenza Statistica Le componenti teoriche dell’Inferenza Statistica sono: la teoria dei campioni la teoria della probabilità la teoria della stima dei.
Analisi dei dati per i disegni ad un fattore
Definizioni Chiamiamo esperimento aleatorio ogni fenomeno del mondo reale alle cui manifestazioni può essere associata una situazione di incertezza. Esempi:
Progetto Pilota 2 Lettura e interpretazione dei risultati
Inferenza statistica per un singolo campione
INFERENZA NEL MODELLO DI REGRESSIONE LINEARE MULTIPLA: test sui parametri e scelta del modello (parte 3) Per effettuare test di qualsiasi natura è necessaria.
INFERENZA NEL MODELLO DI REGRESSIONE LINEARE MULTIPLA (parte 1)
Analisi della varianza (a una via)
Processi Aleatori : Introduzione – Parte I
Appunti di inferenza per farmacisti
Corso di biomatematica lezione 10: test di Student e test F
Corso di biomatematica Lezione 2: Probabilità e distribuzioni di probabilità Davide Grandi.
Corso di biomatematica lezione 7-2: Test di significatività
STATISTICA a.a PARAMETRO t DI STUDENT
STATISTICA a.a LA STATISTICA INFERENZIALE
Valutazione della stima: gli intervalli di confidenza
Complementi al Corso di Ecologia - Approfondimenti di statistica
Lezione 8 Numerosità del campione
Lezione 8 Numerosità del campione
Num / 36 Lezione 9 Numerosità del campione.
Verifica delle ipotesi su due campioni di osservazioni
Le distribuzioni campionarie
Unità 6 Test parametrici e non parametrici Test per la verifica della normalità Funzione di ripartizione.
Unità 2 Distribuzioni di probabilità Misure di localizzazione Misure di variabilità Asimmetria e curtosi.
Errori casuali Si dicono casuali tutti quegli errori che possono avvenire, con la stessa probabilità, sia in difetto che in eccesso. Data questa caratteristica,
La teoria dei campioni può essere usata per ottenere informazioni riguardanti campioni estratti casualmente da una popolazione. Da un punto di vista applicativo.
STATISTICA PER LA RICERCA SPERIMENTALE E TECNOLOGICA
Obbiettivo L’obiettivo non è più utilizzare il campione per costruire un valore o un intervallo di valori ragionevolmente sostituibili all’ignoto parametro.
La verifica d’ipotesi Docente Dott. Nappo Daniela
Lezione B.10 Regressione e inferenza: il modello lineare
Un insieme limitato di misure permette di calcolare soltanto i valori di media e deviazione standard del campione, ed s. E’ però possibile valutare.
Corso di Analisi Statistica per le Imprese
IL CAMPIONE.
“Teoria e metodi della ricerca sociale e organizzativa”
ANALISI STATISTICA DI DATI CAMPIONARI
9) VERIFICA DI IPOTESI L’ipotesi statistica è una supposizione riguardante caratteristiche ignote ignote di una v.c. X. Es.: campionamento con ripetizione,
Le distribuzioni campionarie
Test basati su due campioni Test Chi - quadro
Def : uno stimatore è una statistica T n le cui determinazioni servono a fornire delle stime del parametro ignoto  della v.c. X in cui sono state effettuate.
Intervallo di Confidenza Prof. Ing. Carla Raffaelli A.A:
“Teoria e metodi della ricerca sociale e organizzativa”
Intervalli di confidenza
Eventi aleatori Un evento è aleatorio (casuale) quando non si può prevedere con certezza se avverrà o meno I fenomeni (eventi) aleatori sono studiati.
La distribuzione campionaria della media
UNIVERSITA’ DEGLI STUDI DI PERUGIA
Elaborazione statistica di dati
Metodologia della ricerca e analisi dei dati in (psico)linguistica 24 Giugno 2015 Statistica inferenziale
Dalmine, 26 Maggio 2004 Esercitazioni di Statistica con Matlab Dott. Orietta Nicolis fttp:\ingegneria.unibg.it.
ANALISI E INTERPRETAZIONE DATI
TRATTAMENTO STATISTICO DEI DATI ANALITICI
La covarianza.
Operazioni di campionamento CAMPIONAMENTO Tutte le operazioni effettuate per ottenere informazioni sul sito /area da monitorare (a parte quelle di analisi)
In alcuni casi gli esiti di un esperimento possono essere considerati numeri naturali in modo naturale. Esempio: lancio di un dado In atri casi si definisce.
1 DISTRIBUZIONI DI PROBABILITÁ. 2 distribu- zione che permette di calcolare le probabilità degli eventi possibili A tutte le variabili casuali, discrete.
L’ecologia è oggi sempre più una disciplina che enfatizza lo studio olistico del sistema. Anche se il concetto che l’intero possa essere più della somma.
1 VARIABILI CASUALI. 2 definizione Una variabile casuale è una variabile che assume determinati valori in modo casuale (non deterministico). Esempi l’esito.
La distribuzione normale. Oltre le distribuzioni di frequenza relative a un numero finito di casi si possono utilizzare distribuzioni con un numero di.
V - 1 Prof. Giorgio Tassinari Corso di Laurea Magistrale in Economia e Professioni Statistica per l’analisi dei dati Prima parte: il campionamento nella.
INFERENZA NEL MODELLO DI REGRESSIONE LINEARE SEMPLICE
Introduzione all’inferenza
Psicometria modulo 1 Scienze tecniche e psicologiche Prof. Carlo Fantoni Dipartimento di Scienze della Vita Università di Trieste Test di ipotesi.
Transcript della presentazione:

Corso di Laurea Magistrale in Economia e Professioni Statistica per l’analisi dei dati Prima parte: il campionamento nella revisione contabile Dispensa 2 Argomenti: elementi di inferenza statistica Prof. Giorgio Tassinari a.a. 2011-12 II parte

inferenza statistica In generale dobbiamo affrontare problemi in cui, sulla base della conoscenza di alcuni elementi della popolazione, si vogliono trarre conclusioni su tutta la popolazione da cui questi elementi provengono Avendo però osservato solo alcuni elementi della popolazione le conclusioni che possiamo trarre sull’intera popolazione sono caratterizzate da incertezza. popolazioni concettuali (infinite) Per popolazione intendiamo l’insieme delle unità statistiche a cui vogliamo riferire le nostre conclusioni popolazioni reali (finite) le fatture emesse da una azienda nell’anno contabile costituiscono una popolazione finita tutte le possibili uscite T o C in successivi lanci di una moneta sono una popolazione infinita II parte

Il procedimento logico-induttivo attraverso cui si arriva, sulla base di un campione, a trarre conclusioni sull’intera popolazione è detto inferenza statistica. Oggetto dell’inferenza sono alcune misure di sintesi della distribuzione di uno o più caratteri nella popolazione (medie, varianze, proporzioni,…) popolazione stime verifica di ipotesi parametri ? distribuzioni campionarie teoria della probabilità campione statistiche II parte

Questa n-upla è uno dei possibili elementi dello spazio campionario S. Data quindi una popolazione P, un criterio di campionamento C e la numerosità campionaria n, è possibile definire l’insieme di tutti i possibili campioni S(P,C,n). Se indichiamo con P(c) la probabilità di ogni campione c, appartenete ad S, di essere estratto, la coppia {S,P(c)} è detta piano di campionamento. Consideriamo un piano di campionamento casuale semplice con ripetizione: una volta estratte le n unità campionarie ed osservata la caratteristica di interesse avremo la n-upla (x1,x2,…,xn), ovvero il campione osservato. Questa n-upla è uno dei possibili elementi dello spazio campionario S. Al variare della n-upla in S viene generata una v.c. campionaria (X1,X2,…,Xn) II parte

P(X1=x1,X2=x2,…,Xn=xn)=P(X1=x1)P(X2=x2)…P(Xn=xn) La v.c. n-upla campionaria (X1,X2,…,Xn) è una variabile n-dimensionale a componenti i.i.d. (indipendenti ed identicamente distribuite). Questo significa che la v.c. Xj (j=1,…n), generata dalla j-esima estrazione, ha la stessa distribuzione di probabilità della caratteristica X nella popolazione. (x1,x2,…,xn) -> (X1,X2,…,Xn) Dato che la v.c. n-upla campionaria (X1,X2,…,Xn) è a componenti i.i.d., allora la sua funzione di probabilità congiunta è data da: P(X1=x1,X2=x2,…,Xn=xn)=P(X1=x1)P(X2=x2)…P(Xn=xn) Questa rappresenta la probabilità di avere osservato il campione (x1,x2,…,xn) II parte

Consideriamo ad esempio il numero di impiegati per ufficio in una azienda. N. impiegati 1 2 3 4 Totale Frequenza relativa 0.15 0.30 0.45 0.10 1.00 Se estraiamo un campione casuale di n=5 uffici, la variabile numero di impiegati potrà assumere valori da 1 a 4, con probabilità pari alla frequenza relativa associata ad ogni singolo valore. Ciò significa che le 5 v.c. generate dalle 5 estrazioni avranno distribuzione di probabilità uguale fra loro ed uguale a quella della caratteristica in esame. Ad esempio, la prima unità estratta avrà: P(X1=1)=0.15, P(X1=2)=0.30, P(X1=3)=0.45, P(X1=4)=0.10 Supponiamo di avere estratto un campione con n=5 che ha fornito i seguenti valori: (x1=1,x2=3, x3=2, x4=1, x5=4) La probabilità associata al campione osservato è: P(x1=1,x2=3, x3=2, x4=1, x5=4)=P(x1=1)P(x2=3)P(x3=2)P(x4=1)P(x5=4)= 0.15*0.45*0.30*0.15*0.10=0.000303 II parte

In realtà quello ci interessa è il problema inverso (o induttivo). Indichiamo con θ un parametro della popolazione, ovvero una sua costante caratteristica (nel caso di popolazioni finite una media, varianza,…) Noto θ, la distribuzione di probabilità della v.c. n-upla campionaria (X1,X2,…,Xn) ci consente di assegnare una probabilità a qualsiasi campione osservato (x1,x2,…,xn) [problema diretto]. In realtà quello ci interessa è il problema inverso (o induttivo). Non conosciamo il valore di un parametro θ della popolazione, e lo si vuole “valutare” per mezzo del campione osservato (x1,x2,…,xn). I metodi che permettono di risolvere il problema inverso sono detti di inferenza statistica Ad esempio, se il parametro θ a cui siamo interessati è la media μ del numero di impiegati per ufficio dell’azienda sotto esame, ed abbiamo osservato il campione (x1=1,x2=3, x3=2, x4=1, x5=4) avremo: II parte

Inferenza statistica Stima dei parametri Verifica di ipotesi stima puntuale stima per intervallo La verifica di ipotesi consente di fare una congettura, un’affermazione su θ, detta ipotesi, e di decidere, sulla base del campione, se essa può essere accettata. Si tratta cioè di dividere lo spazio campionario in due sottoinsiemi: il sottoinsieme A dei campioni che porta ad accettare l’ipotesi, ed il sottoinsieme complementare R che invece porta al rifiuto dell’ipotesi. Dato lo spazio parametrico Θ, ovvero l’insieme di tutti i valori che può assumere il parametro incognito θ, e dato lo spazio campionario S, la stima dei parametri consente, in base al campione osservato, di un valore (stima puntuale) o un insieme di valori (stima per intervallo) al valore incognito θ. S S Θ Θ (x1,x2,…,xn) - R ω ω A S Θ dove ω rappresenta il sottoinsieme dello spazio parametrico cui appartiene θ (x1,x2,…,xn) II parte

Statistiche campionarie e distribuzioni campionarie Ogni processo di inferenza statistica è caratterizzato da una componente di incertezza, i dati x sono infatti interpretati come realizzazione di un vettore casuale X. Se si ripete l’esperimento, nelle medesime condizioni, si ottengono dei dati x0, generalmente diversi da x. L’inferenza viene eseguita cercando di estrarre tutta l’informazione possibile contenuta nel campione, per fare una valutazione dell’intera popolazione rispetto al fenomeno studiato. Pertanto, si fa uso di opportune funzioni dei valori campionari (somma, media aritmetica, differenza tra massimo e minimo e così via) che permettano di effettuare questa valutazione. Queste funzioni vengono dette statistiche campionarie. Si definisce statistica (campionaria) ogni trasformata T = t(X1, … ,Xn), che sintetizza opportunamente il campione casuale X = (X1,…,Xn). Formalmente si tratta di funzioni che associano a ogni n-pla un singolo numero reale (ad esempio la media campionaria, la varianza campionaria,…) II parte

Una statistica campionaria è essa stessa una variabile casuale: è funzione della v.c. assume, in generale, valori diversi a seconda del campione estratto ha una propria distribuzione di probabilità che dipende dalla distribuzione della v.c. la probabilità che la statistica campionaria assuma un certo valore è pari alla probabilità complessiva di tutti i campioni (dello spazio campionario) per i quali si ottiene tale valore è una variabile casuale o, in generale, un vettore casuale con una determinata distribuzione di probabilità, chiamata distribuzione campionaria. Una statistica campionaria, utilizzata per stimare un generico parametro θ viene detta stimatore di θ Ad esempio la media campionaria è uno stimatore di II parte

I parametri che si debbono stimare, o rispetto ai quali verificare ipotesi, rappresentano delle misure di sintesi della popolazione, cioè funzioni della distribuzione del carattere nella stessa popolazione (medie, varianze, proporzioni) E’ abbastanza ragionevole pensare di stimare (in modo puntuale) un parametro incognito θ applicando, ai dati campionari, la stessa sintesi che θ opera sulla popolazione. Questo modo di procedere viene denominato “plug in principle” e si basa sull’idea di stimare funzioni dei dati in popolazione (parametri) applicando le stesse funzioni ai dati campionari (es.: stimare la media di pop. con la media campionaria, la varianza di pop. con la varianza campionaria, ecc. …) Tuttavia, non sempre è possibile usare tale metodo e, comunque, non è detto che tale metodo produca una “buona” stima del parametro. Esistono altri metodi per individuare gli stimatori (dei minimi quadrati, della massima verosimiglianza, dei momenti, ecc.) II parte

Definizione: si chiama stimatore del parametro θ ogni statistica utilizzata per stimare θ. Il valore che lo stimatore T assume in un campione osservato si chiama stima. In realtà viene osservato un singolo campione e, poiché non è nota la popolazione, non è possibile dire se la stima ottenuta in base al campione osservato è “buona” o no (così come non si poteva decidere se il campione era rappresentativo) Al fine di decidere se lo stimatore rappresenta una proposta ragionevole oppure no per stimare il parametro è necessario considerare la distribuzione dello stimatore nello spazio dei campioni II parte

distribuzione di probabilità di (distribuzione campionaria) Data una popolazione di 100 documenti, in cui la percentuale di errore è del 20%, supponiamo di estrarre un campione di 3 documenti, e di verificare quanti di essi sono errati distribuzione di probabilità di (distribuzione campionaria) Campione s Valore assunto dalla statistica camp. Pr(s) (0,0,0) (1-θ)3 (0,0,1) 1/3 θ(1-θ)2 (0,1,0) (1,0,0) (0,1,1) 2/3 θ2(1-θ) (1,0,1) (1,1,0) (1,1,1) 1 θ3 (1-θ)3 = 0.512 1/3 3xθ(1-θ)2 = 0.384 2/3 3xθ2(1-θ) = 0.096 1 θ3 = 0.008 Totale Supponiamo di osservare tre documenti e di ottenere (1,0,1). Secondo il “plug in principle” proponiamo la proporzione campionaria come stima di θ. Se invece avessimo osservato un campione (0,0,1), avremmo avuto il che avrebbe portato a conclusioni diverse. II parte

Distribuzione della media campionaria Se si indica con x1, x2, …, xn l’insieme dei valori rilevati in un campione di ampiezza n, la media aritmetica campionaria si ottiene sommando le osservazioni e dividendole per n: Se calcoliamo la media campionaria per tutti i possibili campioni dello spazio campionario U avremo la distribuzione della media campionaria. I parametri che ci consentono una “descrizione” di questa distribuzione sono: - il valore atteso - la varianza II parte

Distribuzione delle medie campionarie Si consideri una popolazione finita, costituita da N = 4 elementi, e avente la seguente distribuzione xi 1 2 3 4 f(xi) 0.25 Consideriamo tutti i possibili campioni di dimensione n = 2 estraibili da questa popolazione; se il campionamento avviene con reimmissione, i campioni di ampiezza 2 sono 42 = 16 Universo campionario Si tratta di disposizioni con ripetizione per cui Campioni Medie (1,1) 1 (3,1) 2 (1,2) 1.5 (3,2) 2.5 (1,3) (3,3) 3 (1,4) (3,4) 3.5 (2,1) (4,1) (2,2) (4,2) (2,3) (4,3) (2,4) (4,4) 4 Distribuzione delle medie campionarie 1 1.5 2 2.5 3 3.5 4 1/16 2/16 3/16 4/16 II parte

media della distribuzione della media campionaria: la distribuzione della media campionaria ha una forma a campana, simile a una distribuzione normale, anche se la popolazione ha la distribuzione uniforme media della distribuzione della media campionaria: varianza della distribuzione della media campionaria: II parte

Il valore atteso della distribuzione della media campionaria è, indipendentemente dalla forma distributiva di X, equivalente al valore atteso μ della popolazione: La varianza non è uguale alla varianza della popolazione, tuttavia vale la relazione infatti II parte

Se il campionamento, nell’esempio precedente, viene fatto senza reimmissione, i campioni estraibili da questa popolazione finita costituita da 4 elementi sono soltanto 6, Si tratta di combinazioni semplici per cui Universo campionario Campioni Medie (1,2) 1.5 (1,3) 2 (1,4) 2.5 (2,3) (2,4) 3 (3,4) 3.5 Distribuzione delle medie campionarie 1.5 2 2.5 3 3.5 1/6 2/6 II parte

Lo scarto quadratico medio In generale, se estraiamo un campione casuale di ampiezza n da una popolazione con media μ e varianza σ2, allora la distribuzione della media campionaria ha media: Per campioni estratti da popolazioni infinite o se il campionamento è effettuato con reimmissione, la varianza della media campionaria è: Per campioni estratti senza reimmissione da popolazione finita, la varianza della media campionaria è: Lo scarto quadratico medio è detto errore standard della media, e rappresenta una misura della variabilità delle medie dei campioni di ampiezza n estratti da una popolazione con varianza σ2 viene detto fattore correttivo per la popolazione finita, e tende ad 1 più la dimensione del campione è piccola rispetto alla dimensione della popolazione II parte

Per quanto riguarda la forma funzionale della distribuzione si può inoltre affermare che se la popolazione segue un modello normale (con media μ e varianza σ2) anche la distribuzione campionaria della media campionaria segue a sua volta una variabile aleatoria normale con la media e varianza indicate in precedenza Più in generale, data una popolazione con media μ e varianza σ2, se da essa si estraggono campioni di dimensione n, allora la variabile: è una v.c. la cui distribuzione tende ad una distribuzione normale standardizzata per n->∞ (Teorema del limite centrale) Qualunque sia la distribuzione della popolazione, si può quindi affermare che la distribuzione della media campionaria è approssimativamente normale con media μ e varianza σ2/√n, per n sufficientemente grande. II parte

Schema riassuntivo distribuzione della media campionaria Campionamento da una popolazione distribuita normalmente con media μ e varianza σ2 la distribuzione della media campionaria è normale Campionamento da una popolazione non distribuita normalmente con media μ e varianza σ2 se la distribuzione della media campionaria è approssimativamente normale, per n abbastanza grande II parte

Distribuzione della media campionaria (varianza σ2 incognita) Quanto visto in precedenza richiede la conoscenza della varianza σ2 della popolazione. Nel caso che il numero n degli elementi del campione sia grande (grande campione), se σ2 non è nota, si sostituisce a σ2 la varianza s2 del campione. Se invece l’ampiezza n del campione è piccola (piccolo campione), si hanno dei risultati solo se il campione proviene da una popolazione normale. Sia data una popolazione normale avente media μ, e da essa si estraggano campioni casuali di ampiezza n; indicando con la media campionaria e con S lo scarto quadratico medio campionario, la variabile: è una variabile aleatoria avente la distribuzione t di Student con grado di libertà ν = n − 1 II parte

Proprietà principali della t di Student: è simmetrica rispetto all’asse x = 0 la densità ha una forma a campana simile a quella della normale ma le sue code sono più “pesanti”; è caratterizzata dai gradi di libertà (g) , definiti (nel contesto che consideriamo) come dimensione del campione (n) meno il numero delle ipotesi che si avanzano (nel caso della distribuzione della media, una sola, quindi g = n -1); al crescere di g la t assomiglia sempre più ad una Normale e, per g≥30 ne è praticamente indistinguibile. Esistono tavole statistiche anche per la distribuzione t di Student. In queste tavole si hanno i valori di h corrispondenti all’espressione: Pr(t ≥ h) = α II parte

Distribuzione t di Student Ad esempio: gdl=9 α=0.05: t0.05=1.833 Se gdl=9, trovare il valore di tα tale che la somma dell’area a destra di tα e dell’area a sinistra di −tα vale α = 0.05 Area totale delle due code = α = 0.05 area a destra di tα (una coda) = α/2 = 0.025. tα = t0.025 = 2.262 II parte

In sintesi, la distribuzione della media campionaria potrà essere: Grandi campioni Piccoli campioni σ2 Popolazione distribuita secondo una N(μ,σ2) Distribuzione non nota o diversa dalla Normale Distribuzione non nota o diversa dalla Normale Nota La distribuzione della media campionaria dipende distribuzione di X nella popolazione Non nota La distribuzione della media campionaria dipende distribuzione di X nella popolazione II parte

distribuzione binomiale Distribuzione campionaria del numero di successi e della proporzione Se un campione casuale di n elementi è estratto da una popolazione suddivisibile in due classi mutuamente escludentisi (E e Ē) caratterizzata dalla probabilità p’ del verificarsi dell’evento E, allora la distribuzione campionaria del numero di successi è descritta dalla distribuzione binomiale nel caso di campionamento con ripetizione distribuzione ipergeometrica nel caso di campionamento senza ripetizione La distribuzione campionaria del numero di successi X, nel caso di estrazione con ripetizione, essendo binomiale, avrà valore atteso e varianza pari a: mentre nel caso di campionamento senza ripetizione avremo la stessa media, e varianza: II parte

distribuzione binomiale Se invece consideriamo la proporzione di successi (eventi E) in un campione di n elementi, avremo il parametri campionario X/n, direttamente legato alla v.c. X numero di successi. La distribuzione campionaria di P=X/n sarà descritta da: distribuzione binomiale nel caso di campionamento con ripetizione con: distribuzione ipergeometrica nel caso di campionamento senza ripetizione con: II parte

In base al teorema del limite centrale avremo inoltre che: La variabile X numero di successi tende, al crescere di n, alla distribuzione normale per cui la probabilità di avere valori di X inferiori ad un certo x sarà: La variabile P proporzione di successi tende, al crescere di n, alla distribuzione normale per cui la probabilità di avere valori di P inferiori ad un certo p sarà: II parte

Proprietà degli stimatori Stima puntuale Proprietà degli stimatori Uno stimatore è uno strumento che consente di ottenere delle stime, ovvero dei valori che possano “validamente” approssimare il valore di un parametro θ della popolazione. In genere è possibile calcolare più di uno stimatore per uno stesso campione, ognuno dei quali fornisce potenziali stime per il parametro θ e la scelta dello stimatore è basata sull’analisi della sua distribuzione di probabilità e di alcune proprietà auspicabili. correttezza efficienza consistenza sufficienza II parte

La distorsione di uno stimatore T è definita da: B(T ) = E (T ) - θ Correttezza T è uno stimatore corretto di θ se il suo valore atteso è uguale al valore del parametro incognito: E(T) = θ Siccome non siamo in grado di sapere se la stima ottenuta in base ad un singolo campione osservato sia buona, si richiede che lo stimatore che la produce sia corretto, ovvero che la stima sia almeno basata su una regola buona “in media”. La distorsione di uno stimatore T è definita da: B(T ) = E (T ) - θ II parte

V (T ) = E [T - E(T )]2 = E[T -θ]2 Efficienza Accanto al valore atteso di uno stimatore è utile considerare anche la sua varianza. V (T ) = E [T - E(T )]2 = E[T -θ]2 La varianza di uno stimatore fornisce una misura sintetica di quanto i valori della stima che osserviamo nei singoli campioni “distano” dal valore vero del parametro che costituisce la loro media. Dati due stimatori corretti per il parametro θ: Diremo che f è più efficiente di g se: II parte

MSE(T) = E(T–θ)2 = Var(T) + B2(T) La correttezza di uno stimatore è importante perché indica che lo stimatore T ha una distribuzione centrata sul parametro θ. D’altra parte, il valore atteso di T è tanto più rappresentativo quanto più la sua varianza è piccola. Tuttavia, poiché la varianza di T misura la dispersione attorno al suo valore atteso, se E(T ) ≠ θ (stimatore distorto) è necessario usare un diverso criterio di valutazione della variabilità: MSE(T) = E(T–θ)2 = Var(T) + B2(T) detto errore quadratico medio (mean square error) Per stimatori corretti l’MSE coincide con la varianza Diremo che f è più efficiente di g se: Uno stimatore T si dice consistente (in senso forte) per il parametro θ se il suo errore quadratico medio tende a zero al crescere di n II parte

Stima della media della popolazione Si consideri una popolazione X, con media μ e varianza σ2. Lo stimatore media campionaria è stimatore corretto, infatti: La varianza della media campionaria è: pertanto è uno stimatore consistente, poiché: Se la popolazione è distribuita normalmente con N(μ,σ2) allora anche la media campionaria si distribuisce come una Normale II parte

Stima della proporzione della popolazione Si consideri una popolazione X distribuita come una Bernoulli con parametro π. La proporzione campionaria è stimatore corretto della proporzione π, infatti: La varianza della proporzione campionaria è: pertanto è uno stimatore consistente, poiché: II parte

Stima della varianza della popolazione Si consideri una popolazione X, con media μ e varianza σ2. Se utilizziamo lo stimatore “naturale” della varianza campionaria: il suo valore atteso è: La distorsione dipende essenzialmente dal valore di n: Non si tratta di un difetto grave, la distorsione infatti decresce rapidamente al crescere di n, tuttavia spesso si utilizza un’apposito stimatore Si definisce varianza campionaria corretta lo stimatore: S2 è uno stimatore corretto infatti: e consistente per σ2: II parte

Stima intervallare Per mezzo della stima puntuale, sulla base di un campione osservato s S, si ottiene una stima t del parametro θ, ossia un singolo valore, che, tuttavia, può differire in modo rilevante da θ stesso. Per rappresentare l’incertezza legata alla stima, è opportuno accompagnare la stima puntuale con una misura di variabilità dello stimatore nello spazio dei campioni. stima intervallare La stima intervallare consiste nel calcolare, sulla base dei dati di un campione, un intervallo di valori [c1,c2 ] per cui sia possibile dire che il valore del parametro cada al suo interno, con un livello di “fiducia (o confidenza)” pari a 1-α (assegnato). II parte

In generale sia X una v.c. con f(x,θ) dipendente da θ ignoto, considerato un campione di numerosità n che fornisce i valori (X1,…,Xj,…,Xn), se C1 e C2 sono due v.c. funzione di (X1,…,Xj,…,Xn) , tali che W=C2-C1 è indipendente da θ e che: P[C1≤θ≤C2]=1-α, esse determinano un intervallo di confidenza del parametro θ avente coefficiente di confidenza pari a 1-α. Se per tale intervallo si afferma che al suo interno è compreso l'ignoto parametro θ, tale affermazione gode di un grado di fiducia pari ad 1-α. Per costruire un intervallo di confidenza fissiamo una regola [C1(X1,…Xn); C2(X1,…,Xn)] in base a cui calcoleremo l'intervallo, in funzione del campione (X1,…,Xn). Un volta estratto un campione (x1,…, xn), si calcolano gli estremi dell'intervallo come [C1(x1,…,xn) ;C2(x1,…,xn)]. A priori possiamo dire che la probabilità di estrarre un campione tale da fornire un intervallo che includa θ è (1-α). A posteriori, confidiamo di aver estratto uno dei campioni che forniscono un intervallo che include θ. II parte

Z è una quantità pivot in quanto: Per costruire IC un metodo è quello della quantità pivotale o ausiliaria. Una quantità pivot è una funzione dei dati campionari e del parametro incognito θ da stimare, la cui distribuzione nello spazio dei campioni S è completamente nota e non dipende da nessun altro parametro incognito. Se ad esempio vogliamo stimare la media μ in popolazione di un carattere X, tale che X~N(μ,σ2) con σ noto Sappiamo che: Z è una quantità pivot in quanto: è funzione dei dati campionari (attraverso la media campionaria) e del parametro incognito μ, è di distribuzione nota nello spazio dei campioni (è N(0,1)) non dipende da nessun altro parametro incognito (abbiamo supposto σ noto) II parte

Inversione di una quantità pivot Essendo nota la distribuzione della QP, allora per ogni α fissato, 0< α <1, esisteranno due valori q1 e q2 dipendenti da α, tali che Nel caso precedente della media, fissato un livello di probabilità 1-α , è possibile determinare due valori z2 e z1 tali che: II parte

Abbiamo quindi uno stimatore intervallare definito dall’intervallo: che ha probabilità 1-α di contenere il valore incognito μ. Ad esempio se α=0.05 La stima intervallare, calcolata sul campione, è invece definita da: e consente di affermare che questo intervallo conterrà μ con un livello di “fiducia” (o “confidenza”) pari a 1-α (non è più corretto parlare di “probabilità…) II parte

Risolvendo la disequazione rispetto a μ, si ottiene: Si parla di “confidenza” e non di probabilità perché inizialmente si considera: questo consente di affermare che la probabilità di estrarre un campione la cui media sia distante da μ meno di zα/2σ/√n è pari a 0,95. Risolvendo la disequazione rispetto a μ, si ottiene: Il cui significato è: se consideriamo per ciascun campione dello spazio campionario S l’intervallo di estremi allora la frazione 1-α di tutti gli intervalli associati ai campioni di S hanno estremi tali da contenere il valore incognito μ. II parte

Estratto quindi un campione effettivo si potrà calcolare il parametro campionario e determinare gli estremi dell’intervallo. Tuttavia non si può dire che con probabilità 1-α (ad esempio del 95%) il parametro incognito è compreso in questo intervallo, in quanto esprime una proprietà che riguarda lo spazio campionario e non il singolo campione osservato. Ma, dato che a priori la probabilità di ottenere un campione a cui è associato un intervallo che contiene il parametro incognito è del 95%, si ha “fiducia” che l’intervallo effettivamente determinato sia un intervallo valido. II parte

La lunghezza di un intervallo di confidenza con grado di fiducia (1−α)⋅100% è e dipende quindi da tre fattori: n: al crescere dell’ampiezza del campione, la lunghezza dell’intervallo diminuisce, quindi la stima è più precisa; α: al crescere del grado di fiducia richiesto, la lunghezza dell’intervallo aumenta, quindi la stima è meno precisa; σ: al crescere della deviazione standard, che riflette la variabilità del campione, la lunghezza dell’intervallo aumenta. II parte

Stima intervallare di una media ◊ Varianza della popolazione nota Dato un campione di dimensione n estratto da una popolazione con media μ e varianza σ², avremo che, per il teorema del limite centrale: dove è l'ascissa che lascia α/2% dei casi della normale standardizzata alla sua sinistra, mentre è l'ascissa che lascia la medesima percentuale di casi alla sua destra. Per mezzo di una semplice trasformazione matematica avremo che la formula precedente diviene: Potremo cioè dire che la media della popolazione è compresa nell'intervallo: con un grado di affidabilità dell'1-α%. II parte

◊ Varianza della popolazione ignota In questo caso, se la numerosità del campione è sufficientemente grande (n≥30), i limiti dell'intervallo potranno essere calcolati esattamente con le stesse modalità del caso in cui la varianza della popolazione sia nota, utilizzando come stima della varianza della popolazione la varianza calcolata sui dati campionari che indicheremo con s²: avremo quindi gli intervalli: II parte

Gli intervalli saranno perciò: Se invece la numerosità del campione è inferiore a 30 unità non potremo più assumere la distribuzione normale come distribuzione limite; in particolare avremo che: Gli intervalli saranno perciò: II parte

Stima intervallare di una proporzione Abbiamo già avuto modo di notare come il parametro proporzione possa essere considerato come una media Pertanto potremo costruire intervalli di confidenza seguendo una formula del tutto analoga a quella della media. Quindi se π è la proporzione della popolazione da stimare e p è la proporzione calcolata sulla base delle osservazioni campionarie, avremo gli intervalli per π: L'approssimazione che si compie nel sostituire π con p per il calcolo della varianza è pari a quella che si ha quando si sostituisce σ con s, ed introduce una fonte di errore trascurabile per campioni sufficientemente grandi. II parte

Normalmente si scelgono valori di probabilità: α=0. 10, α=0. 05, α=0 Normalmente si scelgono valori di probabilità: α=0.10, α=0.05, α=0.02, α=0.01 (i più utilizzati sono α=0.05 e α=0.01). Sulla base della tavola della normale standardizzata è possibile ricavare i valori di zα/2 per i valori di α sopra indicati α=0.10 » z0.050=1.64 α=0.05 » z0.025=1.96 α=0.02 » z0.010=2.33 α=0.01 » z0.005=2.58 II parte

Esempio 1 Si vuole stimare l’importo medio μ delle 2000 fatture emesse da un’azienda in un certo esercizio e si costruisce un campione di 100 fatture. L’importo medio risulta pari a 450 euro, e lo scarto campionario corretto è pari a 65 euro. L’intervallo di stima al 95% (cioè con una probabilità di errore pari a 0,05) sarà dato da: caso di campionamento con ripetizione caso di campionamento senza ripetizione Se ad esempio il campione fosse n=50, sempre con (1-α)%=95%, avremo rispettivamente: Se invece il campione fosse sempre n=100, ma con (1-α)%=99%, avremo rispettivamente: campionamento con ripetizione campionamento senza ripetizione II parte

Se invece il campione fosse di numerosità n=25 avremo: Tavola della distribuzione t di Student II parte

Esempio 2 Date 5000 fatture emesse da un’azienda in un certo esercizio, si vuole stimare la proporzione π delle fatture contenenti errori formali e si costruisce un campione di 150 fatture, delle quali 9 contengono errori formali. Si vuole costruire un intervallo al 95% per la proporzione π. La proporzione campionaria è: caso di campionamento con ripetizione caso di campionamento senza ripetizione II parte

Esempio 3 Consideriamo nuovamente di volere stimare l’importo medio μ delle 2000 fatture emesse da un’azienda in un certo esercizio, e di ipotizzare che lo scarto quadratico medio sia pari a 65 euro. Quale dovrà essere la numerosità del campione affinché possiamo essere “confidenti” al 95% che l’errore compiuto nella stima non superi i 10 euro (ipotizzando un campionamento con ripetizione)? Il campione dovrà quindi essere n=163 II parte

Se dall’osservazione del campione di 163 fatture si ottenesse una media per fattura di 450 euro, avremo il seguente intervallo di confidenza al 95%: II parte

Verifica delle ipotesi Per ipotesi statistica intendiamo un'assunzione riguardante generalmente un parametro o una distribuzione di una popolazione. La verifica o controllo di ipotesi consiste nello stabilire se l'assunzione fatta si possa considerare esatta o meno, sulla base delle osservazioni campionarie. Un test per provare un'ipotesi è un criterio per accettare o respingere l'ipotesi fatta sulla popolazione in base alle risultanze di un campione estratto da questa popolazione. L'ipotesi che viene formulata sul valore che un parametro può assumere, e che si vuole provare per mezzo del test, è detta ipotesi nulla H0, mentre viene indicata con H1 l'ipotesi alternativa, che è l'ipotesi sul valore che lo stesso parametro può assumere in alternativa a quello definito nell'ipotesi nulla. II parte

Le ipotesi possono essere: semplici: se definiscono un punto nello spazio dei parametri H0: θ=a H1: θ =b composte: se definiscono delle regioni H0: θ=a H1: θ≠a; H0: θ=a H1: θ>a H0 : θ = a H1 : θ = b Ipotesi semplice H1 : θ < a Ipotesi composta monodirezionale H1 : θ > a Ipotesi composta monodirezionale H1 : θ ≠ a Ipotesi composta bidirezionale II parte

Nella verifica di ipotesi si segue la seguente procedura: definizione dell'ipotesi nulla assunzione della distribuzione del parametro campionario decisione del grado di rischio che si è disposti a correre decisione sulla numerosità del campione definizione, in base ai punti precedenti, della regione critica o di rifiuto R estrazione del campione, calcolo del parametro, controllo con la regione critica, accettazione o rifiuto dell'ipotesi nulla. Nel compiere questa decisione si possono commettere due tipi di errore: rifiutare l'ipotesi nulla H0 quando in realtà è vera (errore di I tipo) accettare l'ipotesi nulla H0 quando in realtà è falsa (errore di II tipo) II parte

La possibilità di commettere uno di questi errori dipende dal fatto che la prova di ipotesi, essendo di carattere inferenziale, viene effettuata in condizioni di informazione limitata, cioè per mezzo di un campione. Questo significa che, sulla base delle informazioni prodotte da un sottoinsieme della popolazione, non potremo mai essere sicuri che l'affermazione fatta nei riguardi della popolazione sia corretta (la certezza l'avremmo solamente osservando l'intera popolazione). Ai due tipi di errore sono associate le probabilità e α e β. In particolare se è la funzione test, definiamo la probabilità di rifiutare H0 quando in realtà è vera (probabilità errore di I tipo) la probabilità che la statistica S cada nella regione di accettazione A, quando l'ipotesi nulla è falsa. Il valore di probabilità α è detto livello di significatività, e corrisponde alla dimensione della regione critica. II parte

Riassumendo potremo avere: ipotesi decisioni H0 vera H0 falsa respingere H0 errore I tipo prob=α decisione corretta prob=1-β accettare H0 decisione corretta prob=1-α errore II tipo prob=β Esiste una relazione tra α e β, tale per cui se diminuiamo la probabilità di avere un errore di I specie α, aumenterà la probabilità di commettere un errore di seconda specie β. II parte

E' chiaro se vogliamo ridurre la probabilità β, dovremo aumentare α. Se consideriamo ad esempio le ipotesi: avremo un'area in cui saremo portati ad accettare H0 , (intervallo A,B). Entro tale intervallo sarà però possibile commettere un errore di II specie. E' chiaro se vogliamo ridurre la probabilità β, dovremo aumentare α. II parte

se β o 1- β sono inadeguate modificare α o n e ripetere il test. La procedura di verifica di ipotesi può quindi essere sintetizzata come segue, nel caso in cui siano prefissati α ed n: definizione dell'ipotesi nulla assunzione della distribuzione del parametro campionario determinazione della numerosità campionaria n definizione di α: livello di significatività identificazione della regione critica estrazione del campione, calcolo del parametro, controllo con la regione critica, e quindi accettazione o rifiuto dell'ipotesi nulla controllo di β (detta curva operativa caratteristica OC) o di 1- β, detta funzione di potenza, in relazione a prefissate ipotesi alternative se β o 1- β sono adeguate alle necessità proprie dell'analisi, confermare la decisione se β o 1- β sono inadeguate modificare α o n e ripetere il test. La curva operativa caratteristica è un grafico indicante la probabilità di errore di II tipo sotto diverse ipotesi alternative. Questi grafici forniscono indicazioni riguardo a quanto un test permette di minimizzare l'errore di II specie; indicano in altri termini la potenza di un test nell'evitare di prendere decisioni errate. II parte

definizione dell'ipotesi nulla Se invece di fissare a priori i valori di α e n, si vuole mantenere controllata la probabilità di errore di II tipo, potremo sviluppare un test in cui α e β sono dati, ed, in base a questi, si determina la numerosità n del campione da osservare, tale da soddisfare i livelli di probabilità richiesti. In questo caso il processo di verifica di ipotesi sarà: definizione dell'ipotesi nulla assunzione della distribuzione del parametro campionario definizione di α: livello di significatività, e di β calcolo della numerosità n del campione identificazione della regione critica estrazione del campione, calcolo del parametro, controllo con la regione critica, e quindi accettazione o rifiuto dell'ipotesi nulla II parte

Controllo di ipotesi sulla media di una popolazione σ nota Test bilaterale stabilire le ipotesi stabilire il parametro campionario da utilizzare: decidere il livello di significatività α stabilire la numerosità campionaria n stabilire i limiti critici di z in base ad α ed n estrarre il campione e calcolare il valore di z per il campione e controllare la sua posizione nei confronti dei valori dei limiti critici decidere se accettare o rifiutare l'ipotesi nulla individuare, se necessario, la curva operativa caratteristica II parte

Supponiamo di estrarre il campione e di ottenere Calcoliamo Data la produzione di una macchina che produce componenti meccanici per i quali è previsto un diametro di 67mm, con una deviazione standard di 3mm, decidere, sulla base di un campione di 25 unità se la produzione rispetta le specifiche, con un livello di significatività del 5%. per =5%=0.05 avremo che i valori limite di z saranno 1.96; graficamente il test sarà: Supponiamo di estrarre il campione e di ottenere Calcoliamo Il valore di z ricade all'interno dell'intervallo fissato come regione di accettazione: si è quindi portati ad accettare l'ipotesi nulla. II parte

Vediamo di determinare la curva operativa caratteristica. Si ipotizza che alcune ipotesi alternative siano vere; consideriamo ad esempio vera l'ipotesi μ=68; β sarà la probabilità di avere campioni con media che ricade nell'intervallo di accettazione costruito con μ=67, quando in realtà μ=68. I limiti di accettazione per μ=67 saranno: E' sufficiente calcolare i valori di z per i due limiti: e determinare la probabilità di avere valori campionari entro questi due limiti, se è vero che μ=68: Utilizzando la tavola della normale standardizzata avremo β=0.6172. II parte

Ripetendo questo calcolo per diverse alternative avremo: μ β z1 z2 β 1- β 68.5 -4.47 -0.53 0.29 0.71 68.0 -3.63 0.30 0.62 0.38 67.5 -2.80 1.13 0.87 0.13 67.0 -1.96 1.96 0.95 0.05 66.5 -1.13 2.80 66.0 -0.30 3.63 65.5 0.53 4.47 II parte

Per diminuire β, fissato a, si dovrà modificare la numerosità campionaria n; quindi per avere valori di 1- β più bassi dovremo aumentare n. Se consideriamo ad esempio n=100 avremo che i limiti saranno 66.41 e 67.59, per cui i valori di probabilità saranno: μ z1 z2 β 1- β 68.5 -6.97 -3.04 0.00 1.00 68.0 -5.30 -1.37 0.09 0.91 67.5 -3.63 0.30 0.62 0.38 67.0 -1.96 1.96 0.95 0.05 66.5 -0.30 3.63 66.0 1.37 5.30 65.5 3.04 6.97 Graficamente avremo quindi, confrontando le due curve delle funzioni di potenza: II parte

Test unilaterale E' il caso in cui si applica il test per la media ad una sola coda per accettare l'ipotesi: oppure Si applicherà evidentemente lo stesso procedimento utilizzato nel caso di test bilaterali, però il limite della regione di rifiuto sarà determinato in modo che si trovi da un lato solo della distribuzione del parametro campionario media. Supponiamo di volere verificare l’ipotesi: utilizzando un campione n=25, e sapendo che σ=2, con un livello di significatività α=0.05. Per α=0.05, il limite di accettazione sarà z=-1.645 II parte

per cui il limite della regione di rifiuto sarà: Si rifiuterà quindi l'ipotesi nulla se la media calcolata sul campione di 25 prove sarà inferiore a 63.64, oppure se il valore di z calcolato sempre nel campione sarà inferiore a -1.645. In questo caso la curva operativa caratteristica sarà: valori medi limite regione di rifiuto curva operativa caratteristica 62.5 2.85 0.0020 63.0 1.60 0.0548 63.5 0.35 0.3632 64.3 -1.645 0.9500 65.0 -3.40 0.9997 II parte

β esprime quindi la probabilità di avere valori medi campionari superiori a 63.64 quando la media della popolazione è diversa da 64.3: II parte

Controllo di ipotesi sulla media di una popolazione σ ignota In questo caso si dovrà utilizzare la distribuzione del parametro campionario t-Student: con n-1 gradi di libertà, purché la popolazione di provenienza possa essere considerata normale. II parte

Esempio test bilaterale: supponiamo di volere effettuare il test per: Ipotizziamo di avere osservato un campione con n=12 che fornisce i seguenti valori: 55, 62,54,58,65,64,60,62,59,67,62,61; e di volere avere un livello di significatività del 5%. Avremo quindi una distribuzione t con (n-1)=(12-1)=11 gradi di libertà da cui otterremo: in base al campione avremo inoltre: potremo quindi calcolare il valore di t nel campione: per cui rifiuteremo l'ipotesi nulla. II parte

Il valore del t campionario è invece: Esempio test unilaterale: data una miscela chimica in cui debbono essere presenti almeno 64.3 parti di un additivo, si vuole verificare con 25 prove se la produzione garatisce tale tipo di composizione della miscela al livello del 5%. Il campione di 25 prove ha presentato: In questo caso i gradi di libertà saranno (25-1)=24, per cui la soglia del valore t sarà -1.711. Il valore del t campionario è invece: per cui potremo accettare l'ipotesi nulla II parte

Conclusioni relative alla verifica di ipotesi sulla media carattere distribuito in modo normale Se , sistemi di ipotesi del tipo σ2 non noto si testano per mezzo della statistica: σ2 noto si testano per mezzo della statistica: Se n è grande (di solito si assume n≥30) allora la differenza tra t e Z è piccola e possiamo dire che, approssimativamente: carattere distribuito NON in modo normale Se n è abbastanza elevato, è possibile richiamare il teorema del Limite Centrale per cui, sotto H0, la statistica test II parte

Controllo di ipotesi sulla proporzione di una popolazione Quando si deve sottoporre a test l’ipotesi che la proporzione della popolazione assuma un determinato valore p0 si conta il numero X di volte in cui la caratteristica osservata si presenta nel campione di ampiezza n e si calcola la proporzione campionaria: si osserva cioè il numero di successi in n prove (o proporzione di successi). Si ha quindi a che fare con la distribuzione binomiale e si effettua un test di ipotesi sul parametro p di una popolazione binomiale. Quando la numerosità n del campione è sufficientemente grande, Bin(n,p) ~ N(np,np(1-p)) per cui il test di ipotesi sulla proporzione può essere basato sulla distribuzione normale. Per sottoporre a test l’ipotesi H0: p=p0 (o in modo analogo p ≤ p0 o p ≥ p0) si utilizza: che si distribuisce come una normale standardizzata per n sufficientemente grande. II parte

Potremo quindi procedere nel modo già illustrato per i test per la media nel caso dei grandi campioni. test Ipotesi nulla H0 Ipot. Altern. H1 Liv. Signif. α Valori critici Regione rifiuto una coda p ≤ p0 p > p0 0.01 2.326 Z > 2.326 0.05 1.645 Z > 1.645 p ≥ p0 p < p0 -2.326 Z < -2.326 -1.645 Z < -1.645 due code p = p0 p ≠ p0 -2.576 e 2.576 Z < -2.576 Z > 2.576 -1.96 e 1.96 Z < -1.96 Z > 1.96 II parte

Si effettuano 500 lanci di una moneta, e si ottiene testa 267 volte. Decidere se la moneta è truccata con un livello di significatività del 5% Ripetere il calcolo nel caso in cui si ottenga testa 280 volte Si assume come ipotesi nulla: H0 : p = 0.5 e come ipotesi alternativa: H1: p ≠ 0.5. Si effettua un test a due code con α=0.05, per cui la regione di rifiuto sarà definita dai valori: Z<-1.96 e Z>1.96 Abbiamo n=500, x=267, p0=0.5 Z=1.52 cade pertanto nella regione di accettazione, quindi l’ipotesi nulla non può essere rifiutata, potremo quindi ritenere che la moneta non è truccata. Nel caso in cui si ottenga 280 volte testa, avremo: n=500, x=280, p0=0.5 In questo caso Z cade nella regione di rifiuto, saremo quindi portati a rifiutare l’ipotesi nulla, ritenendo pertanto che la moneta sia truccata, con un livello di significatività del 5% II parte

Si assume come ipotesi nulla: H0 : p ≥ 0.95 Nell’effettuare una verifica su alcune procedure di controllo interno si ritiene che almeno il 95% della documentazione debba essere conforme alle procedure previste. L’esame di un campione di 200 documenti rivela che in 18 di loro sono riscontrabili delle irregolarità. Sottoponiamo a test la percentuale di conformità richiesta, al livello di significatività α=0.01. Si assume come ipotesi nulla: H0 : p ≥ 0.95 e come ipotesi alternativa: H1: p < 0.95. Si effettua un test a una coda e si ha: n=200 200-x=18 x=182 p0=0.95 Per il livello di significatività α=0.01 la regione di rifiuto è data dai valori Z<−2.326. Il valore cade nella regione di rifiuto, perciò si rifiuta l’ipotesi nulla, al livello di significatività dell’1%, concludendo che la percentuale di documenti conformi è inferiore al 95%. II parte