Controllo statistico e certificazione di bilancio

Slides:



Advertisements
Presentazioni simili
IV - 1 Prof. Fabrizio Alboni IV parte – discovery sampling, campionamento per unità monetaria Corso di laurea in Economia e Commercio.
Advertisements

V - 1 Prof. Giorgio Tassinari Corso di Laurea Magistrale in Economia e Professioni Statistica per l’analisi dei dati Prima parte: il campionamento nella.
OBIETTIVI di REVISIONE Bettina Campedelli - Revisione aziendale e sistemi di controllo 1 per poter esprimere il giudizio di revisione il revisore scompone.
Indici di Posizione Giulio Vidotto Raffaele Cioffi.
Precorso di Statistica per le Lauree Magistrali
ING. MAURIZIO TORRES MERCOLEDI’ 14 SETTEMBRE 2016
Procedure di controllo di qualità del dato analitico
Distribuzioni limite La distribuzione normale
Introduzione a Statistica e Probabilità
Precorso di Statistica per le Lauree Magistrali
Qualità dei dati Fabio Murena.
RICHIAMI DI INFERENZA:
Funzioni crescenti e decrescenti
Comitato di sorveglianza POR FSE
Le molecole.
Tre diversi materiali:
PEDAGOGIA SPERIMENTALE
STATISTICA Statistica : scienza che ha come fine lo studio quantitativo e qualitativo di un “collettivo”. L’etimologia della parola pare derivi dal vocabolo.
L’analisi monovariata
L’Ispettorato Generale per i Rapporti Finanziari con l’Unione Europea
Misure Meccaniche e Termiche - Università di Cassino
La dimensione del campione
IL SISTEMA DI VALUTAZIONE DELLA PERFORMANCE della PROVINCIA DI PAVIA
DISTRIBUZIONI TEORICHE DI PROBABILITA’
Precorso di Statistica per le Lauree Magistrali
Elementi di teoria delle probabilità
Universita’ di Milano Bicocca Corso di Basi di dati 1 in eLearning C
Corso di Laurea in Scienze e tecniche psicologiche
APPUNTI DI STATISTICA INFERENZIALE
Alcuni modelli probabilistici
Intervalli di Fiducia Introduzione Intervalli di fiducia per la media – Caso varianza nota Intervalli di fiducia per la media – Caso varianza non nota.
Accenni di analisi monovariata e bivariata
Introduzione a Statistica e Probabilità
Precorso di Statistica per le Lauree Magistrali
IL CAMPIONAMENTO NELLA
misure di eterogeneità
La Statistica Istituto Comprensivo “ M. G. Cutuli”
La dimensione del campione
Statistica descrittiva bivariata
L’analisi monovariata
Un esempio Una casa farmaceutica dichiara che un nuovo antidolorifico che sta per immettere sul mercato fa effetto mediamente in un tempo pari a 12,75.
L’indagine statistica
Statistica Scienza che studia i fenomeni collettivi.
I numeri relativi DEFINIZIONE. Si dicono numeri relativi tutti i numeri interi, razionali e irrazionali dotati di segno (positivo o negativo). ESEMPI Numeri.
Cosa ci dicono i dati sugli apprendimenti
Università degli Studi di Modena e Reggio Emilia
La distribuzione campionaria: principi generali
32 = 9 x2 = 9 x = 3 32 = 9 √9 = 3 L’estrazione di radice
Intervalli di confidenza
Definizioni di probabilità
PROCEDURA per la misura e la relativa stima
“Una delle più grandi scoperte che un uomo può fare, una delle sue più grandi sorprese, è scoprire che può fare ciò che aveva paura di non poter fare”.
CAMBIAMENTI DI PRINCIPI CONTABILI OIC 26
Interpretare la grandezza di σ
ANALISI DI REGRESSIONE
Esercizio La popolazione di adulti presenta una media di ansia pari a 4. Ad un campione di 35 soggetti con disturbo ossessivo compulsivo è stato somministrato.
Precorso di Statistica per le Lauree Magistrali
Capitolo 1 Introduzione alla fisica
RICHIAMI DI INFERENZA:
La contabilità generale
RICHIAMI DI INFERENZA:
Matrici e determinanti
Corso di Analisi Statistica per le Imprese
Precorso di Statistica per le Lauree Magistrali
Test per campioni indipendenti
La dimensione del campione
Associazione tra variabili qualitative
Corso di Analisi Statistica per le Imprese
Variabile interveniente
Statistica descrittiva bivariata
Transcript della presentazione:

Controllo statistico e certificazione di bilancio ALMA MATER STUDIORUM UNIVERSITÀ DEGLI STUDI DI BOLOGNA Corso di laurea magistrale in Economia e Professioni Controllo statistico e certificazione di bilancio IV parte – discovery sampling, campionamento per unità monetaria a.a. 2013-14

Campionamento per Unità Monetaria Una ulteriore modalità di selezione delle unità è costituita dal piano di campionamento con probabilità proporzionale alla dimensione monetaria delle unità - noto anche con il termine inglese di Probability Proportional to Size (PPS) o di Monetary Unit Sampling (MUS). Si applica a popolazioni caratterizzate da un valore monetario e si fonda sul principio che ogni unità monetaria (un euro) costituisce una autonoma unità della popolazione (ad es. la popolazione dei crediti non è vista come costituita da diversi saldi a credito, ma come composta dalla sommatoria degli euro che costituiscono ciascuno dei saldi a credito). Questo criterio prevede che venga selezionata la singola unità monetaria, e che la voce associata all’unità monetaria scelta venga quindi selezionata per la verifica. Inoltre, maggiori sono le unità monetaria associata ad una unità della popolazione (ovvero maggiore è il valore monetario di un credito verso un cliente), maggiore è la probabilità che quel credito venga selezionato. Questo tipo di campionamento è particolarmente utilizzato per i test sui dettagli di bilancio, e presenta la semplicità di procedimento del campionamento per attributi, fornendo però un risultato in termini monetari.

Perché il Campionamento per Unità Monetaria? Oggetto di studio da parte del revisore è una popolazione di N unità, costituite da transazioni registrate in un insieme di conti (documenti, registrazioni sul libro giornale o su file), e ciascuna unità ha un valore Yi Il loro totale è noto e compare nel bilancio: Il revisore deve formulare un giudizio sull’accuratezza di TY Il revisore sa che nessun sistema è perfetto ed è quindi probabile che vi siano errori. Il controllo finale consiste quindi nell’effettuare dei test di sostanza sulle singole transazioni. Se Xi è il valore effettivo della voce i-esima, l’errore ad essa associato sarà Ei=Yi-Xi mentre l’errore totale nella popolazione sarà: Per giungere al giudizio finale il revisore ricorre ad un campione la cui efficienza potrà essere incrementata per mezzo di variabili ausiliarie e della stratificazione

Sarà quindi possibile valutare gli errori nel campione ei = yi - xi con is ed ottenere una stima dell’errore totale con una stima del suo errore standard Con campioni sufficientemente grandi è pertanto possibile fare riferimento al teorema del limite centrale, per cui si assume che: La questione sembra quindi di semplice soluzione; tuttavia, dal punto di vista statistico si può porre un problema nel caso in cui gli errori siano rari, e si può ritenere che spesso si abbia meno del 10% delle voci con errori. In questo caso la probabilità di estrarre un campione che non contenga alcun errore tende ad aumentare: dato un campione di numerosità n, sia π la percentuale di errore, ritenuta bassa; se utilizziamo l’approssimazione di Poisson alla distribuzione del numero di errori (R), avremo: Se ad esempio n=100 e π = 0.01, avremo P(R=0)=0.37, il che significa che abbiamo una probabilità del 37% di estrarre un campione senza errori, nei quali avremo: e Z non può essere definita.

Per effettuare le analisi quando i risultati sono rari, l’approccio teorico corretto si ha quando la variabile causale è un attributo, che assume valore 0 per nessun errore, ed 1 per un errore. Per campioni di grandi dimensioni l’approssimazione di Poisson risulta appropriata per cui la distribuzione campionaria del numero di errori, quando si utilizza un campione casuale semplice, è rappresentata da: e gli intervalli di confidenza ed i test di significatività sono basati sulle tavole della distribuzione cumulata di Poisson. Tuttavia, sebbene le asserzioni sulle percentuali d’errore sono utili al revisore, queste non forniscono informazioni sul valore monetario degli errori. Si pone quindi il bisogno di elaborare una nuova teoria che combini gli elementi della distribuzione di Poisson per gli eventi rari e la teoria della variabile continua per i valori monetari degli errori.

Il campionamento monetario (MUS) utilizza la distribuzione di Poisson per stimare i valori monetari. La procedura ha tre caratteristiche fondamentali: 1. una regola di campionamento, 2. una regola per calcolare dimensione campionaria 3. una regola per effettuare le stime. La regola di campionamento consiste nel prendere un campione casuale sistematico di unità monetarie da una lista di valori monetari cumulati. La popolazione è quindi costituita dall’insieme delle unità monetarie registrate, il MUS non può quindi essere utilizzato per verificare asserzioni riguardanti la completezza (tutte le operazioni e gli eventi che avrebbero dovuto essere registrati sono stati effettivamente registrati). Questo è un metodo per selezionare un termine con probabilità proporzionale alla dimensione. La dimensione, in questo caso, è il valore contabile, Yi , dell’ i-esimo termine, così le voci di valore più elevato hanno la probabilità più alta di essere estratte.

Se l’unità di campionamento è la singola unità monetaria di un saldo contabile, a ciascuna di esse, in un universo di transazioni monetarie, si associa quindi uguale probabilità di essere selezionata, mentre hanno maggiore probabilità di essere selezionate le voci contenenti un maggior numero di unità monetarie. prog. Cliente Saldo 1 Mario Rossi 64,084 2 Bianchi 2,436 3 I Prati verdi 14,789 4 Quorum 240,320 5 Cielo Azzurro 19,088 6 Il Vivaio 12,085 7 Tizio 185,421 8 Caio - 9 Sempronio 1,039 10 Adda 33,310 11 Po 6,920 12 Tevere 25,250 13 Terranova 135,155 14 Bulldog 179,909 15 Schnautzer 2,310 16 San Bernardo 189,625 17 Quo Vadis 2,050 TOTALE 1,113,791 Ad esempio, nella tabella dei saldi dei crediti verso clienti riportata a fianco, la popolazione è costituita da 1.113.791 di euro, e non dai 17 conti cliente. Dato che il campione viene selezionato sulla base del singolo importo monetario, un conto con un saldo rilevante ha maggiori possibilità di essere inserito nel campione (ad esempio il conto 4 ha una probabilità di circa 230 volte maggiore di essere selezionato rispetto al conto 9). Questo fa si che non ci sia bisogno di alcuna stratificazione con il MUS, perché la stratificazione avviene “automaticamente” La giustificazione del PPS sta nel fatto che si riscontra spesso una relazione statistica più o meno stretta tra dimensione dell’unità e caratteri oggetto di studio. Di conseguenza, l'utilizzazione di una informazione sulla dimensione, tradotta in termini di probabilità di selezione, consente la costruzione di stimatori migliori di quelli ricavabili da una selezione equiprobabilistica.

Vantaggi del PPS Rispetto al classico campionamento per variabili il PPS è generalmente più facile da applicare sia in termini di determinazione della dimensione campionaria che di valutazione dei risultati. Il PPS non richiede, per la determinazione della dimensione campionaria, informazioni sulla variabilità del fenomeno oggetto di studio. Produce automaticamente un campione stratificato dal punto di vista della dimensione finanziaria. Se il revisore non si attende errori nella popolazione, la dimensione campionaria che ne risulta è generalmente più piccola rispetto a quella che si avrebbe nel classico campionamento per variabili. Il PPS si applica per lo più ai casi in cui gli errori si traducano in una sovrastima dell’importo ritenuto ammissibile. In caso contrario la valutazione dei risultati richiede un esame particolarmente attento. Se il revisore si attende la presenza di errori nella popolazione, la dimensione campionaria tende a crescere. In questo caso, si può ricorrere al campionamento casuale semplice o al campionamento stratificato che si basano su ipotesi distributive degli errori e/o irregolarità nella popolazione più adatte al caso in cui la loro frequenza sia rilevante (tendenza verso la distribuzione normale).

Svantaggi del PPS L’utilizzo di un campionamento PPS implica però che le voci della popolazione con un saldo pari a zero non hanno la possibilità di essere selezionate, anche se potrebbero contenere errori I saldi di scarsa entità, dovuti ad una sottovalutazione significativa hanno una scarsa probabilità di essere inclusi nel campione Altro problema consiste nell’impossibilità di includere nel campione saldi negativi (ad esempio saldi a debito nei crediti verso clienti)

n=BV/IC Dimensione del campione Le ipotesi da formulare per determinare l’ampiezza campionaria sono le seguenti: Livello di confidenza, LC; ossia il valore percentuale di rappresentatività del campione estratto dalla popolazione di riferimento (e nella sua definizione si deve tenere conto del livello di “affidabilità del sistema”); Soglia di rilevanza, SR; ossia la percentuale ottenuta rapportando il valore assoluto dell’errore monetario massimo ammissibile al valore totale della popolazione; Numero di errori, k; presenti nel campione, da stabilire a priori. La dimensione campionaria viene determinata sulla base del rapporto tra il valore monetario della popolazione di riferimento (BV Book Value) e l’intervallo di campionamento (IC): n=BV/IC L’intervallo di campionamento varia a seconda che il revisore si attenda o meno la presenza di un tasso di errore nella popolazione

AR = IR x CR x DR  DR = AR / (IR x CR) Per quanto riguarda la definizione del livello di significatività ricordiamo che: AR = IR x CR x DR è il rischio che il revisore esprima un giudizio non corretto nel caso in cui il bilancio sia significativamente inesatto. AR=Rischio di Revisione è il rischio che il bilancio contenga errori o irregolarità rilevanti e varia per le diverse voci che compongono il bilancio IR=Rischio Intrinseco CR=Rischio di Controllo è il rischio che i sistemi di controllo compresa la revisione interna, non riescano a prevenire o identificare tempestivamente errori o irregolarità rilevanti. DR=Rischio di Individuazione rischio legato alla possibilità che le procedure di revisione non identifichino un eventuale errore o un’irregolarità rilevante AR = IR x CR x DR  DR = AR / (IR x CR) Definito quindi a priori il rischio di revisione, e fissati il rischio intrinseco e quello di controllo si può determinare il rischio di individuazione Ad esempio AR=5%, IR=100%, CR=50% DR=10%

TM=SR·BV IC=TM/RF Caso A – Nessun errore atteso L’intervallo di campionamento deriva dal rapporto tra l’errore tollerabile (TM Tolerable Misstatement): TM=SR·BV e un fattore che corrisponde al livello scelto del rischio di non individuazione (o rischio di accettazione). Tale fattore viene denominato Reliability Factor (RF). In simboli: IC=TM/RF Il RF si desume attraverso l’impiego della distribuzione di Poisson che, come già sottolineato, ben si adatta a rappresentare la distribuzione di eventi rari quali possono essere gli errori o le irregolarità in alcuni casi della revisione contabile. Nel caso non ci si attenda alcun errore RF viene determinato utilizzando la distribuzione di Poisson per P(x)=0 ovvero la probabilità che l’errore atteso sia pari a 0 associato ad un determinato livello di confidenza

Ricordiamo che la distribuzione di probabilità di Poisson è data da: e che tale distribuzione indica la probabilità che un evento (numero di errori o irregolarità) si verifichi X volte. Indicando con X il numero di operazioni irregolari rilevanti che ci si aspetta di trovare nel campione, ed in particolare avendo supposto di non trovarne, avremo, ponendo X=0 e pr(X=0)=1-LC, dove LC rappresenta il livello di confidenza: da cui: Se ad esempio fissiamo LC=90% avremo λ=-ln(1-0.90)=2.31 Tabella Determinazione di RF Livello di confidenza 99% 95% 90% 85% 80% 75% 70% 65% 60% Rischio di rilevamento 1% 5% 10% 15% 20% 25% 30% 35% 40% RF 4.61 3 2.31 1.9 1.61 1.39 1.21 1.05 0.92

Per cui la dimensione del campione, nel caso in cui non siano previsti errori nella popolazione sarà: Se quindi venisse fissato una soglia di errore del 2% con un livello di confidenza del 90% avremo: n=2.31/0.02=115.5=116 Tabella Determinazione di RF Livello di confidenza 99% 95% 90% 85% 80% 75% 70% 65% 60% Rischio di rilevamento 1% 5% 10% 15% 20% 25% 30% 35% 40% RF 4.61 3 2.31 1.9 1.61 1.39 1.21 1.05 0.92

Caso B – Errore atteso La formula per la determinazione della dimensione campionaria si modifica per tenere conto dell’errore atteso (ER) opportunamente amplificato mediante un fattore di espansione (EF). In particolare si opera una correzione dell’errore tollerabile: Il valore di EF varia in funzione al livello di confidenza utilizzato. Nella tabella sono riportati i valori che assume il parametro EF al variare del livello di confidenza. Tabella Determinazione del Fattore di espansione dell’errore (EF) Livello di confidenza 99% 95% 90% 85% 80% 75% 70% 65% 60% Rischio di rilevamento 1% 5% 10% 15% 20% 25% 30% 35% 40% EF 1.9 1.6 1.5 1.4 1.3 1.25 1.2 1.15 1.1

Sia ad esempio: dimensione della popolazione (€ del conto sotto verifica) BV=350000 errore tollerabile TM=11000 errore atteso ER=3000 ponendo il rischio di incorretta accettazione 1-LC=10% avremo: RF=2.31 EF=1.5 Tabella Determinazione di RF Livello di confidenza 99% 95% 90% 85% 80% 75% 70% 65% 60% Rischio di rilevamento 1% 5% 10% 15% 20% 25% 30% 35% 40% RF 4.61 3 2.31 1.9 1.61 1.39 1.21 1.05 0.92 Tabella Determinazione del Fattore di espansione dell’errore (EF) Livello di confidenza 99% 95% 90% 85% 80% 75% 70% 65% 60% Rischio di rilevamento 1% 5% 10% 15% 20% 25% 30% 35% 40% EF 1.9 1.6 1.5 1.4 1.3 1.25 1.2 1.15 1.1

Ipotizzando BV = 1.000.000, una soglia di rilevanza del 2%, un errore previsto dello 0.5% e un’affidabilità del sistema medio-alta (quindi un livello di confidenza pari al 70%), la numerosità del campione, sulla base delle informazioni: BV=1.000.000 TM=1.000.000 • 0.02 = 20.000 ER=1.000.000 • 0.005= 5.000 RF=1.21 EF=1.20 risulta: Il campione sarà estratto dall’elenco completo delle operazioni del conto in esame secondo una procedura di selezione sistematica (PS) con un passo di campionamento pari a BV/n=11570.25

Selezione del campione I campioni per unità monetarie sono selezionati con il criterio della probabilità proporzionale alla dimensione; fanno quindi riferimento alle singole unità monetarie della popolazione. Debbono però essere identificate le unità fisiche rispetto a cui eseguire i test di revisione. Per fare ciò deve essere costruito il totale cumulato degli elementi sottoposti a revisione. Con riferimento a tale cumulata la selezione delle unità potrà avvenire facendo ricorso all’estrazione di numeri casuali o per mezzo di un campionamento sistematico. Selezione per mezzo di numeri casuali: Si estraggono n numeri casuali, pari alla numerosità del campione, compresi tra 1 ed il totale del conto (BV). Verranno quindi selezionati gli elementi che nella colonna dell’importo cumulato contengono i valori casuali estratti. Campionamento sistematico: Si estrae un numero casuale C compreso tra 1 ed il valore dell’intervallo di campionamento (IC). Viene selezionato, nella colonna dell’importo cumulato la prima unità fisica che contiene l’unità monetaria corrispondente al numero casuale estratto. Si procede poi selezionando l’unità corrispondente a C+IC, e si prosegue con C+2IC,…,C+(n-1)IC.

Data la seguente popolazione, ipotizziamo di estrarre n=5 unità con campionamento sistematico.   Ammontare fatture Totale cumulato Selezionati Cliente 1 8527 Cliente 2 30342 38869 Cliente 3 29000 67869 Cliente 4 49115 116984 * Cliente 5 23792 140776 Cliente 6 23415 164191 Cliente 7 26930 191121 Cliente 8 7689 198810 Cliente 9 25861 224671 Cliente 10 33324 257995 Cliente 11 26362 284357 Cliente 12 68000 352357 Cliente 13 4179 356536 Cliente 14 24415 380951 Cliente 15 59000 439951 Cliente 16 6050 446001 Cliente 17 24432 470433 Cliente 18 65000 535433 Cliente 19 45000 580433 Cliente 20 49942 630375 Totale Definiamo l’intervallo di campionamento BV/n=630375/5=126075 Estriamo un numero casuale compreso tra 1 e 126075  C=73936 Selezioniamo l’unità fisica che, rispetto alla cumulata, contiene l’unità monetaria 73936-esima, viene identificato il cliente 4 Aggiungendo a 73936 l’intervallo di campionamento 126075, otteniamo 200011. Questa unità monetaria è contenuta nella nona unità, che pertanto viene selezionata. Si prosegue aggiungendo a 200011 l’intervallo di campionamento, otteniamo 326086. Questa unità monetaria è contenuta nella dodicesima unità.

Data la seguente popolazione, ipotizziamo di estrarre n=5 unità con campionamento casuale.   Ammontare fatture Totale cumulato Selezionati Cliente 1 8527 Cliente 2 30342 38869 Cliente 3 29000 67869 Cliente 4 49115 116984 * Cliente 5 23792 140776 Cliente 6 23415 164191 Cliente 7 26930 191121 Cliente 8 7689 198810 Cliente 9 25861 224671 Cliente 10 33324 257995 Cliente 11 26362 284357 Cliente 12 68000 352357 Cliente 13 4179 356536 Cliente 14 24415 380951 Cliente 15 59000 439951 Cliente 16 6050 446001 Cliente 17 24432 470433 Cliente 18 65000 535433 Cliente 19 45000 580433 Cliente 20 49942 630375 Totale Estriamo 5 numeri casuali compreso tra 1 e 630375 (BV) Numeri casuali 1 310789 2 624109 3 89750 4 551898 5 515938 Si selezioniamo le unità fisica che, rispetto alla cumulata, contengono le unità monetarie corrispondenti ai numeri casuali estratti: la 310789-esima unità monetaria cade nell’intervallo 284357-352357, quindi selezioniamo la dodicesima unità, ecc.

I metodi statistici utilizzati per valutare i campioni per unità monetaria permettono di includere più di una volta una unità fisica nel campione. Con riferimento all’esempio precedente, se i numeri casuali fossero stati i seguenti: Numeri casuali 1 310789 2 624109 3 89750 4 591898 5 515938   Ammontare fatture Totale cumulato Selezionati …… Cliente 17 24432 470433 Cliente 18 65000 535433 * Cliente 19 45000 580433 Cliente 20 49942 630375 ** Totale Il secondo ed il quinto numero estratti fanno riferimento al cliente 20, il quale verrà revisionato evidentemente una sola volta ma verrà trattato statisticamente come due item del campione, in modo tale che il campione risulti sempre composto da 5 unità

Valutazione dei risultati del campionamento L’obiettivo del MUS consiste nel determinare la probabilità che un conto di bilancio possa eccedere un limite tollerabile di errore fissato dal revisore. Questo significa che se è stato costruito un campione con “detection risk” del 15% (ovvero il rischio che l’auditor non riesca ad individuare la presenza di errori materiali che condizioneranno i valori di bilancio in modo significativo) ed un errore tollerabile di 50mila€, il revisore sta testando l’ipotesi che non ci sia più di un 15% di probabilità che errori causati dall’asserzione che si sta verificando possano determinare una sopravalutazione del conto esaminato di oltre 50mila€. Per “proiettare” i risultati campionari sulla popolazione, il primo passaggio consiste nel determinare il limite di errore superiore (UML Upper Misstatement Limit) ovvero la massima sopravalutazione che si può avere nella popolazione dati gli errori riscontrati nel campione, sempre ad un determinato livello di rischio. Se ad esempio viene determinato un UML di 41800€ con un rischio del 15%, questo consente di dire che ci sono solo il 15% di possibilità che il livello di sovrastima nella popolazione sia maggiore di 41.8mila€.

Il limite di errore superiore è determinato da tre componenti: la precisione di base (BP), l’incertezza associata al fatto di osservare solo una parte della popolazione; nel caso in cui nel campione non vengano trovati errori coincide con UML; il projected misstatement (PM), rappresenta una stima puntuale dell’errore presente nella popolazione di riferimento; un fattore di incremento (IA), utilizzato per migliorare la precisione della stima legato al numero di errori individuati Il limite superiore dell’errore andrà poi confrontato con l’errore tollerabile per determinare se ritenere accettabile, con un determinato livello di rischio, i valori riportati a bilancio.

La precisione di base è l’errore “proiettato” in caso di assenza di errori rilevati e si determina come IC · RF (cioè intervallo di campionamento moltiplicato per il Reliability factor). Se durante il controllo non vengono individuati errori non è possibile concludere affermando che nella popolazione non ci sono errori; questo perché il rischio derivante dall’avere osservato solo una parte della popolazione ci impedisce di giungere a tale conclusione. La precisione di base rappresenta il rischio di campionamento. Riprendendo l’esempio fatto in precedenza, la precisione di base sarà: IC · RF = 2813.85 · 2.31 = 6500€ Questo rappresenta il limite di errore superiore nel caso non si siano registrati errori in fase di revisione. Se confrontiamo questo valore con il limite di errore tollerato, siccome è inferiore a 11000, potremo accettare la popolazione BV=350000 TM=11000 ER=3000 1-LC=10% RF=2.31 EF=1.5 IC=2813.85

Se durante la fase di revisione si evidenziano degli errori per prima cosa dovremo registrare, per ognuno di essi la differenza tra valore registrato e valore revisionato e rapportarla all’importo registrato Supponiamo di avere osservato un campione di 66 unità proveniente da una popolazione BV=1200000 (per cui IC=1200000/66=95000), e di avere riscontrato i seguenti tre errori: codice cliente importo crediti verso clienti registrati importo crediti verso clienti verificati Errore Errore/ Importo registrato 2073 100 90 10 10% 5111 2000 1900 5% 7642 102000 102 101898 - Nel caso dell’ultimo cliente non viene calcolato il rapporto perché l’importo registrato è maggiore dell’intervallo di campionamento L’ultima colonna rappresenta il fattore di “contaminazione” utilizzato per riportare alla popolazione una prima stima di erraticità detta tainting factor

projected misstatement Moltiplicando il tainting factor per l’intervallo di campionamento si ottiene la proiezione di ciascun errore (l’errore di importo superiore all’IC viene riportato interamente). La somma dei projected misstatement fornisce la prima componente per il calcolo del limite di errore superiore (UML). codice cliente valore registrato (A) valore revisionato (B) Errore (C = A-B) Errore/ Importo registrato (Taintng) (D = C/A) IC (E) projected misstatement (F = D*E) UML 2073 100 90 10 10% 95000 9500 5111 2000 1900 5% 4750 7642 102000 102 101898 - projected misstatement (PM) 116148 precisione di base (IC*RF) (PB) 3* 95000 285000 Reliabity Factor (G) Incremento (H = G-G-1) Incremento- 1 (I = 1-H) (F) fattore di incremento (L = I*F) 3.00 4.75 1.75 0.75 7125 6.30 1.55 0.55 2613 9738 Totale 410886

A questa deve poi essere aggiunta la precisione di base che si determina moltiplicando il Reliabilty Factor per l’intervallo di campionamento. Il terzo elemento del UML è invece rappresentato da quello che viene detto fattore di incremento, ovvero un fattore legato al fatto di avere trovato errori e che incrementa il limite di errore per ogni errore rilevato. È legato alla probabilità di trovare un certo numero di errori, e si determina partendo dal RF che si registra in presenza del numero di errori riscontrati in revisione. Se ad un livello di rischio del 5%, l’RF è pari a 3.00 (derivato dalla distribuzione di Poisson in corrispondenza di un deteremianto livello di probabilità), se troviamo un errore il valore di RF sarà 4.75 (i valori possono essere tratti da una tavola come la seguente).

In realtà viene utilizzata la variazione del RF all’aumentare degli errori e di questa calcolato il complemento ad 1. Il valore così ottenuto viene moltiplicato per l’intervallo di campionamento ottenendo il fattore di incremento dovuto a ciascun errore. La somma dei singoli fattori viene infine utilizzata per determinare il limite di errore superiore. Se UML ≤ TM si conclude che il valore monetario della popolazione non è sovrastimato più di UML con un rischio pari al rischio di accettazione. Se UML > TM si conclude che, al livello di certezza fissato, la popolazione è affetta da errore superiore a quello tollerabile.