La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

IV - 1 Prof. Fabrizio Alboni IV parte – discovery sampling, campionamento per unità monetaria Corso di laurea in Economia e Commercio.

Presentazioni simili


Presentazione sul tema: "IV - 1 Prof. Fabrizio Alboni IV parte – discovery sampling, campionamento per unità monetaria Corso di laurea in Economia e Commercio."— Transcript della presentazione:

1 IV - 1 Prof. Fabrizio Alboni fabrizio.alboni@unibo.it IV parte – discovery sampling, campionamento per unità monetaria Corso di laurea in Economia e Commercio ALMA MATER STUDIORUM UNIVERSITÀ DEGLI STUDI DI BOLOGNA FACOLTÀ DI ECONOMIA -SEDE DI FORLÌ Controllo statistico e certificazione di bilancio a.a. 2010-11

2 IV - 2 Campionamento per Unità Monetaria Questo tipo di campionamento è particolarmente utilizzato per i test sui dettagli di bilancio, e presenta la semplicità di procedimento del campionamento per attributi, fornendo però un risultato in termini monetari. Una ulteriore modalità di selezione delle unità è costituita dal piano di campionamento con probabilità proporzionale alla dimensione monetaria delle unità - noto anche con il termine inglese di Probability Proportional to Size (PPS) o di Monetary Unit Sampling (MUS). Si applica a popolazioni caratterizzate da un valore monetario e si fonda sul principio che ogni unità monetaria (un euro) costituisce una autonoma unità della popolazione (ad es. la popolazione dei crediti non è vista come costituita da diversi saldi a credito, ma come composta dalla sommatoria degli euro che costituiscono ciascuno dei saldi a credito). Questo criterio prevede che venga selezionata la singola unità monetaria, e che la voce associata all’unità monetaria scelta venga quindi selezionata per la verifica. Inoltre, maggiori sono le unità monetaria associata ad una unità della popolazione (ovvero maggiore è il valore monetario di un credito verso un cliente), maggiore è la probabilità che quel credito venga selezionato.

3 IV - 3 Perché il Campionamento per Unità Monetaria? Oggetto di studio da parte del revisore è una popolazione di N unità, costituite da transazioni registrate in un insieme di conti (documenti, registrazioni sul libro giornale o su file), e ciascuna unità ha un valore Y i Il loro totale è noto e compare nel bilancio: Il revisore deve formulare un giudizio sull’accuratezza di T Y Il revisore sa che nessun sistema è perfetto ed è quindi probabile che vi siano errori. Il controllo finale consiste quindi nell’effettuare dei test di sostanza sulle singole transazioni. Se X i è il valore effettivo della voce i-esima, l’errore ad essa associato sarà E i =Y i -X i mentre l’errore totale nella popolazione sarà: Per giungere al giudizio finale il revisore ricorre ad un campione la cui efficienza potrà essere incrementata per mezzo di variabili ausiliarie e della stratificazione

4 IV - 4 Sarà quindi possibile valutare gli errori nel campione e i = y i - x i con is ed ottenere una stima dell’errore totale con una stima del suo errore standard Con campioni sufficientemente grandi è pertanto possibile fare riferimento al teorema del limite centrale, per cui si assume che: La questione sembra quindi di semplice soluzione; tuttavia, dal punto di vista statistico si può porre un problema nel caso in cui gli errori siano rari, e si può ritenere che spesso si abbia meno del 10% delle voci con errori. In questo caso la probabilità di estrarre un campione che non contenga alcun errore tende ad aumentare: dato un campione di numerosità n, sia π la percentuale di errore, ritenuta bassa; se utilizziamo l’approssimazione di Poisson alla distribuzione del numero di errori ( R ), avremo: Se ad esempio n=100 e π = 0.01, avremo P(R=0) =0.37, il che significa che abbiamo una probabilità del 37% di estrarre un campione senza errori, nei quali avremo: e Z non può essere definita.

5 IV - 5 Per effettuare le analisi quando i risultati sono rari, l’approccio teorico corretto si ha quando la variabile causale è un attributo, che assume valore 0 per nessun errore, ed 1 per un errore. Per campioni di grandi dimensioni l’approssimazione di Poisson risulta appropriata per cui la distribuzione campionaria del numero di errori, quando si utilizza un campione casuale semplice, è rappresentata da: e gli intervalli di confidenza ed i test di significatività sono basati sulle tavole della distribuzione cumulata di Poisson. Tuttavia, sebbene le asserzioni sulle percentuali d’errore sono utili al revisore, queste non forniscono informazioni sul valore monetario degli errori. Si pone quindi il bisogno di elaborare una nuova teoria che combini gli elementi della distribuzione di Poisson per gli eventi rari e la teoria della variabile continua per i valori monetari degli errori.

6 IV - 6 Il campionamento monetario (MUS) utilizza la distribuzione di Poisson per stimare i valori monetari. La procedura ha tre caratteristiche fondamentali: 1. una regola di campionamento, 2. una regola per calcolare dimensione campionaria 3. una regola per effettuare le stime. La regola di campionamento consiste nel prendere un campione casuale sistematico di unità monetarie da una lista di valori monetari cumulati. La popolazione è quindi costituita dall’insieme delle unità monetarie registrate, il MUS non può quindi essere utilizzato per verificare asserzioni riguardanti la completezza (tutte le operazioni e gli eventi che avrebbero dovuto essere registrati sono stati effettivamente registrati). Questo è un metodo per selezionare un termine con probabilità proporzionale alla dimensione. La dimensione, in questo caso, è il valore contabile, Y i, dell’ i-esimo termine, così le voci di valore più elevato hanno la probabilità più alta di essere estratte.

7 IV - 7 Ad esempio, nella tabella dei saldi dei crediti verso clienti riportata a fianco, la popolazione è costituita da 1.113.791 di euro, e non dai 17 conti cliente. Dato che il campione viene selezionato sulla base del singolo importo monetario, un conto con un saldo rilevante ha maggiori possibilità di essere inserito nel campione (ad esempio il conto 4 ha una probabilità di circa 230 volte maggiore di essere selezionato rispetto al conto 9). prog.ClienteSaldo 1Mario Rossi 64,084 2Bianchi 2,436 3I Prati verdi 14,789 4Quorum 240,320 5Cielo Azzurro 19,088 6Il Vivaio 12,085 7Tizio 185,421 8Caio - 9Sempronio 1,039 10Adda 33,310 11Po 6,920 12Tevere 25,250 13Terranova 135,155 14Bulldog 179,909 15Schnautzer 2,310 16San Bernardo 189,625 17Quo Vadis 2,050 TOTALE 1,113,791 Questo fa si che non ci sia bisogno di alcuna stratificazione con il MUS, perché la stratificazione avviene “automaticamente” Se l’unità di campionamento è la singola unità monetaria di un saldo contabile, a ciascuna di esse, in un universo di transazioni monetarie, si associa quindi uguale probabilità di essere selezionata, mentre hanno maggiore probabilità di essere selezionate le voci contenenti un maggior numero di unità monetarie. La giustificazione del PPS sta nel fatto che si riscontra spesso una relazione statistica più o meno stretta tra dimensione dell’unità e caratteri oggetto di studio. Di conseguenza, l'utilizzazione di una informazione sulla dimensione, tradotta in termini di probabilità di selezione, consente la costruzione di stimatori migliori di quelli ricavabili da una selezione equiprobabilistica.

8 IV - 8  Rispetto al classico campionamento per variabili il PPS è generalmente più facile da applicare sia in termini di determinazione della dimensione campionaria che di valutazione dei risultati.  Il PPS non richiede, per la determinazione della dimensione campionaria, informazioni sulla variabilità del fenomeno oggetto di studio.  Produce automaticamente un campione stratificato dal punto di vista della dimensione finanziaria.  Se il revisore non si attende errori nella popolazione, la dimensione campionaria che ne risulta è generalmente più piccola rispetto a quella che si avrebbe nel classico campionamento per variabili.  Il PPS si applica per lo più ai casi in cui gli errori si traducano in una sovrastima dell’importo ritenuto ammissibile. In caso contrario la valutazione dei risultati richiede un esame particolarmente attento.  Se il revisore si attende la presenza di errori nella popolazione, la dimensione campionaria tende a crescere. In questo caso, si può ricorrere al campionamento casuale semplice o al campionamento stratificato che si basano su ipotesi distributive degli errori e/o irregolarità nella popolazione più adatte al caso in cui la loro frequenza sia rilevante (tendenza verso la distribuzione normale). Vantaggi del PPS

9 IV - 9  L’utilizzo di un campionamento PPS implica però che le voci della popolazione con un saldo pari a zero non hanno la possibilità di essere selezionate, anche se potrebbero contenere errori  I saldi di scarsa entità, dovuti ad una sottovalutazione significativa hanno una scarsa probabilità di essere inclusi nel campione  Altro problema consiste nell’impossibilità di includere nel campione saldi negativi (ad esempio saldi a debito nei crediti verso clienti) Svantaggi del PPS

10 IV - 10 Le ipotesi da formulare per determinare l’ampiezza campionaria sono le seguenti: Dimensione del campione 1.Livello di confidenza, LC; ossia il valore percentuale di rappresentatività del campione estratto dalla popolazione di riferimento (e nella sua definizione si deve tenere conto del livello di “affidabilità del sistema”); 2.Soglia di rilevanza, SR; ossia la percentuale ottenuta rapportando il valore assoluto dell’errore monetario massimo ammissibile al valore totale della popolazione; 3.Numero di errori, k; presenti nel campione, da stabilire a priori. La dimensione campionaria viene determinata sulla base del rapporto tra il valore monetario della popolazione di riferimento (BV Book Value) e l’intervallo di campionamento (IC): n=BV/IC L’intervallo di campionamento varia a seconda che il revisore si attenda o meno la presenza di un tasso di errore nella popolazione

11 IV - 11 AR = IR x CR x DR è il rischio che i sistemi di controllo compresa la revisione interna, non riescano a prevenire o identificare tempestivamente errori o irregolarità rilevanti. è il rischio che il bilancio contenga errori o irregolarità rilevanti e varia per le diverse voci che compongono il bilancio rischio legato alla possibilità che le procedure di revisione non identifichino un eventuale errore o un’irregolarità rilevante Per quanto riguarda la definizione del livello di significatività ricordiamo che: AR=Rischio di Revisione IR=Rischio Intrinseco CR=Rischio di Controllo DR=Rischio di Individuazione è il rischio che il revisore esprima un giudizio non corretto nel caso in cui il bilancio sia significativamente inesatto. AR = IR x CR x DR  DR = AR / (IR x CR) Definito quindi a priori il rischio di revisione, e fissati il rischio intrinseco e quello di controllo si può determinare il rischio di individuazione Ad esempio AR=5%, IR=100%, CR=50%DR=10%

12 IV - 12 Caso A – Nessun errore atteso L’intervallo di campionamento deriva dal rapporto tra l’errore tollerabile (TM Tolerable Misstatement): TM=SR·BV e un fattore che corrisponde al livello scelto del rischio di non individuazione (o rischio di accettazione). Tale fattore viene denominato Reliability Factor (RF). In simboli: IC=TM/RF Il RF si desume attraverso l’impiego della distribuzione di Poisson che, come già sottolineato, ben si adatta a rappresentare la distribuzione di eventi rari quali possono essere gli errori o le irregolarità in alcuni casi della revisione contabile. Nel caso non ci si attenda alcun errore RF viene determinato utilizzando la distribuzione di Poisson per P(x)=0 ovvero la probabilità che l’errore atteso sia pari a 0 associato ad un determinato livello di confidenza

13 IV - 13 Ricordiamo che la distribuzione di probabilità di Poisson è data da: e che tale distribuzione indica la probabilità che un evento (numero di errori o irregolarità) si verifichi X volte. Indicando con X il numero di operazioni irregolari rilevanti che ci si aspetta di trovare nel campione, ed in particolare avendo supposto di non trovarne, avremo, ponendo X=0 e pr(X=0)=1-LC, dove LC rappresenta il livello di confidenza: da cui: Se ad esempio fissiamo LC =90% avremo λ=-ln(1-0.90)=2.31 Tabella Determinazione di RF Livello di confidenza99%95%90%85%80%75%70%65%60% Rischio di rilevamento1%5%10%15%20%25%30%35%40% RF4.6132.311.91.611.391.211.050.92

14 IV - 14 Per cui la dimensione del campione, nel caso in cui non siano previsti errori nella popolazione sarà: Se quindi venisse fissato una soglia di errore del 2% con un livello di confidenza del 90% avremo: n=2.31/0.02=115.5=116 Tabella Determinazione di RF Livello di confidenza99%95%90%85%80%75%70%65%60% Rischio di rilevamento1%5%10%15%20%25%30%35%40% RF4.6132.311.91.611.391.211.050.92

15 IV - 15 Caso B – Errore atteso La formula per la determinazione della dimensione campionaria si modifica per tenere conto dell’errore atteso (ER) opportunamente amplificato mediante un fattore di espansione (EF). In particolare si opera una correzione dell’errore tollerabile: Tabella Determinazione del Fattore di espansione dell’errore (EF) Livello di confidenza99%95%90%85%80%75%70%65%60% Rischio di rilevamento1%5%10%15%20%25%30%35%40% EF1.91.61.51.41.31.251.21.151.1 Il valore di EF varia in funzione al livello di confidenza utilizzato. Nella tabella sono riportati i valori che assume il parametro EF al variare del livello di confidenza.

16 IV - 16 Sia ad esempio: dimensione della popolazione (€ del conto sotto verifica) BV=350000 errore tollerabile TM=11000 errore atteso ER=3000 ponendo il rischio di incorretta accettazione 1-LC=10% avremo: RF =2.31 EF =1.5 Tabella Determinazione del Fattore di espansione dell’errore (EF) Livello di confidenza99%95%90%85%80%75%70%65%60% Rischio di rilevamento1%5%10%15%20%25%30%35%40% EF1.91.6 1.5 1.41.31.251.21.151.1 Tabella Determinazione di RF Livello di confidenza99%95%90%85%80%75%70%65%60% Rischio di rilevamento1%5%10%15%20%25%30%35%40% RF4.613 2.31 1.91.611.391.211.050.92

17 IV - 17 Ipotizzando BV = 1.000.000, una soglia di rilevanza del 2%, un errore previsto dello 0.5% e un’affidabilità del sistema medio-alta (quindi un livello di confidenza pari al 70%), la numerosità del campione, sulla base delle informazioni: BV=1.000.000 TM =1.000.000 0.02 = 20.000 ER =1.000.000 0.005= 5.000 RF =1.21 EF =1.20 risulta: Il campione sarà estratto dall’elenco completo delle operazioni del conto in esame secondo una procedura di selezione sistematica (PS) con un passo di campionamento pari a BV/n=11570.25

18 IV - 18 Selezione del campione I campioni per unità monetarie sono selezionati con il criterio della probabilità proporzionale alla dimensione; fanno quindi riferimento alle singole unità monetarie della popolazione. Debbono però essere identificate le unità fisiche rispetto a cui eseguire i test di revisione. Per fare ciò deve essere costruito il totale cumulato degli elementi sottoposti a revisione. Con riferimento a tale cumulata la selezione delle unità potrà avvenire facendo ricorso all’estrazione di numeri casuali o per mezzo di un campionamento sistematico. Selezione per mezzo di numeri casuali: Si estraggono n numeri casuali, pari alla numerosità del campione, compresi tra 1 ed il totale del conto (BV). Verranno quindi selezionati gli elementi che nella colonna dell’importo cumulato contengono i valori casuali estratti. Campionamento sistematico: Si estrae un numero casuale C compreso tra 1 ed il valore dell’intervallo di campionamento (IC). Viene selezionato, nella colonna dell’importo cumulato la prima unità fisica che contiene l’unità monetaria corrispondente al numero casuale estratto. Si procede poi selezionando l’unità corrispondente a C+IC, e si prosegue con C+2IC,…,C+(n-1)IC.

19 IV - 19 Ammontare fatture Totale cumulatoSelezionati Cliente 18527 Cliente 23034238869 Cliente 32900067869 Cliente 449115116984 * Cliente 523792140776 Cliente 623415164191 Cliente 726930191121 Cliente 87689198810 Cliente 925861224671 * Cliente 1033324257995 Cliente 1126362284357 Cliente 1268000352357 * Cliente 134179356536 Cliente 1424415380951 Cliente 1559000439951 Cliente 166050446001 Cliente 1724432470433 * Cliente 1865000535433 Cliente 1945000580433 * Cliente 2049942630375 Totale630375 Data la seguente popolazione, ipotizziamo di estrarre n=5 unità con campionamento sistematico. 1.Definiamo l’intervallo di campionamento BV/n=630375/5=126075 2.Estriamo un numero casuale compreso tra 1 e 126075  C=73936 3.Selezioniamo l’unità fisica che, rispetto alla cumulata, contiene l’unità monetaria 73936- esima, viene identificato il cliente 4 4.Aggiungendo a 73936 l’intervallo di campionamento 126075, otteniamo 200011. Questa unità monetaria è contenuta nella nona unità, che pertanto viene selezionata. 5.Si prosegue aggiungendo a 200011 l’intervallo di campionamento, otteniamo 326086. Questa unità monetaria è contenuta nella dodicesima unità.

20 IV - 20 Ammontare fatture Totale cumulatoSelezionati Cliente 18527 Cliente 23034238869 Cliente 32900067869 Cliente 449115116984 * Cliente 523792140776 Cliente 623415164191 Cliente 726930191121 Cliente 87689198810 Cliente 925861224671 Cliente 1033324257995 Cliente 1126362284357 Cliente 1268000352357 * Cliente 134179356536 Cliente 1424415380951 Cliente 1559000439951 Cliente 166050446001 Cliente 1724432470433 Cliente 1865000535433 * Cliente 1945000580433 * Cliente 2049942630375 * Totale630375 Data la seguente popolazione, ipotizziamo di estrarre n=5 unità con campionamento casuale. 1.Estriamo 5 numeri casuali compreso tra 1 e 630375 (BV) 2.Si selezioniamo le unità fisica che, rispetto alla cumulata, contengono le unità monetarie corrispondenti ai numeri casuali estratti: la 310789-esima unità monetaria cade nell’intervallo 284357-352357, quindi selezioniamo la dodicesima unità, ecc. Numeri casuali 1310789 2624109 389750 4551898 5515938

21 IV - 21 I metodi statistici utilizzati per valutare i campioni per unità monetaria permettono di includere più di una volta una unità fisica nel campione. Ammontare fatture Totale cumulatoSelezionati …… Cliente 1724432470433 Cliente 1865000535433 * Cliente 1945000580433 Cliente 2049942630375 ** Totale630375 Numeri casuali 1310789 2624109 389750 4591898 5515938 Con riferimento all’esempio precedente, se i numeri casuali fossero stati i seguenti: Il secondo ed il quinto numero estratti fanno riferimento al cliente 20, il quale verrà revisionato evidentemente una sola volta ma verrà trattato statisticamente come due item del campione, in modo tale che il campione risulti sempre composto da 5 unità

22 IV - 22 Valutazione dei risultati del campionamento L’obiettivo del MUS consiste nel determinare la probabilità che un conto di bilancio possa eccedere un limite tollerabile di errore fissato dal revisore. Questo significa che se è stato costruito un campione con “detection risk” del 15% (ovvero il rischio che l’auditor non riesca ad individuare la presenza di errori materiali che condizioneranno i valori di bilancio in modo significativo) ed un errore tollerabile di 50mila€, il revisore sta testando l’ipotesi che non ci sia più di un 15% di probabilità che errori causati dall’asserzione che si sta verificando possano determinare una sopravalutazione del conto esaminato di oltre 50mila€. Per “proiettare” i risultati campionari sulla popolazione, il primo passaggio consiste nel determinare il limite di errore superiore (UML Upper Misstatement Limit) ovvero la massima sopravalutazione che si può avere nella popolazione dati gli errori riscontrati nel campione, sempre ad un determinato livello di rischio. Se ad esempio viene determinato un UML di 41800€ con un rischio del 15%, questo consente di dire che ci sono solo il 15% di possibilità che il livello di sovrastima nella popolazione sia maggiore di 41.8mila€.

23 IV - 23 Il limite di errore superiore è determinato da tre componenti: 1.la precisione di base (BP), l’incertezza associata al fatto di osservare solo una parte della popolazione; nel caso in cui nel campione non vengano trovati errori coincide con UML; 2.il projected misstatement (PM), rappresenta una stima puntuale dell’errore presente nella popolazione di riferimento; 3.un fattore di incremento (IA), utilizzato per migliorare la precisione della stima legato al numero di errori individuati Il limite superiore dell’errore andrà poi confrontato con l’errore tollerabile per determinare se ritenere accettabile, con un determinato livello di rischio, i valori riportati a bilancio.

24 IV - 24 La precisione di base è l’errore “proiettato” in caso di assenza di errori rilevati e si determina come IC · RF (cioè intervallo di campionamento moltiplicato per il Reliability factor). Se durante il controllo non vengono individuati errori non è possibile concludere affermando che nella popolazione non ci sono errori; questo perché il rischio derivante dall’avere osservato solo una parte della popolazione ci impedisce di giungere a tale conclusione. La precisione di base rappresenta il rischio di campionamento. BV=350000 TM=11000 ER=3000 1-LC=10%  RF =2.31  EF =1.5 IC=2813.85 Riprendendo l’esempio fatto in precedenza, la precisione di base sarà: IC · RF = 2813.85 · 2.31 = 6500€ Questo rappresenta il limite di errore superiore nel caso non si siano registrati errori in fase di revisione. Se confrontiamo questo valore con il limite di errore tollerato, siccome è inferiore a 11000, potremo accettare la popolazione

25 IV - 25 Se durante la fase di revisione si evidenziano degli errori per prima cosa dovremo registrare, per ognuno di essi la differenza tra valore registrato e valore revisionato e rapportarla all’importo registrato codice cliente importo crediti verso clienti registrati importo crediti verso clienti verificatiErrore Errore/ Importo registrato 2073100901010% 5111200019001005% 7642102000102101898- Supponiamo di avere osservato un campione di 66 unità proveniente da una popolazione BV=1200000 (per cui IC=1200000/66=95000), e di avere riscontrato i seguenti tre errori: Nel caso dell’ultimo cliente non viene calcolato il rapporto perché l’importo registrato è maggiore dell’intervallo di campionamento L’ultima colonna rappresenta il fattore di “contaminazione” utilizzato per riportare alla popolazione una prima stima di erraticità detta tainting factor

26 IV - 26 codice cliente valore registrato (A) valore revisionato (B) Errore (C = A-B) Errore/ Importo registrato (Taintng) (D = C/A) IC (E) projected misstatement (F = D*E)UML 2073100901010%950009500 5111200019001005%950004750 7642102000102101898- projected misstatement (PM)116148 precisione di base (IC*RF) (PB)3* 95000285000 Reliabity Factor (G) Incremento (H = G-G -1 ) Incremento - 1 (I = 1-H) projected misstatement (F) fattore di incremento (L = I*F) 3.00 4.751.750.7595007125 6.301.550.5547502613 fattore di incremento9738 Totale 410886 Moltiplicando il tainting factor per l’intervallo di campionamento si ottiene la proiezione di ciascun errore (l’errore di importo superiore all’IC viene riportato interamente). La somma dei projected misstatement fornisce la prima componente per il calcolo del limite di errore superiore (UML).

27 IV - 27 A questa deve poi essere aggiunta la precisione di base che si determina moltiplicando il Reliabilty Factor per l’intervallo di campionamento. Il terzo elemento del UML è invece rappresentato da quello che viene detto fattore di incremento, ovvero un fattore legato al fatto di avere trovato errori e che incrementa il limite di errore per ogni errore rilevato. È legato alla probabilità di trovare un certo numero di errori, e si determina partendo dal RF che si registra in presenza del numero di errori riscontrati in revisione. Se ad un livello di rischio del 5%, l’RF è pari a 3.00 (derivato dalla distribuzione di Poisson in corrispondenza di un deteremianto livello di probabilità), se troviamo un errore il valore di RF sarà 4.75 (i valori possono essere tratti da una tavola come la seguente).

28 IV - 28 In realtà viene utilizzata la variazione del RF all’aumentare degli errori e di questa calcolato il complemento ad 1. Il valore così ottenuto viene moltiplicato per l’intervallo di campionamento ottenendo il fattore di incremento dovuto a ciascun errore. La somma dei singoli fattori viene infine utilizzata per determinare il limite di errore superiore.  Se UML ≤ TM si conclude che il valore monetario della popolazione non è sovrastimato più di UML con un rischio pari al rischio di accettazione.  Se UML > TM si conclude che, al livello di certezza fissato, la popolazione è affetta da errore superiore a quello tollerabile.


Scaricare ppt "IV - 1 Prof. Fabrizio Alboni IV parte – discovery sampling, campionamento per unità monetaria Corso di laurea in Economia e Commercio."

Presentazioni simili


Annunci Google