La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Obiettivi formativi Il corso di Chimica Analitica per le lauree in Tecniche Erboristiche e in Tossicologia dellambiente fornisce allo studente le nozioni.

Presentazioni simili


Presentazione sul tema: "Obiettivi formativi Il corso di Chimica Analitica per le lauree in Tecniche Erboristiche e in Tossicologia dellambiente fornisce allo studente le nozioni."— Transcript della presentazione:

1 Obiettivi formativi Il corso di Chimica Analitica per le lauree in Tecniche Erboristiche e in Tossicologia dellambiente fornisce allo studente le nozioni fondamentali di chimica analitica e gli strumenti per poter valutare criticamente (anche per via statistica e chemiometrica) i risultati sperimentali ottenuti mediante le metodiche analitiche. La parte sperimentale del corso consente di acquisire la manualità necessaria e la conoscenza delle tecniche analitiche di base per poter operare in un laboratorio. Il programma del corso consente inoltre di acquisire le conoscenze culturali necessarie per affrontare i corsi degli anni seguenti, in particolare quelli dei laboratori. Prerequisiti Si presuppone che siano noti i fondamenti dei seguenti argomenti: Chimica generale: Reazioni chimiche, Classificazione delle reazioni chimiche, Reazioni di ossidoriduzione, Bilanciamento delle reazioni di ossidoriduzione, Soluzioni, Elettroliti e non-elettroliti, Solubilità, Processo di solubilizzazione, Attività e concentrazione, Concentrazione delle soluzioni. Definizione di acidi e basi, Sistemi acido-base in acqua, Autoprotolisi dell'acqua, Costanti acida e basica. Contenuto del corso Statistica per la chimica analitica. Precisione e accuratezza. Tipi di errori. Distribuzione normale. Curva gaussiana e probabilità. Propagazione dellerrore. Cifre significative e arrotondamenti. Espressione degli intervalli di fiducia. Test statistici di significatività. Metodo dei minimi quadrati. Il processo analitico. Campione e campionamento. Trattamento del campione. Calibrazione. Effetto matrice. Caratteristiche fondamentali di un metodo analitico. Calcoli applicati alla chimica analitica, equilibri chimici in soluzione, risoluzione di problemi di equilibrio per sistemi complessi. Titolazioni, teoria delle titolazioni di neutralizzazione, curve di titolazione per sistemi acido-base complessi, applicazioni delle titolazioni di neutralizzazione. Titolazioni di precipitazione, titolazioni con formazione di complessi. Testo di riferimento Chimica Analitica, una introduzione. D.A. Skoog, D.M. West, F.J. Holler. Edizioni EdiSES Orario ore Aule ex-Lolli. Laboratorio: Istituto Alberghetti Ricevimento Su appuntamento (Tel /85; Lunedì - Venerdì dalle 9.30 alle Dipartimento di Chimica "G. Ciamician" - via F. Selmi 2, Bologna Corso di Chimica Analitica I

2 Ogni misura quantitativa è soggetta ad un errore sperimentale e di conseguenza esiste una incertezza nel risultato che non può mai essere completamente eliminata: siccome un dato quantitativo non ha valore se non è accompagnato da una stima dellerrore associato, è necessario valutare questa incertezza. Poiché un singolo risultato non fornisce informazioni sullincertezza, unanalisi viene normalmente effettuata su di una serie di replicati (aliquote di uno stesso campione analizzate esattamente nello stesso modo). Dallinsieme dei replicati si ottengono: Un valore migliore per il risultato dellanalisi, rappresentato dalla media aritmetica dei replicati: Una misura dellincertezza legata al risultato dellanalisi, rappresentata dalla dispersione dei dati e generalmente espressa attraverso parametri quali la deviazione standard, la varianza o il coefficiente di variazione. LERRORE NELLANALISI QUANTITATIVA

3 PRECISIONE La precisione (o riproducibilità) di una misura esprime il grado di concordanza fra misure ripetute di uno stesso campione – ovvero la dispersione dei dati rispetto al loro valore medio. Dal punto di vista sperimentale, la sua determinazione è abbastanza semplice poiché una stima della precisione di unanalisi si può ottenere direttamente dalla misura dei replicati. La precisione di una misura sperimentale è sempre positiva e viene espressa da: Deviazione standard del campione Varianza Coefficiente di variazione (in genere preferito in quanto permette di avere una indicazione diretta dellimportanza dellincertezza rispetto al valore della misura) s2s2

4 ACCURATEZZA Laccuratezza di una misura indica la vicinanza del valore ottenuto (generalmente espresso attraverso la media) al valore vero. Dal punto di vista sperimentale, la determinazione dellaccuratezza di una misura non è sempre facile, poiché il valore vero della grandezza da misurare potrebbe non essere noto. In tal caso è necessario utilizzare un valore accettato o usare altri criteri di valutazione. Laccuratezza di una misura viene espressa in termini assoluti o relativi attraverso lerrore (il segno dellerrore indica se si ha una sovrastima od una sottostima): Errore (o errore assoluto) Errore relativo (anche in questo caso il dato relativo permette di avere maggiori informazioni, poiché indica direttamente limportanza dellerrore). Altre unità comunemente usate per lerrore relativo sono le parti per mille o le parti per milione (ppm)

5 PRECISIONE vs. ACCURATEZZA Precisione ed accuratezza sono indipendenti fra di loro; misure precise possono essere poco accurate e viceversa. Elevate precisione ed accuratezzaBassa precisione ed accuratezza Elevata precisione, bassa accuratezzaBassa precisione, elevata accuratezza

6 TIPI DI ERRORE Gli errori sperimentali possono essere suddivisi in grossolani, sistematici e casuali. Questi errori hanno spesso origini diverse fra di loro è fondamentale identificare il tipo di errore in una misura poiché da esso dipende il trattamento del dato ottenuto. Lerrore sistematico (o determinato) è unidirezionale e fisso per una serie di misure effettuate nelle stesse condizioni sperimentali ed influenza laccuratezza di una misura. Almeno in linea di principio, esso può essere corretto (correzioni teoriche, calibrazione dello strumento, uso di standard o di un bianco, ecc.). Lerrore grossolano deriva da occasionali errori macroscopici compiuti durante la procedura analitica e non è trattabile in modo sistematico. Spesso è molto evidente ed esistono criteri statistici per stabilire se un dato apparentemente aberrante allinterno di una serie di misure (outlier) sia dovuto o non ad un errore di questo tipo. Lerrore casuale (o indeterminato) è lerrore associato ad una misura derivante dalle limitazioni naturali insite nelle misure fisiche, ed influenza la precisione di una misura. Esso può assumere valori positivi o negativi e non può essere eliminato. Il suo effetto sul risultato di una misura può essere però valutato in quanto lerrore casuale può essere studiato mediante un approccio di tipo statistico.

7 ERRORE SISTEMATICO Gli errori sistematici hanno un valore definito ed una causa di solito determinabile, ed agiscono nello stesso modo su di ogni misura replicata. Le loro cause principali sono: Errori strumentali: derivano, fra le altre cose, da malfunzionamenti nella strumentazione, errori nella calibrazione delle apparecchiature utilizzate, esecuzione delle misure in condizioni non appropriate. Errori di metodo: rappresentano la forma di errore sistematico più difficile da individuare e derivano dal comportamento chimico o fisico non ideale dei reagenti o delle reazioni durante lanalisi. Esempi tipici sono la lentezza o lincompletezza di alcune reazioni, linstabilità di alcune specie, la non perfetta specificità dei reagenti, il verificarsi di reazioni secondarie che interferiscono con quella principale. Errori personali: si possono avere tutte le volte che alloperatore viene richiesta una valutazione soggettiva per determinare il valore di una grandezza (ad esempio la lettura di un indicatore o losservazione di un cambiamento di colore). Unaltra possibile origine è rappresentata dal pregiudizio delloperatore (spesso involontario) nella lettura di un risultato numerico.

8 EFFETTO DELLERRORE SISTEMATICO Errore sistematico costante: il valore dellerrore è costante e non dipende dalla quantità misurata Errore sistematico proporzionale: aumenta o diminuisce in proporzione alla quantità misurata Gli errori sistematici possono anche essere composti, cioè risultare dalla somma di errori sistematici costanti e proporzionali. Leffetto dellerrore sistematico sulla analisi presenta un andamento opposto: - per un errore sistematico costante, lerrore relativo è inversamente proporzionale alla quantità da determinare (è maggiore per campioni più piccoli e diminuisce aumentando la dimensione del campione) - per un errore sistematico proporzionale lerrore relativo è costante, indipendente dalla quantità di campione. Valore vero Valore sperimentale Errore sistematico proporzionale (positivo) Errore sistematico costante (positivo) Nessun errore sistematico I due tipi di errori sistematici possono essere differenziati confrontando i risultati di analisi effettuate variando la quantità di campione

9 CORREZIONE DELLERRORE SISTEMATICO Gli errori sistematici strumentali e quelli dovuti alle interferenze da parte della matrice del campione sono in genere corretti utilizzando opportune tecniche di calibrazione (ad esempio, utilizzando il metodo delle aggiunte standard). Gli errori sistematici personali possono essere minimizzati attraverso il controllo delle operazioni effettuate e la scelta del metodo analitico. Gli errori sistematici di metodo sono i più difficili da rivelare in quanto per la loro individuazione è necessario conoscere il valore vero del risultato dellanalisi. Alcune procedure utilizzabili sono le seguenti: Utilizzo di materiali standard di riferimento reperibili in commercio (es. presso il National Institute of Standards and Technology – NIST): consistono in materiali naturali di varia natura (o eventualmente ottenuti per sintesi in modo da riprodurne al meglio la composizione) contenenti uno o più analiti a concentrazione nota. Essi permettono quindi non solo di effettuare lanalisi, ma anche di riprodurre le eventuali interferenze dovute alla matrice del campione. La concentrazione dei componenti nei materiali standard di riferimento viene determinata (a) utilizzando metodi analitici di riferimento, (b) utilizzando due o più metodi analitici indipendenti o (c) attraverso le analisi effettuate da una rete di laboratori.

10 CORREZIONE DELLERRORE SISTEMATICO Uso di due o più metodi analitici indipendenti: in assenza di materiali standard di riferimento adeguati, è possibile confrontare i risultati ottenuti mediante il metodo in esame con quelli ricavati dallanalisi dello stesso campione con un differente metodo analitico. I due metodi dovrebbero essere il quanto più possibile diversi fra di loro (e possibilmente basarsi su principi fisici differenti) in modo da evitare che uno stesso fattore possa influenzare entrambe le analisi. Analisi del bianco: lanalisi di un bianco contenente i reagenti ed i solventi utilizzati in unanalisi e, se possibile, i costituenti del campione escluso lanalita (matrice del campione) permette di valutare lerrore dovuto alle interferenze da parte di contaminanti, reagenti ed altri materiali. I risultati ottenuti possono poi essere applicati come correzioni alle misure effettuate sul campione. Spesso sono comunque necessari metodi statistici di confronto per stabilire se la differenza fra i risultati ottenuti nellanalisi ed il valore atteso sia o no dovuta ad un errore di tipo sistematico.

11 NATURA DELLERRORE CASUALE Sebbene questo errore non possa essere eliminato, il suo effetto può essere analizzato in quanto lerrore casuale presenta caratteristiche ben determinate, interpretabili mediante un approccio di tipo statistico. Quando la variazione è determinata dallerrore casuale, i valori tendono a disporsi attorno al valore medio secondo un andamento a campana, detto curva gaussiana o curva normale dellerrore. Lerrore casuale complessivo in una misura è determinato dallaccumularsi di una serie di errori estremamente piccoli dovuti a molte variabili incontrollate nella maggior parte dei casi non identificabili singolarmente. La loro somma determina però una fluttuazione misurabile dei dati di una serie di replicati intorno al loro valore medio. Valore sperimentale Normalmente nel trattamento statistico dellerrore casuale si assume una distribuzione di tipo gaussiano. Questa approssimazione è valida nella maggior parte dei casi, ma alcuni tipi di misure seguono una statistica differente (es. le misure di decadimento radioattivo seguono una statistica detta di Poisson).

12 COME SI GENERA UNA CURVA GAUSSIANA Con laumento del numero degli errori considerati si passa da una distribuzione discontinua ed approssimata (istogramma) ad una curva indistinguibile da una vera e propria curva gaussiana. Una curva gaussiana può essere generata attraverso una procedura molto semplice, assumendo che la deviazione dalla media di un replicato sia il risultato della somma di N errori, ognuno di ampiezza U, ognuno dei quali ha eguale probabilità di avere segno positivo o negativo, e valutando la probabilità di ognuna delle possibili deviazioni complessive. Deviazione -4U 0 +4U-10U 0 +10U 0 N = 4N = 10N

13 CAMPIONE E POPOLAZIONE POPOLAZIONE Insieme (reale o ideale) di tutte le misure di interesse CAMPIONE Insieme di dati sperimentali accessibile alloperatore (in pratica, insieme delle misure realmente effettuate) Le leggi statistiche vengono derivate assumendo di trattare una popolazione di dati, cioè linsieme - idealmente infinito - di tutte le misure che si potrebbero effettuare per una certa analisi. In pratica lo sperimentatore ha accesso soltanto ad un campione, ovvero ad numero limitato di dati, che non possono essere rappresentativi di tutta la popolazione. Le leggi statistiche devono quindi venire modificate quando vengono applicate a piccoli campioni di dati.

14 GRANDEZZE STATISTICHE DELLA POPOLAZIONE E DEL CAMPIONE Le grandezze statistiche vengono definite in modo differente a seconda che si riferiscano alla popolazione o ad un campione. Molto spesso, in particolare se N è piccolo, le due medie non coincidono, poiché un campione limitato non rappresenta esattamente la popolazione dalla quale proviene (la media del campione è quindi una stima della media della popolazione). Le due medie (come tutte le altre grandezze statistiche) tendono a coincidere allaumentare del numero delle misure N del campione. Buona parte del trattamento statistico dei dati sperimentali riguarda perciò come ottenere informazioni affidabili sul valore di avendo a disposizione soltanto dati sperimentali, quindi valori di x. Media della popolazione: rappresenta la media reale relativa alla popolazione. In assenza di errori sistematici, la media della popolazione coincide con il valore vero della quantità misurata. Media del campione: è la media aritmetica di un campione limitato preso da una popolazione di dati.

15 GRANDEZZE STATISTICHE DELLA POPOLAZIONE E DEL CAMPIONE (II) Il denominatore (N – 1) rappresenta il numero di gradi di libertà del sistema, cioè il numero di risultati indipendenti che rientrano nel calcolo della deviazione standard: se il valore di s è noto, N – 1 valori di x i possono variare arbitrariamente mentre lultimo valore x N deve necessariamente assumere un certo valore perché il risultato della deviazione standard sia quello desiderato. Luso del fattore (N – 1) porta da un aumento del valore calcolato di s: se non si usa questo fattore, il valore calcolato di s per il campione sarà, in media, inferiore alla deviazione standard vera della popolazione. Deviazione standard della popolazione: come già visto, è una misura della precisione della popolazione di dati. Deviazione standard del campione: le differenze sostanziali dallespressione relativa alla popolazione sono la sostituzione di con x e lintroduzione del denominatore (N – 1) al posto di N.

16 CURVA GAUSSIANA E PROBABILITA In statistica, la curva gaussiana è la funzione che riporta la frequenza relativa – o probabilità - (y) delle varie deviazioni dalla media in funzione del valore della deviazione. Una curva gaussiana è definita univocamente da due soli parametri, la media della popolazione ( ) e la deviazione standard della popolazione ( ). x Il fattore moltiplicativo che appare nellequazione della curva è un fattore di normalizzazione: esso garantisce che larea complessiva compresa sotto la curva sia unitaria (la curva gaussiana descrive una probabilità, quindi la probabilità totale deve essere unitaria). Le proprietà fondamentali della gaussiana sono: (a) la media si trova nel punto centrale, corrispondente alla massima frequenza (b) la curva è simmetrica rispetto alla media (c) la frequenza delle deviazioni decresce esponenzialmente allaumentare del loro valore

17 PARAMETRI DELLA CURVA GAUSSIANA I valori di e (media e deviazione standard della popolazione) sono legati rispettivamente alla posizione della curva sullasse x e la sua larghezza. Si noti come larea sottesa dalla curva gaussiana resta costante: un incremento della deviazione standard (larghezza della curva) determina una riduzione dellaltezza della curva stessa < 2, 1 = = 2, 1 < 2 Per i calcoli statistici, essenzialmente basati sulla valutazione dellarea sottesa da determinate sezioni della curva gaussiana sfruttando in genere tabelle precalcolate delle aree, si deve però utilizzare una diversa curva gaussiana, definita curva gaussiana normalizzata.

18 CURVA GAUSSIANA NORMALIZZATA La curva gaussiana normalizzata utilizza una nuova variabile z, espressa come che rappresenta la deviazione di un dato dalla media espressa in unità di deviazione standard. In questo modo è possibile ottenere una curva gaussiana che descrive tutte le popolazioni di dati, indipendentemente dalla loro media e dalla loro deviazione standard, di equazione: x z La curva gaussiana normalizzata ha = 1 e = 0. Per localizzare sulla curva un punto appartenente ad una generica distribuzione bisogna prima calcolare il suo scostamento dal valor medio della distribuzione (x i - ) e quindi esprimerlo in unità di deviazione standard (x i - )/.

19 AREA SOTTESA DA UNA GAUSSIANA Larea sottesa da una gaussiana normalizzata fra due valori z 1 e z 2 corrisponde alla probabilità di ottenere un valore compreso appunto fra z 1 e z 2. Le tabelle precalcolate della curva gaussiana normalizzata riportano per ogni valore x il corrispondente valore di probabilità e larea della curva nellintervallo compreso fra 0 ed x, ovvero la probabilità P(0,x) che il dato sperimentale presenti una deviazione compresa in questo intervallo. 0 x P(0,x)

20 Combinando i valori riportati in tabella, si possono ottenere facilmente le probabilità relative a qualsiasi intervallo: P(-x 1,x 2 ) = P(-x 1,0) + P(0,x 2 ) = P(0,x 1 ) + P(0,x 2 ) e, come caso particolare, P(-x 1,x 1 ) = P(-x 1,0) + P(0,x 1 ) = 2P(0,x 1 ) P(x 1,x 2 ) = P(0,x 2 ) - P(0,x 1 ) (se x 2 > x 1 ) P(x 1, ) = P(0, ) - P(0,x 1 ) = 0,5 - P(0,x 1 ) Particolarmente interessanti dal punto di vista statistico sono le probabilità che il singolo dato sia compreso entro ±, ±2 e ±3 dalla media della poplazione: IntervalloProbabilità ± 1 68,3% ± 2 95,5% ± 3 99,7% AREA SOTTESA DA UNA GAUSSIANA (II) x 3 2 1

21 ERRORE STANDARD DELLA MEDIA La deviazione standard calcolata per il campione o per la popolazione si riferisce al probabile errore su di una singola misura. Se invece della singola misura si considera la popolazione delle medie ottenute da campioni costituiti da N dati, essa presenta una deviazione standard tanto minore di quella del singolo dato quanto più alto è il valore di N. La deviazione standard della media è data dalla: La media dei risultati è quindi più precisa di una singola misura. Aumentare il numero dei replicati non è comunque un modo molto efficiente di aumentare la precisione della misura, poiché il miglioramento dipende soltanto dalla radice quadrata di N. In effetti è più conveniente diminuire s, poiché s m è direttamente proporzionale ad s. N smsm s

22 LAFFIDABILITA DELLA MISURA DELLA PRECISIONE In molti test statistici la correttezza del risultato dipende dallaffidabilità della stima della deviazione standard della popolazione attraverso la determinazione di s. Laffidabilità di questa stima aumenta allaumentare di N, e come criterio generale se N 20 s è una buona stima di : se la misura non è molto lunga e/o complessa, si può quindi ottenere effettuando la misura di un numero adeguato di replicati. Nel caso la ripetizione della misura sia problematica, è possibile che si abbiano a disposizione soltanto piccoli gruppi di dati ottenuti in momenti differenti. Nellipotesi che questi dati siano omogenei (es. campioni di composizione analoga analizzati nello stesso modo) e che facciano parte della stessa popolazione è possibile calcolare la deviazione standard raggruppata, s g : dove N 1, N 2, … N k sono i numeri degli elementi dei k gruppi di dati, N è il numero totale dei dati ed N – k è il numero di gradi di libertà.

23 ALTRE MISURE DI PRECISIONE La varianza (della popolazione o del campione) è il quadrato della deviazione standard. In genere è meno utilizzata della deviazione standard poiché non ha le stesse unità di misura della grandezza alla quale si riferisce, e quindi non è direttamente confrontabile (daltra parte, a differenza delle deviazioni standard, le varianze sono additive). Varianza del campione: Varianza della popolazione: Spesso per maggiore praticità la deviazione standard viene espressa in termini relativi: queste grandezze forniscono infatti una rappresentazione più chiara ed immediata della qualità dei dati: Deviazione standard relativa: Coefficiente di variazione: Talvolta per descrivere un insieme di dati è anche usata la dispersione o range, che non è altro che la differenza fra il valore più grande e quello più piccolo dellinsieme.

24 PROPAGAZIONE DELLERRORE In molte misure il risultato finale deriva dalla combinazione di più grandezze sperimentali, ad ognuna delle quali è associata una deviazione standard. In generale, la deviazione standard del risultato non corrisponde semplicemente alla somma delle singole deviazioni standard, in quanto gli errori casuali possono essere sia positivi che negativi e quindi almeno in parte si annullano. Il calcolo della deviazione standard del risultato dipende comunque dalle operazioni aritmetiche coinvolte Addizione e sottrazione La deviazione standard assoluta del risultato di una somma (o sottrazione) è pari alla radice quadrata della somma dei quadrati delle deviazioni standard assolute dei singoli addendi: y =1,76 (± 0,03) + 1,89 (± 0,02) - 0,59 (± 0,02) = 3,06 (± s) y = 3,06 (± 0,04)

25 PROPAGAZIONE DELLERRORE (II) Moltiplicazione e divisione La deviazione standard relativa del risultato di una moltiplicazione (o divisione) è pari alla radice quadrata della somma dei quadrati delle deviazioni standard relative: Occorre quindi prima convertire tutte le deviazioni standard assolute in deviazioni standard relative, quindi calcolare la deviazione standard relativa del prodotto: y = 1,76 (± 0,03). 1,89 (± 0,02)/0,59 (± 0,02) = 5,64 (± s) Per completare il calcolo si valuta la deviazione standard assoluta del risultato: s y = y. 0,040 = 0,2 y = 5,6 ± 0,2

26 PROPAGAZIONE DELLERRORE (III) Calcoli esponenziali La deviazione standard relativa del risultato di una elevazione a potenza (assumendo che lesponente sia privo di errore) è pari al prodotto dellesponente per la deviazione standard relative del numero considerato: La differenza fra le formule relative alla moltiplicazione ed allelevazione a potenza è determinata dal fatto che nellelevazione a potenza le deviazioni standard allinterno delloperazione di elevamento a potenza non sono indipendenti fra di loro. Logaritmi La deviazione standard assoluta di un logaritmo decimale è data dalla deviazione standard relativa del numero considerato moltiplicata per 0,434: Per lantilogaritmo vale una relazione inversa:

27 PROPAGAZIONE DELLERRORE (IV) Le espressioni viste sono casi particolari di una espressione generale che descrive la propagazione dellerrore per una generica funzione y = f(x 1,x 2,x 3 …). Per una funzione di questo tipo, la deviazione standard di y, s y, è legata alle deviazioni standard di x 1,x 2,x 3 … dalla relazione: dove con f/ x i si indica la derivata parziale della funzione f(x 1,x 2,x 3 …) rispetto alla variabile x i.

28 CIFRE SIGNIFICATIVE Per essere effettivamente utile, ogni dato numerico deve contenere informazioni relative alla sua accuratezza. Questo può essere fatto in vari modi, ad esempio fornendo un intervallo di fiducia al livello del 90% o del 95% oppure indicando una deviazione standard assoluta o relativa, eventualmente riportando anche il numero di dati dalla quale essa è stata ricavata (in modo da indicare anche la sua affidabilità). Un indicatore meno soddisfacente, ma molto comune, si basa sulla convenzione delle cifre significative. Il numero di cifre significative di un numero è il numero minimo di cifre richieste per rappresentarlo in notazione scientifica senza comprometterne la precisione. In base alla definizione, gli zeri sono significativi solo se si trovano in mezzo ad un numero o alla fine di un numero, a destra della virgola (0, oppure 6,302 oppure 6302,0) 9, cifre significative 9, cifre significative 9, cifre significative In base alla convenzione delle cifre significative, lultima cifra significativa di un numero (che può essere anche uno zero) è la prima cifra incerta, alla quale è quindi associato un errore il cui valore minimo è ±1.

29 CIFRE SIGNIFICATIVE NEI CALCOLI NUMERICI Esistono regole empiriche che permettono di stabilire quale numero di cifre significative debba essere conservato nelle operazioni aritmetiche. Addizione e sottrazione Il numero di cifre significative del risultato è determinato dalla posizione della cifra significativa di valore più alto fra i numeri considerati: 3,4 + 0, ,31 = 10,730 10,7 Moltiplicazione e divisione Una regola empirica prevede che il numero di cifre significative del risultato sia pari a quello del numero di partenza con il minor numero di cifre significative. 24 × 4,52 /100,0 = 1,08 1,1 24 × 4,02 /100,0 = 0,965 0,96 Logaritmi e antilogaritmi Il logaritmo di un numero mantiene a destra della virgola dei decimali un numero di cifre pari a quelle contenute nel numero originale. Lantilogaritmo di un numero mantiene tante cifre quante sono quelle a destra della virgola dei decimali nel numero originale. log 4,000 × = -4,3978antilog 12,5 = 3 × 10 12

30 ARROTONDAMENTO DEI RISULTATI Una volta definito lentità dellerrore associato, il risultato di una misura analitica deve essere arrotondato di conseguenza. In primo luogo si può arrotondare la deviazione standard associata al risultato: generalmente la deviazione standard può essere riportata con una sola cifra significativa. Sulla base del valore della deviazione standard si arrotonda il risultato alla cifra più vicina compatibile con lerrore associato (nel caso di una cifra 5 finale, entrambi gli arrotondamenti in eccesso ed in difetto sono possibili; per evitare arrotondamenti sistematici in un senso o nellaltro per convenzione in questo caso si arrotonda alla cifra pari più vicina). Come criterio generale, larrotondamento andrebbe rimandato fino al momento in cui il calcolo è completo, conservando nei risultati parziali sempre almeno una cifra in aggiuinta a quelle significative: questo evita che arrotondamenti prematuri portino ad un risultato non corretto.

31 INTERVALLO DI FIDUCIA Nella maggior parte delle situazioni che si possono presentare in chimica analitica, non è possibile conoscere il valore vero poiché questo richiederebbe un numero infinito di misure. Utilizzando la statistica è però possibile ricavare una stima del valore di basata sul valore x della media sperimentale, definita mediante lintervallo di fiducia. Intervallo di fiducia: intervallo di valori centrato attorno al valore della media sperimentale x, allinterno del quale con una certa probabilità (livello di fiducia) cadrà il valore della media della popolazione. x x Intervallo di fiducia Limite di fiducia inferiore Limite di fiducia superiore Probabilità di trovare = livello di fiducia

32 ESPRESSIONE DELLINTERVALLO DI FIDUCIA (I) Se è noto il valore della deviazione standard della popolazione, o se comunque si può supporre che il valore di s sia una buona stima del valore di, lintervallo di fiducia assume lespressione generale dove il parametro numerico z non è altro che il valore per il quale larea della curva gaussiana normalizzata compresa nellintervallo ±z è pari al livello di fiducia richiesto. -z 0 +z P(-z,+z) = livello di fiducia

33 ESPRESSIONE DELLINTERVALLO DI FIDUCIA (II) Alcune considerazioni: Lampiezza dellintervallo di fiducia è proporzionale al valore di : se è piccolo, lintervallo di fiducia ha una ampiezza minore. Lampiezza dellintervallo di fiducia è inversamente proporzionale a N: a parità di altri fattori, lampiezza può essere ridotta aumentando il numero delle misure. Come già visto nel caso della deviazione standard della media, questo è conveniente solo fino ad un certo punto, oltre al quale il miglioramento ottenibile nellintervallo di fiducia non giustifica il tempo richiesto per effettuare analisi aggiuntive. Lampiezza dellintervallo di fiducia cresce allaumentare del livello di fiducia richiesto: in genere si deve cercare un compromesso fra un livello di fiducia elevato ed unampiezza dellintervallo ragionevole, che permetta di dare un dato di una qualche utilità pratica. Gli intervalli di fiducia così definiti valgono soltanto in assenza di errori di tipo sistematico e se si conosce oppure il valore sperimentale di s è una buona approssimazione di.

34 ESPRESSIONE DELLINTERVALLO DI FIDUCIA (III) Spesso il numero di misure non è sufficiente ad ottenere una buona stima di, e quindi da un insieme di dati relativamente limitato dobbiamo valutare sia la media che la precisione. Siccome il valore di s calcolato da un piccolo insieme di dati può essere molto incerto, quando dobbiamo usare un valore di s determinato in questo modo gli intervalli di fiducia sono più ampi. In questo caso lintervallo di fiducia è dato dalla formula dove il parametro numerico t (t di Student) dipende sia dal livello di fiducia che dal numero di gradi di liberta, cioè in ultima analisi dal numero di dati disponibili. In accordo a quanto detto sopra (maggiore ampiezza dellintervallo di fiducia), a parità di livello di fiducia t è sempre maggiore di z, e la differenza fra t e z è tanto più grande quanto più basso è il numero N dei dati (allopposto, per N si ha t z). I valori di t sono reperibili in apposite tabelle, in funzione del livello di fiducia e dei gradi di libertà dellinsieme di dati.

35 VALORI DELLA t di Student t aumenta allaumentare del livello di fiducia t diminuisce allaumentare dei gradi di libertà t = z

36 TEST STATISTICI DI SIGNIFICATIVITA Spesso è necessario stabilire se un dato sperimentale ed un dato teorico o due dati sperimentali differiscano fra di loro in modo significativo, cioè valutare se la differenza osservata sia effetto di un errore di tipo casuale (dovuto al fatto che si stanno confrontando risultati ottenuti su due diversi campioni appartenenti alla stessa popolazione) o di tipo sistematico (dovuto al fatto che si stanno confrontando dati appartenenti a due popolazioni diverse). Esiste una serie di test statistici (globalmente definiti test statistici di significatività) che permettono di stabilire se le differenze osservate sono, ad un certo livello di fiducia, dovute ad errori sistematici. Tutti questi test si basano fondamentalmente sullo stesso principio, ovvero sul calcolo mediante opportune formule di un parametro statistico a partire dai dati sperimentali. Questo parametro verrà poi confrontato con opportuni valori tabulati, allo scopo di stabilire se leventuale discordanza sia statisticamente significativa. Gli esempi riportati in seguito si riferiscono a test statistici a doppia coda, nei quali il segno delleventuale differenza non è importante (esistono anche test ad una coda, per i la differenza è significativa soltanto se ha un segno determinato).

37 TEST T CONFRONTO FRA MEDIA SPERIMENTALE E VALORE VERO Questo test permette di confrontare una media sperimentale con un valore vero. Può essere utilizzato ad esempio per determinare laccuratezza di un metodo analitico attraverso lanalisi di uno standard di riferimento a concentrazione nota. Per effettuare questo test si calcola a partire dai dati sperimentali un valore t sperim dato dalla equazione Che in effetti non è altro che una versione riarrangiata dellespressione che dà il limite di fiducia quando è noto soltanto il valore di s): Questo valore viene poi confrontato con il valore teorico t teor che viene ricavato dalla tabella dei valori del parametro t di Student, per un numero di gradi di libertà pari a (N – 1) ed un determinato livello di fiducia. Se t sperim > t teor si può concludere che, a quel determinato livello di fiducia, la differenza è statisticamente significativa (ovvero dovuta ad un errore determinato). Se invece t sperim < t teor leventuale differenza è, a quel livello di fiducia, non significativa, ovvero dovuta ad errori casuali.

38 Questo test permette di confrontare due medie sperimentali risultanti da diversi esperimenti e trova applicazione, per esempio, nel confronto di due diversi campioni o, se il campione analizzato è lo stesso, di due diverse metodiche analitiche. Il valore t sperim è in questo caso dato dallequazione: dove s g è la deviazione standard raggruppata dellinsieme dei dati, data dalla: Il valore calcolato t sperim viene confrontato con quello teorico t teor, ricavato per un certo livello di fiducia e per N 1 + N 2 -2 gradi di libertà. Come in precedenza, se t sperim > t teor si può concludere che a quel livello di fiducia esiste una differenza statisticamente significativa fra le due medie; in caso contrario, la differenza è dovuta ad un errore di tipo casuale. Lapplicazione di questo tipo di test prevede che le deviazioni standard delle due serie di dati siano simili tra di loro. TEST T CONFRONTO FRA DUE MEDIE SPERIMENTALI

39 TEST T CONFRONTO FRA MEDIE OTTENUTE DA DATI APPAIATI E possibile che le medie da confrontare si riferiscano a dati appaiati, che sono stati raccolti in coppie allo scopo di focalizzare linteresse sulle differenze allinterno di ogni coppia (può essere il caso ad esempio di una serie di analisi effettuate prima e dopo il trattamento in un animale da laboratorio). Oppure la quantità di campione è talmente piccola che ognuno di essi può essere analizzato solo una volta con due differenti metodi analitici. In questo caso il test t deve essere applicato tenendo conto che i dati sono appaiati, e quindi esiste una correlazione fra i valori ottenuti sullo stesso campione. Il valore di t sperim si calcola dallequazione: dove N è il numero delle coppie di dati che sono stati analizzati, d i è la differenza (positiva o negativa) x i(1) – x i(2), allinterno di ogni coppia, è la media delle differenze d i fra le vaie coppo di dati e s d è la deviazione standard delle differenze. Come in precedenza, se t sperim > t teor si può concludere che a quel determinato livello di fiducia esiste una differenza significativa fra le due medie; in caso contrario la differenza non è significativa ed è dovuta ad un errore di tipo casuale.

40 TEST F CONFRONTO DELLA VARIANZA s 2 Il test F viene utilizzato per stabilire se esiste una differenza significativa fra le precisioni di due serie di misure. Ad esempio, può essere utilizzato per stabilire se due metodi analitici hanno una differente precisione, o per assicurarci che le due serie di misure abbiano deviazioni standard simili in modo da poterle confrontare utilizzando il test t. Per questo test si calcola il parametro F, dato da: dove s 1 ed s 2 sono le deviazioni standard delle due serie di dati, assumendo che s 1 > s 2. I valori di F teor sono disponibili in tabelle statistiche in funzione dei gradi di libertà 1 e 2 (possono essere differenti fra di loro poiché il numero di misure può essere diverso per i due metodi) e del livello di fiducia richiesto. Quando F sperim > F teor si conclude che a quel determinato livello di fiducia s 1 ed s 2 sono differenti, mentre quando F sperim < F teor non cè differenza significativa fra s 1 ed s 2.

41 TEST F: TABELLA DEI VALORI CRITICI DI F

42 DETERMINAZIONE DI ERRORI GROSSOLANI Talvolta un dato in una serie di replicati (outlier) può sembrare incompatibile con tutti gli altri, generando il sospetto che sia il risultato di un errore grossolano. Sebbene lo scarto di un dato sperimentale sia una operazione che va effettuata con cautela (soprattutto per piccoli insiemi di dati) il test Q è generalmente riconosciuto come un metodo appropriato per prendere tale decisione. Per eseguire questo test i dati vengono disposti in ordine crescente e si calcola il valore del parametro Q sperim, dove x q è il valore sospetto (il più alto o il più basso dellinsieme di dati) ed x n è il valore ad esso più vicino. Si cerca poi in tabella il valore di Q teor corrispondente al numero di osservazioni considerato ed al livello di fiducia richiesto. Se Q sperim > Q teor il dato in esame dovrebbe essere scartato in quanto, con una probabilità almeno pari al livello di fiducia considerato, non appartiene alla popolazione in esame. Se necessario, loperazione può essere ripetuta per il dato immediatamente precedente, e così via. intervallo

43 NQ 90% Q 95% Q 99% 30,940,980,99 40,760,850,93 50,640,730,82 60,560,640,74 70,510,590,68 80,470,540,63 90,440,510,06 100,410,480,57 DETERMINAZIONE DI ERRORI GROSSOLANI: TABELLA DEI VALORI CRITICI DI Q

44 METODO DEI MINIMI QUADRATI Unoperazione comune in chimica analitica consiste nel ricavare la curva di calibrazione, cioè la relazione fra il segnale misurato durante unanalisi e la concentrazione dellanalita, e da essa ricavare la concentrazione di un campione incognito per interpolazione del segnale misurato. Anche se la forma (equazione) di questa relazione è nota il calcolo dei suoi coefficienti è complicato dalla presenza degli errori indeterminati, che fanno si che i punti sperimentali non si trovino effettivamente sulla curva, ma se ne discostino in maniera casuale. concentrazione segnale concentrazione segnale ? Dal punto di vista matematico lanalisi di regressione applicata attraverso il metodo dei minimi quadrati permette, una volta definita la forma della relazione che lega il segnale (y) alla concentrazione (x), di ottenere i coefficienti della migliore curva che passa attraverso una serie di punti sperimentali (x i, y i ). Caso ideale: nessun errore di misura Caso reale: misure affette da un errore indeterminato

45 ASSUNZIONI DI BASE DEL METODO DEI MINIMI QUADRATI Nel caso più semplice la relazione fra il segnale (y) e la concentrazione (x) è lineare e si può utilizzare unanalisi di regressione lineare. La dipendenza di y da x ha la forma y = mx + b ed è definita una volta che vengono determinati i coefficienti m (pendenza) e b (intercetta) della retta. Per semplicità si assume poi che ogni deviazione dei punti sperimentali dalla retta dipenda da un errore commesso durante la misurazione. In altre parole, lo scostamento dei punti sperimentali dalla retta si ha soltanto lungo la direzione y, mentre ai valori di x non è associato alcun errore. Lo stesso concetto può essere utilizzato anche se la correlazione fra y ed x non è lineare (regressione non lineare). Esistono poi tecniche di regressione più complesse che prevedono errori associati ad entrambi gli assi, oppure assegnano differente importanza ai vari punti in funzione dellentità dellerrore ad essi associato. x y intercetta (b) y/ x = pendenza (m) y x errore solo su y

46 CALCOLO DEI COEFFICIENTI (I) Il calcolo dei coefficienti della retta con il metodo dei minimi quadrati si basa sulla seguente considerazione (ricavabile su base statistica): xixi mx i + b yiyi In termini matematici: dove (x i, y i ) sono le coordinate dei singoli punti, in numero di N, ed ed sono i valori medi delle coordinate x ed y dei punti. la retta migliore che approssima i punti sperimentali è quella per la quale la somma dei quadrati dei residui è minima punto sperimentale corrispondente punto teorico sulla retta di calibrazione residuo Per calcolare i valori di m e b, in primo luogo si definiscono per semplicità le quantità S xx, S yy e S xy

47 CALCOLO DEI COEFFICIENTI (II) La condizione di minimo sulla somma dei quadrati dei residui conduce ai seguenti valori per i coefficienti: ai quali, attraverso il parametro s r (deviazione standard della regressione) possono essere associate le rispettive deviazioni standard sulla pendenza (s m ) e sulla intercetta (s b ): Un ultimo parametro significativo dal punto di vista statistico è il coefficiente di determinazione (R 2 ), che descrive in modo quantitativo leffettiva aderenza dei punti sperimentali alla retta determinata mediante regressione lineare:

48 INTERPOLAZIONE DI UN VALORE DI y Utilizzando i valori così calcolati è possibile tracciare la retta che meglio approssima i dati sperimentali, che passerà nel loro punto medio. E infine possibile ricavare una equazione approssimata che fornisce la deviazione standard di un valore di x (x 0 ) ottenuto per interpolazione sulla retta a partire da un dato valore di y, supponendo che esso rappresenti la media di M replicati: x y E interessante notare che la deviazione standard dei valori di x 0 così ottenuti è minima nella parte centrale della retta: lerrore nel dato interpolato è minimo al centro della retta di calibrazione. y1y1 y3y3 y2y2 x3x3 x1x1 x2x2 s x1 s x2 s x3 Limite inferiore della deviazione standard di x 0 Limite superiore della deviazione standard di x 0

49 IL SIGNIFICATO DEL COEFFICIENTE DI DETERMINAZIONE Il valore del coefficiente di determinazione è compreso nellintervallo 0 – 1: nellipotesi di una dipendenza lineare, per R 2 = 1 y è esattamente proporzionale ad x, mentre per R 2 = 0 y ed x non sono correlati fra di loro. x y R 2 = 1 x 0 < R 2 < 1 x R 2 = 0 Il coefficiente di determinazione è però valido solo nellambito della relazione fra y ed x per la quale è stato definito. Un valore di R 2 elevato non implica necessariamente che la relazione ipotizzata fra y ed x sia quella corretta, mentre un valore basso potrebbe semplicemente significare che y ed x sono legati fra di loro in un altro modo. x y R 2 alto x y R 2 basso

50 ANALISI DEI RESIDUI Informazioni sulla validità della relazione ipotizzata in unanalisi di regressione possono essere ottenute dal grafico dei residui. x y x y x y x x x I residui sono distribuiti in modo omogeneo: la relazione ipotizzata fra y ed x è presumibilmente quella corretta I residui presentano una variazione regolare: la relazione fra y ed x potrebbe essere diversa da quella ipotizzata I residui presentano una ampiezza che dipende da x: potrebbe essere conveniente una regressione pesata

51 TRASFORMAZIONE DELLE VARIABILI Se la dipendenza di y da x non è di tipo lineare, è necessario ricorrere ad un procedura di regressione non lineare. In certi casi è però possibile ricondurre i dati ad una dipendenza lineare effettuando una opportuna trasformazione delle variabili in oggetto: FunzioneTrasformazioneFunzione risultante Esponenziale: y = be mx y = ln(y)y = ln(b) + mx Potenza: y = bx m y = log(y) ed x = log(x)y = log(b) + mx Reciproco: y = b + m(1/x)x = 1/xy = b + mx E però da tenere presente che la regressione lineare effettuata dopo la trasformazione fornisce la migliore stima delle variabili trasformate, non di quelle originali. Sebbene la trasformazione inversa permetta di riottenere le variabili originali, per ottenere un stima di queste variabili sarebbe più corretto utilizzare le procedure di regressione non lineare.


Scaricare ppt "Obiettivi formativi Il corso di Chimica Analitica per le lauree in Tecniche Erboristiche e in Tossicologia dellambiente fornisce allo studente le nozioni."

Presentazioni simili


Annunci Google