variabili aleatorie discrete e continue una variabile aleatoria ( v.a.) e’ una applicazione che associa ad ogni risultato dello spazio degli eventi un numero reale nell’intervallo [0,1] variabili aleatorie discrete e continue una v.a. discreta e’ rappresentata da una tabella che definisce il valore numerico assunto dalla v.a. discreta la probabilita’ associata ad ogni valore numerico assunto dalla v.a. k P(k) 1 1/6 2 3 4 5 6 es. : lancio di un dado un modo grafico di rappresentare una v.a. discreta e’ l’ istogramma in un istogramma si presentano in successivi intervalli ( bins ) le probabilita’ (frequenze relative ) attenzione a non confondere il concetto di “a caso” con l’idea di distribuzione uniforme il lancio di due dadi e’ “a caso”, ma la somma dei risultati ottenuti non e’ distribuita in modo uniforme es. : distribuzione della somma dei risultati nel lancio di due dadi
, e’ il valore numerico assunto dalla v.a. continua X una v.a. continua e’ rappresentata da un funzione continua e derivabile se x , con , e’ il valore numerico assunto dalla v.a. continua X la funzione f(x) che definisce la v.a. X e’ definita di modo che: 0.4 0.3 0.2 0.1 f(x) x 1 -1 2 -2 3 -3 f(x) e’ detta “ densita’ di probabilita ” il grafico della f(x) puo’ essere pensato come un istogramma di binnaggio infinitesimo
Valor medio e Varianza di una v.a. 0.4 0.3 0.2 0.1 f(x) x 1 -1 2 -2 3 -3 per caratterizzare in modo sintetico, ma approssimativo, una v.a. si fa uso di indicatori di centralita’ e di dispersione. f(x)dx i principali indicatori sono il valor medio come indice di centralita’ e la varianza come indice della dispersione intorno al valor medio per v.a. discrete per v.a. continue
v.a. di Poisson (eventi rari) alcune tra le principali distribuzioni discrete sono : v.a. Bernoulliana o binomiale es. 4! = ? valor medio = np varianza = npq v.a. di Poisson (eventi rari) valore medio = m varianza = m
v.a. Uniforme v.a.Gaussiana G(m,s2) alcune tra le principali v.a. continue sono : v.a. Uniforme si parla di v.a. uniforme ( distribuzione casuale ) nell’intervallo [a,b] se la v.a. assume un valore costante in [a,b] f(x) x a b altrove valor medio = varianza = v.a.Gaussiana G(m,s2) valor medio = varianza = per una gaussiana si ha che il 68% della probabilita’ (dell’ area sotto la curva) e’ compresa tra e il 95% della probabilita’ (dell’ area sotto la curva) e’ compresa tra e il 99.7% della probabilita’ (dell’ area sotto la curva) e’ compresa tra e
Gaussiana Standard o Normale N(0,1) 0.4 0.3 0.2 0.1 f(x) x 1 -1 2 -2 3 -3 se e Funzione degli errori la funzione definita come l’area da - ad un generico punto z di una gaussiana standard, e’ detta “funzione degli errori” ( “error function” in inglese, da cui la denominazione erf(z) ) altre importanti densita’ di probabilita’ sono la Chi Quadrato e la t di Student
importanza della gaussiana : teorema del limite centrale Vai all’applet Galton
Statistica nella teoria della probabilita’ si ha a che fare con v. a. che possono assumere un numero discreto o una infinita’, numerabile o meno, di valori, a seconda che si tratti di v.a. discrete o continue negli esperimenti si effettua sempre solo un numero finito di misure, spesso molto limitato oggetto della statistica predittiva e’ di determinare le caratteristiche della popolazione incognita basandosi su una serie finita di misure ripetute l’insieme delle misure effettuate costituisce il campione esempio : determinare la statura degli studenti di Ingegneria misurando le stature dei soli presenti in aula oggi ma esistera’ una statura vera ??? in realta’ esiste una distribuzione di stature caratterizzabile tramite valori medi e varianza, parametri che pero’ sono incogniti e che occorrera’ quindi stimare a partire dalle misure effettuate, ossia a partire dai dati campionari per stimare il valor medio di solito si fa uso in statistica dello “stimatore” media aritmetica
la media aritmetica non e’ l’unico stimatore possibile del valor medio altri stimatori di centralita’ sono la ma con la limitazione che tutti gli x devono essere positivi media geometrica media armonica ma con la limitazione che gli x non devono essere nulli media quadratica in generale la media quadratica e’ sempre maggiore della media aritmetica infine, come indicatori di centralita’ di una distribuzione, si possono usare anche la mediana campionaria (= 50-esimo percentile ) e la moda compionaria ( = valore piu’ probabile)
Errori : di solito vengono effettuate molte misure indipendenti della stessa grandezza, fino a collezionare un numeroso campione di misure ma a causa degli errori di misura il risultato varia sensibilmente da misura a misura si definisce errore = | valore misurato – valore vero | Limiti strumentali cause di errore: Metodi di misura errati Cause accidentali categorizzazione degli errori: misura di un intervallo di tempo usando un orologio che va troppo lento, o troppo veloce. misura della lunghezza di un oggetto non in modo perpendicolare all’oggetto ( errore di parallasse) Sistematici Casuali o “statistici” incertezze dovute a cause accidentali e alla limitatezza del campione di misure gli errori statistici sono riducibili aumentando il numero di misure indipendenti della stessa grandezza aumentando la dimensione del campione .
“ valore vero ” ma , ammesso che esista, quale e’ il per saperlo con certezza si dovrebbe fare una infinita’ di misure ripetute se si ha un numero finito di misure si puo’ solo tentare di “stimarlo” , con il minimo margine di errore possibile si assume come stima del valor vero della grandezza in esame la media aritmetica dei risultati ottenuti nelle varie misure es. : si siano effettuate n misurazioni della stessa grandezza fisica, x1,x2…xn la media aritmetica delle n misure e’ : la media aritmetica stima il valor “vero” m , ma con un certo errore e problema : come stimare l’errore statistico e ?
come indicatore di dispersione di una distribuzione intorno alla sua media si usa la deviazione standard campionaria o “ errore quadratico medio”, in inglese “Root Mean Square” o rms che e’ definito come : commento sull’uso di n o di n-1 una tra le proprieta’ piu’ importanti della media aritmetica e’ che l’errore statistico della media aritmetica stessa e’ dato da:
Intervallo di confidenza si siano effettuate n misurazioni della stessa grandezza fisica, x1, x2… xn la miglior stima del valor medio e’ la media aritmetica ma ripetendo una seconda volta le n misurazioni della stessa grandezza fisica, si otterrebbe un secondo, diverso insieme di risultati: x’1, x’2… x’n la miglior stima del valor medio continuerebbe ad essere la media aritmetica ma essendo gli xi’ diversi dagli xi la media aritmetica sarebbe diversa dunque anche la media aritmetica varia, imprevedibilmente, da campione a campione di misurazioni ossia e’ essa stessa una variabile aleatoria come stima della fluttuazione della media , o errore sulla media, si assume la deviazione standard campionaria nella maggior parte dei casi, ma non sempre, se si stima il valor medio( vero ) come si ha il 68% di probabilita’ di fare una stima esatta
se si stima il valor medio ( vero ) come si ha il 95% di probabilita’ di fare una stima esatta se si stima il valor medio ( vero ) come si ha il 99.7% di probabilita’ di fare una stima esatta
Intervalli di confidenza istogrammando i risultati di misure ripetute, indipendenti tra loro risulta, quasi sempre, che le misure si distribuiscono in modo gaussiano se la distribuzione di una generica variabile aleatoria x segue la forma funzionale gaussiana anche la media aritmetica sara’ distribuita in modo gaussiano e si ha la probabilita’ che il 68% delle misure siano comprese tra e il 95% delle misure siano comprese tra e il 99.7% delle misure siano comprese tra e il valore della percentuale che si desidera, ossia la attendibilita’ della stima del valor vero che si desidera ottenere, e’ detto “livello di confidenza”
Sono state fatte misure ripetute ed indipendenti tra loro di una grandezza fisica, ad es. il peso di un oggetto misurato con una bilancia precisa al per mille vista la precisione della misura e’ piu’ che ragionevole attendersi che i risultati non si riproducano perfettamente e cio’ si giustifica non pensando ad un errore di misura, ma postulando che il fenomeno stesso in esame sia aleatorio ossia che la misura del peso dell’oggetto sia descrivibile in termini di una variabile aleatoria la distribuzione della variabile aleatoria e’ sconosciuta, ma grazie al teorema del limite centrale, molto spesso si puo’ assumere che sia gaussiana in conclusione: una misura sperimentale e’ assimilabile al verificarsi di uno tra i tanti possibili risultati che una v.a. (il piu’ delle volte gaussiana) puo’ assumere supponiamo sia stata preparato un urna riempendola di un numero molto elevato, al limite infinito, di palline con colori diversi in proporzioni diverse allo sperimentatore e’ pero’ sconosciuta la distribuzione dei vari colori delle palline nell’urna si puo’ quindi pensare alla misurazione come al modo di stabilire quale sia la percentuale di palline di un determinato colore contenute nell’urna effettuando una serie limitata di estrazioni di palline dall’urna
il risultato di una singola misura equivale ad effettuare l’estrazione a caso di una singola pallina dall’urna e a verificare quale ne sia il colore compito dello sperimentatore e’ quello di tentare di determinare dopo aver effettuato un certo numero di estrazioni quale sia la proporzione di palline di un determinato colore, ossia di stimare il valor medio della distribuzione sconosciuta cui si da’ il nome di valor vero la statistica predittiva, utilizzando i risultati rigorosi della teoria della probabilita’ e’ in grado di suggerire: quale sia il miglior stimatore possibile del valor medio , o valor “vero”, di solito la media aritmetica, quale sia il margine di errore con cui si puo’ fare la stima in funzione della numerosita’ del campione, del numero di estrazioni in questo caso, ossia di determinare quale sia l’errore sulla media aritmetica di valutare quale sia l’attendibilita’ di questa misura in termini di probabilita’ , ossia quale sia il livello di confidenza della stima
sono state fatte 25 misure ripetute ed indipendenti tra loro di una grandezza fisica, ad es. il peso di un oggetto misurato con una bilancia precisa al per mille 1.72, 1.65, 1.81, 1.72, 1.72, 1.67, 1.71, 1.72, 1.74, 1.70, 1.73, 1.70, 1.76, 1.72, 1.75, 1.71, 1.71, 1.72, 1.69, 1.79, 1.74, 1.73, 1.76, 1.73, 1.71. i risultati , in gm, sono : e’ evidente che la misura non si riproduce perfettamente non avendo altre informazioni a disposizione si dovra’ stimare il valor medio, impropriamente detto valor “vero” della grandezza incognita, usando i dati del campione di misure calcoliamo la media campionaria e l’ errore sulla media se xi e’ la i-esima misura l’errore sulla media vale arrotondando l’errore ad una sola cifra
se il livello di confidenza prescelto e’ il 68 % il risultato della misura e’ : oppure al 95% di livello di confidenza o al 99% di livello di confidenza da notare la relazione tra la precisione e il grado di fiducia, o livello di confidenza : a parita’ di numerosita’ del campione, ossia a parita’ di n, se una cresce l’altra cala nota : se si utilizzasse la convenzione delle cifre significative il risultato ottenuto con il 68% andrebbe presentato come m = 1.724 gm mentre se avessimo operato al 95 e 99 % di livello di confidenza andrebbe presentato come m = 1.72 gm
per costruire un istogramma ordiniamo le misure in ordine crescente 1.65 1.67 1.69 1.7 1.71 1.72 1.73 1.74 1.75 1.76 1.79 1.81 per costruire un istogramma ordiniamo le misure in ordine crescente calcoliamo quale sia la frequenza con la quale si presenta un particolare risultato grafichiamo la frequenza relativa , ossia la frequenza diviso il numero totale di misure la frequenza relativa e’ normalizzata all’unita di modo che l’istogramma rappresenti una distribuzione di probabilita’
istogramma delle frequenze relative Misure Frequenza Frequenza relativa = Frequenza / N tot ( xi ) ( Fi ) ( Fri ) 1.65 1 1.66 1.67 1.68 1.69 1.7 2 1.71 4 1.72 6 1.73 3 1.74 1.75 1.76 1.77 1.78 1.79 1.8 1.81 istogramma delle frequenze relative 0.04 0.08 0.16 0.24 0.12 N tot = S Fi = 25