TEORIA DELLA PROBABILITÁ E DELL’INFERENZA STATISTICA

Slides:



Advertisements
Presentazioni simili
Elementi di calcolo delle probabilità
Advertisements

8) GLI INTERVALLI DI CONFIDENZA
Le distribuzioni di probabilità continue
2. Introduzione alla probabilità
Definizione di probabilità, calcolo combinatorio,
Variabili aleatorie discrete e continue
Intervalli di confidenza
La probabilità.
Matematica I: Calcolo differenziale, Algebra lineare, Probabilità e statistica Giovanni Naldi, Lorenzo Pareschi, Giacomo Aletti Copyright © The.
Corsi Abilitanti Speciali Classe 59A III semestre - 3
1 2. Introduzione alla probabilità Definizioni preliminari: Prova: è un esperimento il cui esito è aleatorio Spazio degli eventi elementari : è linsieme.
LA DISTRIBUZIONE NORMALE
Statistica Descrittiva e Statistica Inferenziale
Inferenza Statistica Le componenti teoriche dell’Inferenza Statistica sono: la teoria dei campioni la teoria della probabilità la teoria della stima dei.
Lez. 3 - Gli Indici di VARIABILITA’
Campione e campionamento
Definizioni di probabilità
Definizioni Chiamiamo esperimento aleatorio ogni fenomeno del mondo reale alle cui manifestazioni può essere associata una situazione di incertezza. Esempi:
CAMPIONE E CAMPIONAMENTO
3. Processi Stocastici Un processo stocastico è una funzione del tempo i cui valori x(t) ad ogni istante di tempo t sono v.a. Notazione: X : insieme di.
Metodi Quantitativi per Economia, Finanza e Management Lezione n°3.
Le Variabili Casuali Corso di Teoria dell’Inferenza Statistica 1
INFERENZA NEL MODELLO DI REGRESSIONE LINEARE MULTIPLA (parte 1)
Corso di biomatematica Lezione 2: Probabilità e distribuzioni di probabilità Davide Grandi.
STATISTICA a.a PARAMETRO t DI STUDENT
LA PROBABILITA’.
Lezione 8 Numerosità del campione
Num / 36 Lezione 9 Numerosità del campione.
Lezione 4 Probabilità.
PROBABILITÀ La probabilità è un giudizio che si assegna ad un evento e che si esprime mediante un numero compreso tra 0 e 1 1 Evento con molta probabilità.
METODI E CONTROLLI STATISTICI DI PROCESSO
La probabilità Schema classico.
STATISTICA PER LA RICERCA SPERIMENTALE E TECNOLOGICA
Calcolo delle Probabilità
Le distribuzioni campionarie
1.PROBABILITÀ A. Federico ENEA; Fondazione Ugo Bordoni Scuola estiva di fonetica forense Soriano al Cimino 17 – 21 settembre 2007.
La distribuzione normale
Unità 2 Distribuzioni di probabilità Misure di localizzazione Misure di variabilità Asimmetria e curtosi.
Errori casuali Si dicono casuali tutti quegli errori che possono avvenire, con la stessa probabilità, sia in difetto che in eccesso. Data questa caratteristica,
1 Università degli studi di Padova Dipartimento di ingegneria elettrica G.Pesavento Coordinamento dell'isolamento Complesso di attività espletate dal progettista.
1 Università degli studi di Padova Dipartimento di ingegneria elettrica G.Pesavento SCARICA IN VUOTO Se la pressione, e quindi la densità, vengono ridotte.
1 Università degli studi di Padova Dipartimento di ingegneria elettrica G.Pesavento Sovratensioni sostenute Le sovratensioni sostenute sono transitori.
STATISTICA PER LA RICERCA SPERIMENTALE E TECNOLOGICA
STATISTICA PER LA RICERCA SPERIMENTALE E TECNOLOGICA
PROBABILITA’.
Cap. 15 Caso, probabilità e variabili casuali Cioè gli ingredienti matematici per fare buona inferenza statistica.
Lezione B.10 Regressione e inferenza: il modello lineare
Corso di Analisi Statistica per le Imprese
IL CAMPIONE.
Calcolo delle probabilità a cura di Maurizio Brizzi
“Teoria e metodi della ricerca sociale e organizzativa”
Intervallo di Confidenza Prof. Ing. Carla Raffaelli A.A:
2) PROBABILITA’ La quantificazione della ‘possibilità’ del verificarsi di un evento casuale E è detta probabilità P(E) Definizione classica: P(E) è il.
La variabile casuale (v.c.) è un modello matematico in grado di interpretare gli esperimenti casuali. Infatti gli eventi elementari  che compongono lo.
Intervalli di confidenza
Distribuzioni di probabilità di uso frequente
PROBABILITÀ Corsi Abilitanti Speciali Classe 59A III semestre - 2.
Eventi aleatori Un evento è aleatorio (casuale) quando non si può prevedere con certezza se avverrà o meno I fenomeni (eventi) aleatori sono studiati.
Elaborazione statistica di dati
TRATTAMENTO STATISTICO DEI DATI ANALITICI
La covarianza.
Operazioni di campionamento CAMPIONAMENTO Tutte le operazioni effettuate per ottenere informazioni sul sito /area da monitorare (a parte quelle di analisi)
In alcuni casi gli esiti di un esperimento possono essere considerati numeri naturali in modo naturale. Esempio: lancio di un dado In atri casi si definisce.
La probabilità matematica
Campionamento procedimento attraverso il quale si estrae, da un insieme di unità (popolazione) costituenti l’oggetto delle studio, un numero ridotto di.
1 DISTRIBUZIONI DI PROBABILITÁ. 2 distribu- zione che permette di calcolare le probabilità degli eventi possibili A tutte le variabili casuali, discrete.
1 VARIABILI CASUALI. 2 definizione Una variabile casuale è una variabile che assume determinati valori in modo casuale (non deterministico). Esempi l’esito.
1 TEORIA DELLA PROBABILITÁ. 2 Cenni storici i primi approcci alla teoria della probabilità sono della metà del XVII secolo (Pascal, Fermat, Bernoulli)
Un evento è un fatto che può accadere o non accadere. Se esso avviene con certezza si dice evento certo, mentre se non può mai accadere si dice evento.
Teoria dei Sistemi di Trasporto Tematica 4: Elementi minimi di teoria della probabilità.
Transcript della presentazione:

TEORIA DELLA PROBABILITÁ E DELL’INFERENZA STATISTICA

CALCOLO DELLE PROBABILITA’ Esperimento casuale: una generica operazione la cui esecuzione, detta prova, è suscettibile di fornire un risultato – compreso in un insieme di risultati necessari ed incompatibili – che non può essere previsto con certezza. Esempio: Lancio di un dado (prova) necessarietà: si presenterà almeno uno dei possibili risultati incompatibilità: si presenterà solo uno dei possibili risultati. Gli esperimenti casuali riguardano quindi tutti i casi in cui bisogna effettuare una previsione in condizioni di incertezza. Nel formulare tali previsioni, si esprime il “grado di incertezza” relativo al presentarsi di un certo risultato con una valutazione numerica che prende il nome di PROBABILITA’.

CONCEZIONI ALTERNATIVE DELLA PROBABILITA’ Impostazione classica: la probabilità del verificarsi di un certo risultato è data dal rapporto tra numero di casi favorevoli al verificarsi di quel risultato ed il numero totale di casi possibili, ammesso che questi possano essere considerati tutti ugualmente possibili. Critica: Non applicabile agli esperimenti i cui risultati non possono ritenersi tutti ugualmente possibili Impostazione frequentista: all’aumentare del numero delle prove (per n) la probabilità del verificarsi di un certo risultato coincide con la frequenza relativa di tale risultato. a condizione che le prove si svolgano tutte nelle medesime condizioni. Critica: Non sempre tutte le prove si svolgono nelle stesse condizioni.

Impostazione soggettiva: la probabilità è l’espressione del grado di fiducia che un individuo ripone nel verificarsi di un certo evento. Critica: Le valutazioni della probabilità possono variare da individuo ad individuo Impostazione assiomatica Concetti primitivi “La prova genera l’evento con una certa probabilità” Prova: esperimento il cui risultato non è prevedibile con certezza Evento: possibile risultato di una prova Probabilita: numero associato al presentarsi di un evento Assiomi: regole formali a cui deve sottostare una valutazione di probabilità. A partire dagli assiomi è possibile costruire tutta la teoria della probabilità.

SPAZIO CAMPIONARIO Insieme dei possibili risultati ottenibili da una prova. Esempi: 1. Lancio di una moneta: 2. Lancio di un dado: 3. Numero di minuti in cui una lampadina resta accesa prima di bruciarsi: N.B. Nei primi due esempi S ha cardinalità finita, nel terzo esempio S ha cardinalità nel continuo.

Si realizza il risultato della prova appartenente ad A. EVENTO Un qualunque sottoinsieme dello spazio campionario S. Si realizza il risultato della prova appartenente ad A. Tipi di Eventi (es: lancio di un dado): Eventi Elementari Eventi Composti Evento Certo Evento Impossibile Esempio: sottoinsiemi dell’evento “durata di una lampadina”

OPERAZIONI SUGLI EVENTI Unione o Somma Logica fra due eventi A e B è quell'evento C che si verifica quando si verifica A oppure B oppure A e B contemporaneamente: B A S Intersezione o Prodotto Logico fra due eventi A e B è quell'evento D che si verifica quando si verificano sia A che B contemporaneamente: B A S

Complementazione o Negazione di un evento A è quell'evento E che si verifica allorquando A non si verifica: S Esempio: lancio di un dado Eventi Incompatibili: non contengono elementi comuni e quindi la loro intersezione da luogo all’evento impossibile.

In pratica, il verificarsi dell’uno implica il non verificarsi dell’altro in una prova. Rappresentazioni Grafiche Eventi Compatibili S A B S A B Unione Intersezione Eventi Incompatibili S S A B A B Unione Intersezione

SPAZIO DEGLI EVENTI (Z) Una classe di eventi ai quali si vuole assegnare una probabilità. Questa classe deve essere un'algebra, ovvero deve contenere lo spazio campionario S e  come elementi Quando S è costituito da un numero finito k di elementi, lo spazio degli eventi può essere rappresentato dall'insieme di tutti i possibili sottoinsiemi di S ed ha cardinalità 2k. Esempio: lancio di un dado k = 6

In alcuni casi interessano solo alcuni eventi di un esperimento. Esempio: Costruire lo spazio degli eventi relativo all’alternativa tra punteggio pari e punteggio dispari nel lancio di un dado. ASSIOMI P(·): funzione di probabilità Le impostazioni classica e frequentista soddisfano gli assiomi. Solitamente, nel misurare la probabilità si fa sempre riferimento alla definizione classica. L’assioma iii) permette di definire una misura della probabilità per tutti gli eventi (elementari e composti) inclusi nello spazio degli eventi Z.

Teorema delle Probabilità Totali Generalizzazione al caso di 3 eventi TEOREMI 1) 2) 3) Teorema delle Probabilità Totali A B S Generalizzazione al caso di 3 eventi A B C S

PROBABILITA’ DI EVENTI SUBORDINATI. INDIPENDENZA STOCASTICA Tra 2 eventi A e B può sussistere una relazione per la quale, sapendo che una prova ha generato un risultato che appartiene a B, si è indotti a modificare la valutazione del verificarsi di A. Esempio: probabilità che una certa squadra vince una partita dopo che alla fine del primo tempo è in svantaggio di 3 reti a zero. PROBABILITA’ SUBORDINATA La probabilità dell'evento B, dato che si è verificato l'evento A, è il rapporto fra la probabilità del contemporaneo verificarsi di A e B e la probabilità di A, se questa è diversa da zero:

Teorema delle Probabilità Composte Dati 2 eventi A e B per i quali P(A)>0 e P(B)>0, se i due eventi sono stocasticamente dipendenti risulta: si verifica B B nuovo S la probabilità subordinata è data dall’area dell’intersezione rispetto all’area di B B A S Se risulta: allora A e B sono stocasticamente indipendenti. In questo caso:

1) Calcolare la probabilità che un pneumatico scelto a caso: Problema La produzione di pneumatici in una fabbrica avviene in tre turni: il 50% di giorno – il 30% di sera – il 20% di notte. Il controllo della conformità dei pneumatici prodotti si basa su un campione di 200 pezzi, ripartiti secondo le proporzioni dei 3 turni di produzione, che ha rivelato ciò che segue: TURNO DI PRODUZIONE ESITO Giorno Sera Notte totale Conformità 97 54 33 184 Non conformità 3 6 7 16 100 60 40 200 1) Calcolare la probabilità che un pneumatico scelto a caso: a) sia difettoso; b) sia difettoso e prodotto in ciascuno dei 3 turni; c) sia difettoso essendo stato prodotto in ciascuno dei 3 turni; d) essendo difettoso sia stato prodotto in ciascuno dei 3 turni. 2) È lecito sostenere che la qualità del prodotto è influenzata dal turno di produzione?

Le probabilità cercate possono essere ottenute dalla tabella delle frequenze relative: TURNO DI PRODUZIONE ESITO Giorno (G) Sera (S) Notte (N) totale Conformità (C) 0,485 0,27 0,165 0,92 Non conformità (D) 0,015 0,03 0,035 0,08 0,5 0,3 0,2 1 a) P(D) = 0,08 b) b.1 P(D  G) = 0,015 b.2 P(D  S) = 0,03 b.3 P(D  N) = 0,035 c) c.1 P(D|G) = c.2 P(D|S) = c.3 P(D|N) =

P(D|G) = P(D|S) = P(D|N) = P(D) d) d.1 P(G|D) = d.2 P(S|D) = d.3 P(N|D) = 2) Se la qualità del prodotto non fosse influenzata dal turno di produzione, si dovrebbe avere: P(D|G) = P(D|S) = P(D|N) = P(D) ma evidentemente così non è.

INTRODUZIONE ALL’INFERENZA STATISTICA 1) PRINCIPALI DISTRIBUZIONI DI PROBABILITA’ Binomiale, Poisson Normale o Gaussiana Chi – quadrato t di Student F di Fisher-Snedecor 2) UNIVERSO E CAMPIONE Campionamento non probabilistico Campionamento probabilistico 3) DISTRIBUZIONI CAMPIONARIE E PROPRIETA’ DEGLI STIMATORI 4) METODI DI STIMA PUNTUALE ED INTERVALLARE 5) TEST PER LA VERIFICA DI IPOTESI

VARIABILE CASUALE Una Variabile Casuale X è una regola (funzione reale) che associa ad E (evento elementare di S) uno ed un solo numero reale. Notazione: X: variabile casuale x: realizzazione di una variabile casuale N.B.: la precedente corrispondenza è UNIVOCA. E’ possibile associare una misura di probabilità allo spazio numerico della v.c. utilizzando la misura di probabilità definita sui sottoinsiemi dello spazio campionario S. "Si verifica l'evento E con probabilità P(E)“  "La v.c. X assume il valore x con probabilità P(x)"

Una v.c. X è una variabile che assume valori nello spazio dei numeri reali secondo una funzione di probabilità P(X). E 1 X(E) P[X(E)] Â Rappresentazione grafica dello schema di costruzione di una v.c. discreta S 1 E 6 5 2 4 3 S x R p Una Variabile Casuale è nota se è nota la sua distribuzione di probabilità

1 P = ESEMPI 1. Consideriamo una famiglia con 3 figli E1 E2 E3 E4 E5 E6 E7 E8 S={MMM, MMF, MFM, FMM, MFF, FMF, FFM, FFF} P = 1/8 1/8 1/8 1/8 1/8 1/8 1/8 1/8 Variabile casuale X=“numero dei figli maschi” 1/8 3 3/8 2 1 pi X 1

VARIABILI CASUALI DISCRETE Assumono valori discreti (solitamente sono ottenute come risultato di un conteggio). Per ogni realizzazione xi risulta: x1 x2 x3 xi pi pi = p(xi) = probabilità che X assuma il valore xi

xi pi 0 1/4 1 2/4 2 1/4 Esempio: si lanciano simultaneamente 2 monete. Eventi elementari di S: E1=TT E2=TC E3=CT E4=CC Variabile casuale “X=numero di croci” Ei TT TC CT CC xi 0 1 1 2 pi 1/4 1/4 1/4 1/4 Ad ogni xi associamo una probabilità pari alla somma delle probabilità degli eventi corrispondenti. xi pi 0 1/4 1 2/4 2 1/4 Le xi sono le realizzazione della v.c., mentre le pi identificano la distribuzione di probabilità della v.c. in questione

VARIABILI CASUALI CONTINUE Ammettono infiniti valori, quindi non è possibile attribuire le singole probabilità ad ogni realizzazione xi. Si associa ad ogni intervallo una funzione f(x) detta funzione di densità di probabilità. N.B.: f(x) NON è la probabilità che X assuma il valore x! f(x) x f(x) è la probabilità che X sia compresa in un intervallo infinitesimale intorno dx ad x .

La funzione di densità f(x) è nulla per quei valori compresi in intervalli esterni al campo di definizione Condizione necessaria affinché una funzione di densità f(x) individui una v.c. X continua è : N.B.:

FUNZIONE DI RIPARTIZIONE Ordinando le realizzazioni della v.c.: v.c. discrete v.c. continue Proprietà: 1) è non decrescente 2) 3)

1/6 6 5 4 3 2 1 P(x) X pi xi 2 4 6 1/6 1 5 3 v.c. discrete X: “Punteggio ottenuto nel lancio di un dado” 1/6 6 5 4 3 2 1 P(x) X 2 4 6 1/6 1 pi xi 5 3 1 1/6 2 3 4 x 2/6 3/6 4/6 5/6 5 6 F(x)

v.c. continue x x x 1 ) ( x F 1 x Relazione importante: 

MODELLI PER VARIABILI CASUALI DISCRETE Variabile Casuale di Bernoulli Regola i casi riconducibili ad una prova che si può concludere con 2 possibili risultati: SUCCESSO INSUCCESSO p = probabilità di successo Esempi: lancio di una moneta, Espressione di un voto referendario, Lancio di un dado (pari-dispari)

Distribuzione di probabilità Media e varianza N.B.: la varianza è massima se p = 0,5

a) qual e’ la probabilità di avere meno di 3 pezzi difettosi? Problema Una macchina di precisione produce pezzi di ricambio per macchine agricole con una percentuale pari al 10% di pezzi difettosi. Su una produzione oraria di 5 pezzi, si richiede: a) qual e’ la probabilità di avere meno di 3 pezzi difettosi? b) qual e’ la probabilità di avere tra 2 e 4 pezzi difettosi? c) qual e’ la probabilità di avere al più 2 pezzi difettosi? d) qual e’ la probabilità di avere almeno 4 pezzi difettosi? disegnare la funzione di probabilità e di ripartizione della v.c. che descrive i risultati dell’esperimento calcolare la media e la varianza della distribuzione.

Variabile Casuale Binomiale Regola la probabilità in tutti i casi riconducibili ad una estrazione con reimmissione di n palline da un’urna. p(x) = probabilità di x successi in n prove In ognuna delle n prove p è la probabilità di successo ed è costante. p(0) = p(X = 0) = Probabilità che in n prove non si verifichi alcun successo Probabilità che in n prove si verifichi 1 successo p(1) = p(X = 1) = Probabilità che in n prove si verifichino n successi p(n) = p(X = n) =

Quanti sono i modi di combinarsi di una specifica sequenza? n = numero di prove Quindi: x = numero di successi in n prove n – x = numero di insuccessi in n prove La funzione di probabilità deve tener conto di tutte le possibili sequenze di successi ed insuccessi (principio della probabilità totale per eventi incompatibili). Numero di possibili sequenze di successi ed insuccessi (corrispondente al numero di elementi dello spazio degli eventi) Quanti sono i modi di combinarsi di una specifica sequenza? n elementi presi x ad x Qual è la probabilità di ognuna delle sequenze?

La funzione di probabilità della v.c. binomiale è quindi: Media Varianza

La variabile casuale “numero di pezzi difettosi (successo) su 5 pezzi prodotti (prove)” segue la distribuzione Binomiale, con parametri n = 5 e p = 0,1 (10%)  = np = 5  0,1 = 0,5 quindi: 2 = np(1-p) = 5  0,1  0,9 = 0,45 Le probabilità elementari possono essere determinate per mezzo della funzione: con

P(X < 3) = P(0) + P(1) + P(2) = Dati n = 5 e p = 0,1, la v.c. X = “numero di pezzi difettosi su 5 prodotti” è definita come segue: x f(x) F(x) 0,59049 1 0,32805 0,91854 2 0,07290 0,99144 3 0,00810 0,99954 4 0,00045 0,99999 5 0,00001 Totale a) P(X < 3) = P(0) + P(1) + P(2) = = 0,59049 + 0,32805 + 0,0729 = 0,99144 b) P(2  X  4) = P(2) + P(3) + P(4) = = 0,0729 + 0,0081 + 0,00045 = 0,08145 c) P(X  2) = P(0) + P(1) + P(2) = d) P(X  4) = P(4) + P(5) = = 0,00045 + 0,00001 = 0,00046

Variabile Casuale di Poisson

dove rispettivamente rappresentano il valor medio e la varianza di X; LA VC NORMALE O GAUSSIANA Una vc si dice normale o gaussiana (da Gauss che la propose come modello descrittivo degli errori di misura) se la sua fd è la seguente: dove rispettivamente rappresentano il valor medio e la varianza di X; è una vc continua; (base dei logaritmi neperiani) sono note costanti matematiche.

La sua rappresentazione grafica è la seguente: ed ovviamente la probabilità dell’evento certo sarà data da Oltre ai due valori caratteristici appena esaminati se ne possono definire altri; tra essi una certa importanza ha la media quadratica:

È facile dimostrare che: Per la dimostrazione basta svolgere il quadrato dell’altra formulazione di , semplificare ed ottenere la seconda formulazione che è di maggiore praticità a fini computazionali.

Lo studio analitico della funzione evidenzia: 1) la curva è simmetrica rispetto all’ordinata del punto di massimo; 2) quest’ultimo si trova in corrispondenza del valore ; segue che la mediana (MED , valore che divide una distribuzione di frequenze in due parti esattamente uguali) e la moda (MOD , valore cui corrisponde il massimo valore di una distribuzione di frequenze) coincidono, nella normale, con la media aritmetica; 3) la curva è definita tra meno infinito e più infinito; 4) La curva presenta due punti di flesso (cambiamento di concavità) in corrispondenza con i valori

L’assetto grafico della curva è determinato dai parametri µ e σ , il primo determina il posizionamento della curva sull’asse delle ascisse; per questo µ si definisce come un parametro di posizione. Il secondo, essendo una misura di variabilità con riferimento alla media, mostra quanto siano più o meno dispersi i valori della distribuzione intorno al valore medio. Allora, bassi valori di σ indicano valori della distribuzione (probabilità) poco dispersi o anche, come si dice, molto concentrati, intorno a µ , al contrario alti valori di σ indicano valori della distribuzione molto dispersi rispetto alla media. Pertanto il parametro σ è detto parametro di forma della distribuzione.

Se una vc ha una distribuzione normale la probabilità che x assuma un certo valore in un certo intervallo, poniamo a-b, si ottiene da: che in termini grafici altro non è se non la superficie delimitata a sinistra dall’ordinata nel punto a, a destra dall’ordinata del punto b, inferiormente dall’asse delle ascisse e superiormente dalla curva normale tra a e b. Ovviamente, la probabilità dell’evento certo, cioè

da cui si ha anche che: Esempio, se una vc normale ha media pari a 3,6 e varianza pari a 81, la probabilità che x sia compreso tra -4,2 e 7,5 si ha risolvendo l’integrale

Per fortuna esiste la possibilità di operare in modo estremamente più semplice, ma a tale fine occorre definire una particolare vc normale, detta vc normale standardizzata, la cui caratteristica è quella di avere media pari a zero e varianza unitaria, cioè: Si può dimostrare che data una normale si può sempre passare ad una semplicemente trasformando le x in z con la relazione

Siccome per la normale standardizzata esistono tavole che contengono la determinazione degli integrali coinvolti con il calcolo di allora basta passare da X a Z, risolvere il nostro problema su Z ed averlo risolto per X senza dover calcolare alcun integrale. Tutto questo sarà molto più chiaro con alcuni esempi numerici; prima vediamo più da vicino come sono costruite le tavole per la normale standardizzata.

In primo luogo: la tabulazione avviene solo per la parte positiva della distribuzione, dal momento che essendo la media della standardizzata uguale a zero basta avere per avere Poi, le tavole forniscono l’area sotto la normale standardizzata secondo il seguente schema:

L’immissione rappresenta l’area sottostante la distribuzione standardizzata dalla media aritmetica a Z Z .00 .01 .02 .03 .04 .05 .06 .07 .08 .09 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 2.0 2.1 2.2 2.3 2.4 2.5 2.6 2.7 2.8 2.9 3.0 3.1 3.2 3.3 3.4 3.5 3.6 3.7 3.8 3.9 .0000 .0040 .0080 .0120 .0160 .0199 .0239 .0279 .0319 .0359 .0398 .0438 .0478 .0517 .0557 .0596 .0636 .0675 .0714 .0753 .0793 .0832 .0871 .0910 .0948 .0987 .1026 .1064 .1103 .1141 .1179 .1217 .1255 .1293 .1331 .1368 .1406 .1443 .1480 .1517 .1554 .1591 .1628 .1664 .1700 .1736 .1772 .1808 .1844 .1879 .1915 .1950 .1985 .2019 .2054 .2088 .2123 .2157 .2190 .2224 .2257 .2291 .2324 .2357 .2389 .2422 .2454 .2486 .2518 .2549 .2580 .2612 .2642 .2673 .2704 .2734 .2764 .2794 .2823 .2852 .2881 .2910 .2939 .2967 .2995 .3023 .3051 .3078 .3106 .3133 .3159 .3186 .3212 .3238 .3264 .3289 .3315 .3340 .3365 .3389 .3413 .3438 .3461 .3485 .3508 .3531 .3554 .3577 .3599 .3621 .3643 .3665 .3686 .3708 .3729 .3749 .3770 .3790 .3810 .3830 .3849 .3869 .3888 .3907 .3925 .3944 .3962 .3980 .3997 .4015 .4032 .4049 .4066 .4082 .4099 .4115 .4131 .4147 .4162 .4177 .4192 .4207 .4222 .4236 .4251 .4265 .4279 .4292 .4306 .4319 .4332 .4345 .4357 .4370 .4382 .4394 .4406 .4418 .4429 .4441 .4452 .4463 .4474 .4484 .4495 .4505 .4515 .4525 .4535 .4545 .4554 .4564 .4573 .4582 .4591 .4599 .4608 .4616 .4625 .4633 .4641 .4649 .4656 .4664 .4671 .4678 .4686 .4693 .4699 .4706 .4713 .4719 .4726 .4732 .4738 .4744 .4750 .4756 .4761 .4767 .4772 .4778 .4783 .4788 .4793 .4798 .4803 .4808 .4812 .4817 .4821 .4826 .4830 .4834 .4838 .4842 .4846 .4850 .4854 .4857 .4861 .4864 .4868 .4871 .4875 .4878 .4881 .4884 .4887 .4890 .4893 .4896 .4898 .4901 .4904 .4906 .4909 .4911 .4913 .4916 .4918 .4920 .4922 .4925 .4927 .4929 .4931 .4932 .4934 .4936 .4938 .4940 .4941 .4943 .4945 .4946 .4948 .4949 .4951 .4952 .4953 .4955 .4956 .4957 .4959 .4960 .4961 .4962 .4963 .4964 .4965 .4966 .4967 .4968 .4969 .4970 .4971 .4972 .4973 .4974 .4974 .4975 .4976 .4977 .4977 .4978 .4979 .4979 .4980 .4981 .4981 .4982 .4982 .4983 .4984 .4984 .4985 .4985 .4986 .4986 .49865 .49869 .49874 .49878 .49882 .49886 .49889 .49893 .49897 .49900 .49903 .49906 .49910 .49913 .49916 .49918 .49921 .49924 .49926 .49929 .49931 .49934 .49936 .49938 .49940 .49942 .49944 .49946 .49948 .49950 .49952 .49953 .49955 .49957 .49958 .49960 .49961 .49962 .49964 .49965 .49966 .49968 .49969 .49970 .49971 .49972 .49973 .49974 .49975 .49976 .49977 .49978 .49978 .49979 .49980 .49981 .49981 .49982 .49983 .49983 .49984 .49985 .49985 .49986 .49986 .49987 .49987 .49988 .49988 .49989 .49989 .49990 .49990 .49990 .49991 .49991 .49992 .49992 .49992 .49992 .49993 .49993 .49993 .49994 .49994 .49994 .49994 .49995 .49995 .49995 .49995 .49995 .49996 .49996 .49996 .49996 .49996 .49997 .49997 .49997

Allora se z = 0.22 la superficie al di sotto della standardizzata (tra 0 e z) è pari a 0.0871, cioè è circa il 9% dell’intera distribuzione, se invece è pari a 0.30 la superficie è 0.1179, cioè circa il 12% della distribuzione, e così via. Le tavole della normale standardizzata sono riportate in appendice ad ogni testo di statistica. Vediamo allora un po’ di esempi numerici e la soluzione di alcuni problemi. Esempi: Si calcoli usando la tavola della normale standardizzata la probabilità che:

Data la simmetria su 0 della distribuzione, basta moltiplicare per 2 il valore che si trova sulla tavola in corrispondenza di 0.96, cioè 0.4750. Questo valore indica la probabilità tra 0 e 1.96, quindi 0.4750 x 2 = 0.95 dice che la probabilità richiesta, in termini percentuali, è il 95%. Si calcoli ora la probabilità che in una normale con media pari a 10 e varianza pari a 4, X assuma un valore compreso tra 8 e 12. Per usare la standardizzata si devono determinare su quest’ultima distribuzione quei valori che corrispondono a 8 e a 12;

essi sono: Allora dalle tavole della normale standardizzata: e pertanto la probabilità richiesta per X è approssimativamente del 68%.

Sia X una vc normale con media 16000 e scarto quadratico medio pari a 2000. Calcolare la probabilità che X sia compreso tra 15000 e 18000. Allora: allora la probabilità richiesta per X è di circa il 53%.

MODELLI PER VARIABILI CASUALI CONTINUE Variabile Casuale Normale E’ funzione di due parametri -  + Se o f(x) è simmetrica rispetto a Media e varianza

V.C. Normale Standardizzata Relazione tra e

Dalle tavole: z1 z2 z

Problema Un meteorologo ritiene che la probabilità che a Napoli piova durante un giorno del mese di dicembre è uguale a 0,2. a) Calcolare il numero di giorni di pioggia previsti dal meteorologo durante tutto il mese. b) Determinare inoltre la probabilità che nel mese di dicembre vi siano al massimo 3 giorni di pioggia. n = 30; p = 0,2 B (30, 0,2) Soluzione a) La previsione può essere fatta in termini di valore atteso, ossia: E(X) = n  p = 31  0,2 = 6,2. b) Essendo n sufficientemente elevato, le probabilità cercate possono essere approssimate dalla distribuzione Normale standardizzata:

Distribuzione CHI-QUADRATO (c2n). Distribuzione t di Student ( tn) DISTRIBUZIONI DI PROBABILITA’ “SPECIALI” DERIVATE DALLA NORMALE STANDARDIZZATA Distribuzione CHI-QUADRATO (c2n). La somma dei quadrati di n variabili casuali indipendenti Normali standardizzate si distribuisce come una v.c. c2 con n gradi di libertà (g.l.). Al crescere di n la c2 tende alla distribuzione Normale. Distribuzione t di Student ( tn) Sia X una v.c. Normale standardizzata e sia Z una v.c. c2n indipendente da X. Il rapporto: si distribuisce come una v.c. t di Student con n gradi di libertà (t n ) . La tn è simile alla Normale ma ha code più alte. Al crescere di n la t tende alla Normale

Distribuzione F di Fisher ( F n1,n2 ) Siano Z1 e Z2 due v.c. indipendenti c2 con n1 e n2 rispettivi g.l.; Il rapporto : Si distribuisce come una v.c. F di Fisher-Snedecor con n1 e n2 g.l.

TEOREMA DI BAYES Per introdurre il problema si partirà da un esempio. Si abbiano due urne: la prima, U1, contenente 4 palline bianche e 6 nere, la seconda, U2, contenente 3 palline bianche e 5 nere.. Si estragga a sorte un' urna e si estragga poi dall’urna prescelta una pallina. Ammesso che la pallina estratta sia di colore bianco, ci si chiede: qual è la probabilità che essa provenga dall'urna U1 se la probabilità di selezionare ciascuna delle due urne è 0,50?

Si noti la particolarità del problema: finora le probabilità degli eventi sono state sempre determinate prima dell'esecuzione dell'esperimento; qui la situazione è, in un certo senso, opposta: si conosce il risulta­to dell'esperimento e si vuole calcolare la probabilità che esso sia dovuto ad una certa "causa", nell'esempio che la pallina provenga dall'urna U1.

Simili problemi si presentano ogni volta che un evento A può essere visto come risultato ("effetto") di uno tra k possibili eventi ("cause"), C1, C2, .... Ck, incompatibili e tali che uno di essi si deve verificare, e inte­ressa valutare la probabilità che, avveratosi A, sia Ci la causa che l'ha prodotto. Conviene perciò introdurre una formula generale che consenta il calcolo della probabilità in questione.

A questo fine si considerino innanzitutto gli eventi incompatibili C1, C2, .... Ck, e si ammetta che essi costituiscano una partizione dello spazio campionario Ω, ossia che Ω= C1 C2 .... Ck Allora l’evento A può essere espresso nel modo seguente A = A Ω =A ( C1 C2 .... Ck) = (A C1 ) (A C2 ).... (A Ck)

(1.7) P(B/A) = (1.8) P(A B)=P(A)-P(B/A) Si osservi che l'evento A è espresso come unione degli eventi incompatibili A Ci i = 1,2,. , n ; ne segue, per il terzo assioma della probabi­lità, che P(A)=P(A C1)+P(A C2)+...+P(A Ck). Dalla (1.7) si ottiene P(Ci | A)=

Applicando la (1.8) ad ogni elemento al secondo membro dell'equazione precedente, si può anche scrivere P(A) = P(C1)P(A|C1)+ P(C2)P(A|C2)+ ... + P(Ck)F(A| Ck) (1.10) Il problema è ora quello di calcolare la probabilità condizionata P(C1|A). che, considerando la (1.8) e la (1.10), può essere posta nella forma P(C1|A)= (1.11)

La formula (1.11) va sotto il nome di formula di Bayes (dal nome dell'ecclesiastico Thomas Bayes, 1702-1761, che la introdusse). È opportuno ribadire che P(C1|A) è la probabilità che l'evento A, già realizzatosi, sia dovuto alla causa Ci ; tale probabilità è nota come probabilità a posterio­ri, mentre P(Ci) è chiamata probabilità a priori della causa C1.

Esempio1 Si riprenda l'esempio introduttivo Esempio1 Si riprenda l'esempio introduttivo. Dunque, ammesso che la pallina estratta sia bianca, si vuole calcolare la probabilità che essa provenga dal­l’urna U1. Se si indica con A l'evento in oggetto, con C1 l'urna U1 e con C2 l'urna U2, la probabilità cercata è data da P(C1|A) =

Esempio2 È noto che in una data popolazione la percentuale dei fumatori è pari al 35%. Si sa anche che il 20% dei fumatori ed il 6% dei non fumatori sono affetti da una malattia respiratoria cronica. Si vuole determinare la probabilità che un indivi­duo affetto dalla malattia sia fumatore. Definiti gli eventi: F: "fumatore",: "non fumatore", M: "malato", le informazioni disponibili consentono di scrivere P(F) =0,35; P ( ) = 0,65; P(M| F) =0,20; P(M | )= 0,06.

PARTIZIONI E TEOREMA DI BAYES Pertanto PARTIZIONI E TEOREMA DI BAYES

PARTIZIONI E TEOREMA DI BAYES Supponiamo che gli eventi A1, A2, PARTIZIONI E TEOREMA DI BAYES Supponiamo che gli eventi A1, A2, . .. , An formino una partizione di uno spazio campionario S; e cioè, che gli eventi Ai siano incompatibili e la loro unione sia S. Ora, sia B un qualsiasi altro evento. Allora B = S B = (A1 A2... An) B = (A1 B) (A2 B) ... (An B) dove gli AiB sono incompatibili.

Di conseguenza, P(B) = P(A1 B) + P(A2 B) + Di conseguenza, P(B) = P(A1 B) + P(A2 B) +...+ P(An B) Quindi, per il teorema di moltiplicazione, P(B)= P(A1)P(B|A1)+ P(A2)P(B|A2)+...+ P(An)P(B|An) (1) D'altra parte, per ogni valore di i, la probabilità condizionata di Ai dato B è definita da P(Ai|B) =

Impiegando la (1) per sostituire P(B) e impiegando P(Ai B) = P(Ai)P(B| Ai) per sostituire P(Ai B), otteniamo da questa equazione il seguente teorema. Teorema di Bayes : Supponiamo che A1, A2,... , An, sia una partizione di S e che B sia un evento qualsiasi. Allora per ogni valore di i, P(Ai|B) =

Esempio3: Tre macchine A, B e C producono rispettivamente il 50%, il 30% e il 20% del numero to­tale dei pezzi prodotti da una fabbrica. Le percentuali di pezzi difettosi di queste macchine sono , rispettivamente, il 3%, il 4% e il 5%. Viene estratto un pezzo a caso: determinare la probabilità che esso sia difettoso.

Sia X l'evento “un pezzo è difettoso" Sia X l'evento “un pezzo è difettoso". Allora per la (1) precedente P(X) = P(A)P(X|A)+P(B)P(X|B)+P(C)P(X|C)=(.50)(.03)+(.30)(.04)+(.20)(.05)= .037 Si noti che si può anche considerare questo problema come un processo stocastico rappresentato dal diagram­ma ad albero adiacente.

Esempio4 : Si consideri la fabbrica dell'esempio precedente Esempio4 : Si consideri la fabbrica dell'esempio precedente. Supponiamo che si estragga un pezzo a caso e che esso sia difettoso. Si determini la probabilità che quel pezzo sia stato prodotto dalla macchina A; ossia, si determini P(A| X). Per il teorema di Bayes, P(A|X) = In altri termini, dividiamo la probabilità del cammino in questione per la probabilità dello spazio campionario ridotto, ossia di quei cammini che conducono ad un elemento difettoso.

ESERCIZI SUL TEOREMA DI BAYES Determinare P(B|A) se (i) A è un sottoinsieme B, (ii) A e B sono incompatibili. (i) Se A è un sottoinsieme di B, allora ogniqualvolta si verifica A deve verificarsi B ; quindi P(B|A)=1 Alternativamente, se A è un sottoinsieme di B, allora AB = A; quindi P(B|A)=

Se A e B sono incompatibili, e cioè disgiunti, allora ogniqualvolta si verifica A non può verificarsi B; quindi P(B |A) = 0. Alternativamente, se A e B sono incompatibili, allora A B =Ø quindi P(B/A)= P(A B) / P(A) = P(Ø) / P(A) = 0 / P(A) = 0

·       Tre macchine, A, B e C, producono rispettivamente il 60%, il 30% e il 10% del numero totale dei pezzi prodotti da una fabbrica. Le percentuali di produzione difettosa di que­ste macchine sono rispettivamente del 2%, 3% e 4%. Viene estratto a caso un pezzo che risulta difettoso. Determinare la probabilità che questo pezzo sia stato prodotto dalla macchina C. Sia X= {pezzi difettosi}. Vogliamo determinare P(C|X), la probabilità che un pezzo sia stato prodotto dalla macchina C se si sa che quel pezzo è difettoso. Per il teorema di Bayes,

ESERCIZIO . Una scatola contiene tre monete, delle quali due non sono truccate mentre l'altra ha due teste. Scegliendo casualmente una delle tre monete e lanciandola, (a) qual è la probabilità che risulti testa? (b) qual è la probabilità di aver scelto la moneta truccata sapendo che il risultato del lancio è testa? Soluzione: Indichiamo con T e C, rispettivamente, gli eventi “uscita di testa" e "uscita di croce", con M1 e M2 la scelta della prima e seconda moneta; entrambe non truccate, e con M3 la scelta della moneta truccata.  

Per il quesito (a) si ha P(T) = P[(TM1)+(TM2)+(TM3)] = P(TM1)+P(TM2)+P(TM3)] = P(T|M1 )P(M1 )+P(T|M2)P(M2)+P(T|M3 )P(M3)= = Per il quesito (b) si ha (teorema di Bayes) P(M3|T)=

Teorema di Tchebycheff Finora si sono considerate media, varianza e deviazione standard di un esperimento in modo separato per ana1izzare alcune caratteristiche di una v.c. e della sua distribuzione di probabilità. Si consideri ora un’utilizzazione congiunta di questi indici al fine di fornire informazioni circa il modo in cui le probabilità si addensano in intervalli centrati sulla media e di ampiezza proporzionale alla deviazione standard della variabile. Intuitivamente si può pensare che a valori bassi della deviazione standard corrisponda una massa di probabilità molto concentrata intorno alla media, mentre a valori elevati della deviazione standard la probabilità sia più diffusa attorno alla media. Si cercherà di quantificare tale idea intuitiva.

Esempio Si consideri la variabile X= numero di teste uscite dal lancio di 5 monete. μ=E[X]=2,5, Σ ( X – μ)2f(x) = 40/32 , σ2=Var(X)=1,25 , σ=1,12 Nella figura 3.20 è rappresentata la distribuzione di probabilità della v.c X unitamente alla probabilità compresa negli intervalli μ±σ e μ±2σ Teorema: Se la v.c. X ha media finita μ e deviazione standard finita σ, e k è un numero positivo qualunque, allora la massa di probabilità che si trova al di fuori dell’intervallo chiuso [( μ- kσ) ,( μ + kσ)] è inferiore a 1/k2. In simboli: o, equivalentemente, la probabilità sull’intervallo complemento è superiore a (1- 1/k2 ),cioè:

Infatti, si supponga che la variabile casuale X abbia media μ e deviazione standard σ. Tra tutti i valori possibili di X si scelgano quelli che distano da μ in valore assoluto, più della quantità kσ , dove k è un numero reale positivo. I valori di X vengono cosi di­visi in due sottoinsiemi: i valori compresi nell’intervallo [(μ- kσ), ( μ+ kσ)] e quelli invece che si collocano al di fuori di tale inter­vallo. Per comodità si indichino con xi* i valori esterni all’intervallo che soddisfano cioè la relazione | xi*- μ| ≥ kσ . Dalla definizione di σ si avrà: Poiché i valori xi* un sottoinsieme di tutti i pos­sibili valori di X, e più precisamente :

Detta relazione potrà allora scriversi: da cui segue: Questo teorema è molto importante perchè permette di asso­ciare un livello di probabilità a degli intervalli senza conoscere la forma della distribuzione della funzione di probabilità f(x). Ma chiedendo solamente che la v.c. X abbia media e varianze finite. È quindi un teorema che vale sotto condizioni assolutamente ge­nerali.

Togliendo il valore assoluto nell'espressione del teorema Togliendo il valore assoluto nell'espressione del teorema., si può scrivere: e quindi: La rappresentazione grafica del teorema di Tchebycheff equi­vale a suddividere l’insieme possibile della v.c. X nei seguenti sottoinsiemi:

Nota: Per valori di σ>0 la probabilità espressa dal teorema di Tchebycheff è una funzione decrescente di σ, nel senso che a valori via via più elevati di σ vengono associati livelli di probabilità sempre più bassi per un valore di k costan­te. Infatti, quanto più σ è piccolo tanto più piccolo è l'intervallo intorno a μ entro il quale cade una stessa percentuale di valori della v.c X, cioè quanto più σ è piccolo, tanto più la media è rappresentativa dell’intera distribuzione dei valori della variabile X

Esercizio sul teorema di Tchebycheff Dalle Figure si vede che σ1 >σ2 > σ3 Esercizio sul teorema di Tchebycheff Le confezioni di pasta alimentare di una certa linea di produzione hanno un peso che può essere assimilato ad una variabile aleatoria X avente media μ = 0,5 Kg e deviazione standard σ = 0.003 kg. Si determini: a) il limite inferiore della probabilità che, estraendo a sorte una confezione, il peso della confezione sia compreso nell'intervallo di estremi 0,5 ± 2 × 0,003 b) il limite superiore della probabilità che X sia esterna all'intervallo (0.491; 0.509) c) il limite inferiore per P(0.495 < X < 0.505) d) l'intervallo intorno alla media in cui è compresa la variabile aleatoria X con probabilità almeno uguale al 95%

Soluzione   a) Si tratta di una applicazione diretta della formula: dalla quale risulta evidente che k = 2; pertanto l'estremo inferiore cercato è dato da: b) Per utilizzare ancora la precedente formula, dobbiamo prima ricavare k. Dalla relazione 0.5 - k(0.03) = 0.491 otteniamo k = 3. Pertanto l'estremo superiore cercato è dato da: c) Dalla relazione 0.5 - k(0.03) = 0.495 si trova k = 1,7. Ne consegue che il limite inferiore cercato é 0,65 d) anche qui si tratta di trovare k; si ha allora Pertanto l'intervallo richiesto è: (μ – 4,47σ ; μ + 4,47σ) ovvero (0,487; 0,513)

Semplici teoremi sui valori caratteristici di una variabile casuale. Siano : X una v.c. ; a , b due costanti Valore caratteristico incrociato per una distribuzione congiunta di variabili casuali (covarianza) Siano X , Y due v.c. con funzione di densità congiunta pij ; il valore caratteristico cov(XY) detto covarianza è fornito dalla relazione: Tale valore è di notevole rilievo perché è una misura del legame lineare tra X e Y.

Ancora due semplici teoremi Se X , Y sono due v.c. Indipendenza e covarianza Siano X Y due v.c. Esse sono indipendenti se e solo se Se tale condizione si verifica allora ovviamente cov (XY) = 0 perché l’indipendenza esclude la possibilità di legami. ATTENZIONE! Non è vero in genere il contrario, cioè la covarianza nulla non implica indipendenza.

Si può dimostrare però che se X , Y sono v. c Si può dimostrare però che se X , Y sono v.c. Normali la covarianza nulla è condizione necessaria e sufficiente per l’indipendenza. Un ultimo teorema: se X , Y sono v.c. indipendenti

Le fasi dell’indagine statistica Il campionamento

Le fasi dell’indagine Le fasi di un’indagine sono: La progettazione dell’indagine - come si acquisiscono i dati? - indagine censuaria o campionaria? - quanto tempo? - quali risorse? La rilevazione dei dati L’elaborazione dei dati La pubblicazione dei risultati

Le fonti dei dati La precisione e la qualità dei dati influiscono sulla validità dei risultati La precisione e la qualità dei dati dipendono dal tipo di metodo scelto per l’acquisizione dei dati I dati statistici possono provenire da: Data base statistici (dati pubblici) Dalla propria rilevazione Da Esperimenti

Data base statistici Questo metodo è solitamente preferito per la velocità di acquisizione e bassi costi I dati possono essere su supporto cartaceo, magnetico o possono essere acquisiti in linea (Internet) I dati forniti da Enti riconosciuti sono chiamati dati primari o dati di fonti ufficiali Ad esempio: I dati pubblicati dall’ISTAT, dalla Banca d’Italia Ad esempio: I dati di famose società statistiche private I dati finanziari forniti dagli uffici studi delle banche o assicurazioni I dati forniti da Enti non ufficiali sono chiamati dati secondari o dati di fonti non ufficiali

La rilevazione propria e la conduzione di esperimenti Quando i dati pubblicati non sono sufficienti a colmare il proprio bisogno di informazioni, vengono effettuati degli studi in proprio per ottenere i dati necessari: Attraverso la rilevazione dei dati le variabili che caratterizzano il fenomeno sono osservate e registrate senza controllare la presenza di fattori che possano influire sul loro valore Attraverso gli esperimenti le variabili che caratterizzano il fenomeno sono osservate e registrate controllando l’influenza di alcuni fattori sul loro valore

L’indagine statistica Con l’indagine statistica le informazioni vengono raccolte dalle persone L’indagine statistica può essere realizzata attraverso intervista personale (face to face) intervista telefonica intervista auto-amministrata Un buon questionario deve essere costruito: Rendendo il questionario quanto più breve possibile Inserendo domande breve, semplici e chiare Partendo da domande generiche per poi entrare nello specifico (tecnica ad imbuto) Utilizzando domande chiuse a scelta dicotomica o multipla Utilizzando domande aperte solo quando è necessario Inserendo domande di controllo Strutturando il questionario a seconda del tipo di intervista

Il campionamento Perché si ricorre ad un’indagine campionaria: Per i costi Per la numerosità elevata della Popolazione Per la possibilità di distruggere le unità della popolazione quando si raccolgono i dati Il campione deve essere rappresentativo della popolazione e non distorto

La Popolazione (“universo”) Insieme finito o infinito, di UNITA' statistiche definito: nei contenuti nello spazio nel tempo Esempio popolazione Italiana: residente in Italia sul territorio Italiano al censimento del 2001 Il Campione Insieme delle n UNITA' statistiche selezionate tra le N che compongono la popolazione : il fine è rappresentare la popolazione le n unità che costituiscono il campione sono le unità campionarie

Un campione può essere: Differenti tipi di campione Un campione può essere: Casuale o probabilistico  si attribuisce ad ogni unità statistica della una probabilità positiva di essere estratta  si utilizzano in modo appropriato le tecniche per la selezione casuale (Tavole di generazione dei numeri casuali, software) Non probabilistico o a scelta ragionata Le unità campionarie sono scelte sulla base di informazioni a priori in modo da somigliare per alcuni caratteri strutturali alla popolazione da cui sono tratte

Campione probabilistico Campione non probabilistico La struttura del campione è data dall'insieme di LISTE che si adoperano per formarlo. Se la lista della popolazione è unica il campione ha una struttura semplice; se sono necessarie più liste la struttura è complessa

Campione casuale semplice E’ il campione della teoria statistica Il campionamento casuale semplice si realizza semplicemente scegliendo a caso dalla popolazione n elementi dall’universo N , in modo tale che ogni unità abbia la stessa probabilità di essere estratta POPOLAZIONE N unità CAMPIONE n unità PROBABILITA' DI INCLUSIONE di i FRAZIONE di CAMPIONAMENTO f= n/N

Esempio Si vogliono controllare, in un elenco provinciale di 1.000 aziende, 50 bilanci Dall’elenco si estraggono casualmente 50 aziende Usare il generatore di numeri casuali in Excel Soluzione Si generano 50 numeri tra 1 e1000

50 numeri casuali interi tra 1 e 1000 uniformemente distribuiti Approssimando X(100) 50 numeri uniformemente distribuiti tra 0 e 1 383 101 597 900 885 959 15 408 864 139 246 . 50 numeri casuali interi tra 1 e 1000 uniformemente distribuiti 50 Numeri casuali tra 0 e 1000, ognuno ha probabilità 1/1000 di essere estratto Saranno selezionate le aziende con i numeri identificativi 383, 101, ...

Campione stratificato STRATIFICARE significa ripartire, cioè individuare nella popolazione Sottopopolazioni al massimo omogenee rispetto alla variabile o alle variabili da rilevare da ogni Strato viene estratto un campione casuale semplice Con questo campione è possibile ottenere informazioni circa: l’intera popolazione ogni strato le relazioni tra gli strati A pari numerosità, le STIME sono più Efficienti di quelle ottenibili con un Campionamento Casuale Semplice

Sesso Maschio Femmina Età sotto 20 20-30 31-40 41-50 Professione dipendente autonomo lib.prof.

Sono legati alla varianza tra gli strati e all’interno degli strati Ci sono più modi per costruire un campione casuale stratificato. Ad esempio, nel campione si può rispettare proporzionalmente la numerosità degli strati della popolazione (selezione proporzionale) Un campione di numerosità 1.000 deve essere estratto Altri modi sono: Selezione uniforme Selezione Ottimale Selezione Ottima di NEYMAN-TCHUPROW Sono legati alla varianza tra gli strati e all’interno degli strati

Totale 1.000 Strato Reddito Proporzione popolaz. 1 sotto E. 15.000 25% 250 2 15.000-29.999 40% 400 3 30.000-50.000 30% 300 4 oltre E. 50.000 5% 50 n. Strato

Campione a grappoli Il campionamento a grappoli è un campionamento casuale in cui le unità da estrarre sono gruppi di elementi contigui detti Grappoli (cluster) E' particolarmente utile quando: non è disponibile un elenco dei singoli elementi della popolazione i costi di rilevazione aumentano notevolmente al crescere della distanza tra gli elementi Gli elementi che fanno parte di uno stesso grappolo sono fisicamente vicini, comportando che abbiano caratteri simili, ossia che le misure del carattere da rilevare siano più o meno tra loro correlate

indagini su vaste aree territoriali (Regioni, Città ecc indagini su vaste aree territoriali (Regioni, Città ecc.); in tali casi i grappoli vengono solitamente definiti in termini di sub-aree (Comuni, Quartieri, ecc.). Esempio: Il campione deve essere formato da un numero elevato di grappoli di piccole dimensioni Pochi grappoli di grande dimensione possono essere giustificati solo se eterogenei nel loro interno, ossia se è molto elevata la varianza NEI gruppi e invece bassa quella TRA i gruppi

L’errore campionario Svolgendo un’indagine statistica possono essere commessi due tipi di errori: L’errore campionario L’errore extra campionario Tale tipo di errore si riferisce alla differenza tra il campione e la popolazione, ovvero tra la stima ottenuta dal campione ed il parametro della popolazione. Diminuisce all’aumentare della numerosità campionaria

L’errore extra campionario Tale tipo di errore si ha se si commettono degli sbagli durante il processo di rilevazione dei dati Non diminuisce all’aumentare della numerosità campionaria E’ di tre tipi: Errore nell’acquisizione dei dati (es: codifica sbagliata) Errore di non risposta Errore di selezione

La distribuzione campionaria Calcolare i parametri di una popolazione è quasi sempre proibitivo per la numerosità della stessa Per questo, per conoscere le caratteristiche della popolazione viene considerato un campione, e facendo inferenza, si calcola una statistica relativamente ai parametri di interesse La distribuzione campionaria della statistica è lo strumento che ci dice come si distribuisce la statistica attorno al parametro

La distribuzione campionaria della media Esempio Un dado è lanciato un numero infinite di volte Sia X la variabile che rappresenta il numero di punti in ogni faccia del dado La distribuzione di probabilità di X è: E(X) = 1(1/6) + 2(1/6) + 3(1/6)+ ………= 3.5 V(X) = (1-3.5)2 (1/6 + (2-3.5)2 (1/6 + ……… ………. = 2.92 x 1 2 3 4 5 6 p(x) 1/6 1/6 1/6 1/6 1/6 1/6

Supponiamo di voler stimare m dalla media di un campione di numerosità n = 2 Qual è la distribuzione di ?

E( ) =1.0(1/36)+ 1.5(2/36)+….=3.5 V(X) = (1.0-3.5)2(1/36)+ 6/36 5/36 4/36 3/36 2/36 1/36 E( ) =1.0(1/36)+ 1.5(2/36)+….=3.5 V(X) = (1.0-3.5)2(1/36)+ (1.5-3.5)2(2/36)... = 1.46 1 1.5 2.0 2.5 3.0 3.5 4.0 4.5 5.0 5.5 6.0

1 6 E’ da notare che è più piccolo di sx. Al più grande campione corrisponde il più piccolo. Inoltre tende a cadere sempre più vicino a m, quanto più cresce la numerosità del campione 1 6 1 6

Teorema del Limite Centrale Da qualsiasi popolazione si estragga un campione, la distribuzione della media campionaria si approssima ad una Normale per campioni sufficientemente grandi Quanto è più grande il campione tanto più la distribuzione campionaria di si approssima ad una Normale

4.3.1 La distribuzione campionaria della media campionaria

Esempio La quantità di soda pop contenuta ogni bottiglia si distribuisce in modo normale con media 32.2 ml. E deviazione standard di 0.3 ml.. Trovare la probabilità che una bottiglia, acquistata da un consumatore, contenga più di 32 ml. Soluzione La variabile casuale X è la quantità di soda pop nella bottiglia 0.7486 x = 32 m = 32.2

Trovare la probabilità associata alla possibilità di avere in 4 bottiglie una quantità media maggiore di 32 ml. Soluzione La variabile casuale X è l’ammontare medio di soda pop per bottiglia 0.9082 m = 32.2 0.7486 x = 32

Esempio Lo stipendio medio settimanale dei laureati un anno dopo la laurea è di 600 Euro. Supponiamo che tale variabile si distribuisca in modo normale con una deviazione standard di 100 Euro. Trovare la probabilità che 25 laureati, estratti casualmente, abbiano uno stipendio settimanale inferiore a 550 Euro. Soluzione

Se in un campione di 25 laureati, estratto casualmente, lo stipendio medio settimanale è di 550 Euro, cosa si può commentare sulla media della popolazione pari a 600? Soluzione Con m = 600 la probabilità di avere un campione con media pari a 550 è molto bassa (0.0062). L’affermazione che i laureati hanno uno stipendio medio settimanale pari a 600 è, molto probabilmente, ingiustificata. E’ molto più realistico assumere che m sia più piccola di 600, perché così, sarebbe molto più probabile una media nel campione pari a 550.

La distribuzione normale standardizzata Per fare inferenza sui parametri della popolazione è necessario utilizzare la distribuzione campionaria (esempio ) Utilizzando la distribuzione normale standardizzata i valori sono tabulati: - Z.025 Z.025

-1.96 -1.96 m La distribuzione normale standardizzata Z .025 .025 Distribuzione normale of -1.96 -1.96 .025 .025 m

Conclusione C’è il 95% delle possibilità che la medi campionaria sia compresa nell’intervallo [560.8, 639.2] se la media della popolazione è 600. Se la media del campione fosse 550, la media della popolazione probabilmente non sarebbe 600.

In generale

Creazione della distribuzione. campionaria. attraverso una Creazione della distribuzione campionaria attraverso una simulazione al computer Riproducendo un data sets di numeri casuali che provengono da una data distribuzione, si possono verificare le caratteristiche della distribuzione. Si simula un esperimento del lancio del dadi (la creazione della distribuzione della media). Sono mostrati di seguito gli effetti dell’aumento della numerosità campionaria.

Simulazione del lancio del dadi Media = 3.486 Stand. Dev. = 1.215 Media = 3.495 Stand. Dev. = 0.749 n = 2 n = 5 n = 10 Media = 3.494 Stand. Dev. = 0.544

Excel Creazione di una distribuzione della media simulata Valori della variabile …e probabilità associate Calcolare la media Valori Excel Creazione di una distribuzione della media simulata Campione di taglia 2 Creare un istogramma per la distribuzione della media campionaria

La distribuzione campionaria della proporzione Il parametro di interesse per i dati qualitativi è il numero di volte che un particolare risultato si verifica (numeri di successi) Per stimare la proporzione (frequenza) p della popolazione si utilizza la frequenza del campione La distribuzione campionaria è una binomiale Si preferisce utilizzare, per fare inferenza, l’approssimazione normale della distribuzione binomiale p ^ p ^

Approssimazione della Binomiale ad una Distribuzione Normale L’approssimazione è migliore quando: La dimensione del campione è grande La probabilità di successo p, è prossima a 0.5. Per ottenere buoni risultati: np > 5; n(1 - p) > 5

Esempio m = np; s2 = np(1 - p) Approssimare la probabilità binomiale P(x=10) quando n = 20 e p = .5 I parametri per l’approssimazione sono: m = np; s2 = np(1 - p)

Costruiamo una distribuzione normale per approssimare la binomiale P(X = 10) m = np = 20(.5) = 10; s2 = np(1 - p) = 20(.5)(1 - .5) = 5 La probabilità esatta è P(X = 10) = .176 P(9.5<YNormale<10.5) L’ approssimazione 9.5 10 10.5 ~ P(XBinomiale = 10) = P(9.5<Y<10.5)

Altri esercizi di approssimazione P(X<=8) = P(Y< 8.5) 8 8.5 P(X>= 14) = P(Y > 13.5) Per grandi campioni l’effetto del fattore di correzione del continuo è veramente molto piccolo e può essere trascurato 13.5 14

Approssimazione della distribuzione campionaria della proporzione ^ Si può dimostrare che E( ) = p e V( ) = p(1-p)/n Se sia np > 5 e np(1-p) > 5, allora si distribuisce approssimativamente come una variabile normale standardizzata p ^

Esempio Un’Azienda ha una quota di mercato del 30%. In un’indagine campionaria di 1.000 consumatori è stato chiesto quale marca preferiscono. Quale è la probabilità che più del 32% di tutti i rispondenti dicano di preferire quella marca? Soluzione La variabile “numero di rispondenti che preferiscono la marca X” si distribuisce come una binomiale con n = 1000 and p = .30. Inoltre, np = 1000(.3) = 300 > 5 n(1-p) = 1000(1-.3) = 700 > 5.

Distribuzione campionaria del confronto tra medie La differenza tra medie è un parametro rilevante quando si confrontano due popolazioni Per fare inferenza tra m1 - m2 dobbiamo osservare la distribuzione di

Il valore atteso e la varianza saranno: La distribuzione di è normale con media m1 - m2 e deviazione standard di se I due campioni sono indipendenti Le popolazioni originarie si distribuiscono in modo normale

Se le popolazioni originarie non sono normali ma il campione è maggiore di 30 la distribuzione si approssima ad una normale Esempio I voti medi (in centesimi) di diploma di due differenti Istituti sono 62 (stand.dev. = 14,5), e 60 (stand. dev. = $18,3). Qual è la probabilità che la media campionaria degli studenti dell’Istituto A sia maggiore di quella degli studenti dell’Istituto B (nWLU = 50; nUWO = 60)

Soluzione m1 - m2 = 62 – 60 = 2