La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Analisi Bivariata e Test Statistici

Presentazioni simili


Presentazione sul tema: "Analisi Bivariata e Test Statistici"— Transcript della presentazione:

1 Analisi Bivariata e Test Statistici
Metodi Quantitativi per Economia, Finanza e Management Esercitazione n°5

2 Statistica descrittiva bivariata
Indaga la relazione tra due variabili misurate. Si distingue rispetto alla tipologia delle variabili indagate: var. qualitative/quantitative discrete: tavole di contingenza (o a doppia entrata) var. quantitative: analisi di correlazione lineare una var. qualitativa e una quantitativa: confronto tra le medie

3 Test per lo studio dell’associazione tra variabili
Nella teoria dei test, il ricercatore fornisce ipotesi riguardo la distribuzione della popolazione; tali ipotesi sono parametriche se riguardano il valore di uno ò più parametri della popolazione conoscendone la distribuzione a meno dei parametri stessi; non parametriche se prescindono dalla conoscenza della distribuzione della popolazione. Obiettivo dei test: come decidere se accettare o rifiutare un’ipotesi statistica alla luce di un risultato campionario. Esistono due ipotesi: H0 l’ipotesi nulla, cioè l’ipotesi che deve essere verificata H1 l’ipotesi alternativa la quale rappresenta, di fatto, l’ipotesi che il ricercatore sta cercando di dimostrare.

4 Test per lo studio dell’associazione tra variabili
Si può incorrere in due tipologie di errore: Possibili Risultati Verifica di Ipotesi Stato di Natura Decisione H0 Vera H0 Falsa Non Errore Secondo Tipo No errore Rifiutare H Errore Primo Tipo Rifiutare No Errore H

5 Test per lo studio dell’associazione tra variabili
Errore di Primo Tipo Rifiutare un’ipotesi nulla vera Considerato un tipo di errore molto serio La probabilità dell’errore di primo tipo è  Chiamato livello si significatività del test Fissato a priori dal ricercatore (i valori comuni sono 0.01, 0.05, 0.10)

6 Test per lo studio dell’associazione tra variabili
Errore di Secondo Tipo Non rifiutare un’ipotesi nulla falsa La probabilità dell’errore di secondo tipo è β

7 Test per lo studio dell’associazione tra variabili
Possibili Risultati Verifica di Ipotesi Stato di Natura Decisione H0 Vera H0 Falsa Non Errore Secondo Tipo ( β ) No errore ( ) Rifiutare Legenda: Risultato (Probabilità) a H Errore Primo Tipo ( ) Rifiutare No Errore ( 1 - β ) H a

8 Test per lo studio dell’associazione tra variabili
Errore di primo tipo ed errore di secondo tipo non si posso verificare contemporanemente Errore di primo tipo può occorrere solo se H0 è vera Errore di secondo tipo può occorrere solo se H0 è falsa Se la probabilità dell’errore di primo tipo (  ) , allora la probabilità dell’errore di secondo tipo ( β )

9 Lettura di un test statistico (1)
Esempio: almeno un bi≠0 1) Ipotesi b1= b2 = ....=bk = 0 H0: H1: 2) Statistica test Statistica F 3) p-value Rappresenta la probabilità di commettere l’errore di prima specie. Può essere interpretato come la probabilità che H0 sia “vera” in base al valore osservato della statistica test 1

10 Lettura di un test statistico (2)
Fissato un livello di significatività : Se p-value piccolo (< ) RIFIUTO H0 Altrimenti (>= ) ACCETTO H0 Il p-value è il più piccolo valore di  per il quale H0 può essere rifiutata 1

11 Test χ² per l’indipendenza statistica
Si considera la distribuzione χ², con un numero di gradi di libertà pari a (k-1)(h-1), dove k è il numero di righe e h il numero di colonne della tabella di contingenza. Qui: H0 :indipendenza statistica tra X e Y H1 : dipendenza statistica tra X e Y La regione di rifiuto cade nella coda di destra della distribuzione 0.2 0.15 0.1 0.05 La regione di rifiuto è caratterizzata da valori relativamente elevati di χ²; se il livello di significatività è al 5%, si rifiuta per χ²> χ²0.95 Regione di rifiuto

12 Test χ² per l’indipendenza statistica
p-value=0.140 > =0.05  accetto l’ipotesi di indipendenza statistica p-value=0.001 < =0.05  rifiuto l’ipotesi di indipendenza statistica

13 Test t per l’indipendenza lineare
Questo test verifica l’ipotesi di indipendenza lineare tra due variabili, partendo dall’indice di correlazione lineare ρ. Si ha: H0: indipendenza lineare tra X e Y (ρpopolaz=0) H1: dipendenza lineare tra X e Y (ρpopolaz ≠ 0) La statistica test è distribuita come una t di Student con n-2 gradi di libertà, e tende a crescere all’aumentare dell’ampiezza campionaria t= ρ √(n-2)/ (1- ρ²)

14 Test t per l’indipendenza lineare
La regione di rifiuto è caratterizzata da valori relativamente elevati di t in modulo; se il livello di significatività è al 5%, si rifiuta per |t| >t0,975 Regione di rifiuto Regione di rifiuto

15 Test t per l’indipendenza lineare
p-value=0.657 > =0.05  accetto l’ipotesi di indipendenza lineare tra le variabili leggerezza e sapore/gusto

16 Test F per la verifica di ipotesi sulla differenza tra medie
Si considerino le medie di una variabile quantitativa calcolate per ognuna delle modalità di una variabile categorica (ad esempio reddito medio per area geografica=nord, per area geografica=centro e per area geografica=sud). H0: le medie sono tutte uguali tra loro H1: esistono almeno due medie diverse tra loro La statistica test da utilizzare, sotto l’ipotesi H0, si distribuisce come una F di Fisher con (c-1,n-1) gradi di libertà. Tende a crescere all’aumentare della varianza tra medie e al diminuire della variabilità interna alle categorie. Cresce inoltre all’aumentare dell’ampiezza campionaria.

17 Test F per la verifica di ipotesi sulla differenza tra medie
La regione di rifiuto cade nella coda di destra della distribuzione, cioè è caratterizzata da valori relativamente elevati di F; se il livello di significatività è 5%, si rifiuta per F> F0,95 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 Regione di rifiuto

18 Test F per la verifica di ipotesi sulla differenza tra medie
p-value=0.045 < =0.05  rifiuto l’ipotesi di uguaglianza tra medie

19 p-value=0.191 > =0.05  accetto l’ipotesi di uguaglianza tra medie

20 PROC FREQ - Descrizione
La PROC FREQ permette di calcolare le distribuzioni di frequenza univariate per variabili qualitative e quantitative discrete creare tabelle di contingenza a due o più dimensioni per variabili qualitative e quantitative discrete calcolare indici di dipendenza relativi a tabelle di contingenza

21 PROC FREQ – Sintassi generale
Distribuzione di frequenza bivariata proc freq data= dataset option(s); tables variabile1 * variabile2 /option(s); run; OPTIONS: noprint non mostra i risultati nella finestra di output /missing considera anche i missing nel calcolo delle frequenze

22 PROC FREQ - Esempio Variabili qualitative: sesso e operatore telefonico proc freq data=corso.telefonia; table sesso * operatore; run;

23 Output PROC FREQ - Esempio
Distribuzioni marginali: frequenze marginali assolute e relative Frequenze congiunte assolute e relative Frequency Percent Row Pct Col Pct Total     M     F Wind Vodafone Tim 3 operatore sesso Table of sesso by operatore Frequenze subordinate

24 Output PROC FREQ - Esempio
freq. congiunta relativa =(7/236)*100 freq. marginale assoluta= Frequency Percent Row Pct Col Pct Total     M     F Wind Vodafone Tim 3 operatore sesso Table of sesso by operatore freq. marginale relativa=( )/236*100 freq. subordinate: % di riga=5/136*100 % di col=5/12*100

25 PROC FREQ - Descrizione
La PROC FREQ permette di calcolare le distribuzioni di frequenza univariate per variabili qualitative e quantitative discrete creare tabelle di contingenza a due o più dimensioni per variabili qualitative e quantitative discrete calcolare indici di dipendenza relativi a tabelle di contingenza

26 Test chi-quadro – Indipendenza statistica
Si applica alle tabelle di contingenza a due dimensioni Per testare l’hp di indipendenza statistica tra le due variabili della tabella (ossia, la distribuzione di X non è influenzata da Y e viceversa) Si calcola con la PROC FREQ (opzione CHISQ)

27 PROC FREQ – Sintassi generale
Calcolo dell’indice chi-quadro proc freq data= dataset option(s); tables variabile1 * variabile2 /option(s); run; OPTIONS: noprint non mostra i risultati nella finestra di output /missing considera anche i missing nel calcolo delle frequenze /chisq calcola l’indice chi-quadro e altre misure di associazione basate sul chi-quadro

28 Esempio n°1- Test chi-quadro – Indipendenza statistica
C’è indipendenza statistica tra le variabili sesso del rispondente (SESSO) e possesso del computer (COMPUTER)? proc freq data=corso.telefonia; table sesso * computer /chisq; run;

29 Esempio n°1- Test chi-quadro – Indipendenza statistica
Le frequenze della variabile COMPUTER subordinata a SESSO: Cosa sono le frequenze subordinate? Le frequenze della variabile di SESSO subordinata a COMPUTER:

30 Esempio n°1- Test chi-quadro – Indipendenza statistica
Le frequenze subordinate (di SESSO subordinata a COMPUTER e viceversa) sono diversedenota influenza di ognuna delle due variabili sulla distribuzione dell’altra (=dipendenza statistica)

31 Esempio n°1- Test chi-quadro – Indipendenza statistica
Possiamo concludere che le due variabili sono statisticamente dipendenti? Il p-value del test chi-quadro è basso (<0.05) rifiuto l’hp di indipendenza statistica  le due variabili sono statisticamente dipendenti

32 Esempio n°2 - Test chi-quadro – Indipendenza statistica
C’è indipendenza statistica tra le variabili SESSO e MARCA? proc freq data=corso.telefonia; table sesso * marca /chisq; run;

33 Esempio n°2 - Test chi-quadro – Indipendenza statistica
Attenzione: molte celle con frequenze congiunte assolute molto bassetest non molto affidabile

34 Esempio n°2 - Test chi-quadro – Indipendenza statistica
Il p-value del test chi-quadro è alto accetto l’hp di indipendenza statistica  le due variabili sono statisticamente indipendenti

35 Test t – Indipendenza lineare
Si applica a variabili quantitative Per testare l’hp di indipendenza lineare tra due variabili (ossia, il coefficiente di correlazione lineare tra X e Y è nullo) Si calcola con la PROC CORR

36 PROC CORR - Descrizione
La PROC CORR permette di calcolare la correlazione tra due o più variabili quantitative

37 PROC CORR – Sintassi generale
Correlazione tra due variabili proc corr data= dataset; var variabile1; with variabile2; run;

38 PROC CORR - Esempio Correlazione tra il numero medio di ore di utilizzo del telefono cellulare e del fisso al giorno. proc corr data=corso.telefonia; var cell_h; with fisso_h; run;

39 Output PROC CORR - Esempio
Coefficiente di correlazione lineare ρ(X,Y): è un indice relativo, assume valori compresi tra -1 e 1. Se ρ >0 (ρ <0) la relazione tra X e Y è lineare positiva (negativa), se ρ =0 non c’è relazione lineare.

40 PROC CORR – Sintassi generale
Correlazione tra più variabili proc corr data= dataset; var variabile1; with variabile2 variabile3 variabile4; run; proc corr data= dataset; var variabile1 variabile2 variabile3 variabile4; run;

41 PROC CORR - Esempio Correlazione tra la durata media delle chiamate effettuate e: durata media delle chiamate ricevute, numero medio di ore di utilizzo del telefono cellulare al giorno, numero medio di ore di utilizzo del telefono fisso al giorno. proc corr data=corso.telefonia; var durata_chiamate_e; with durata_chiamate_r cell_h fisso_h; run;

42 Output PROC CORR - Esempio

43 Esempio n°1 - Test t – Indipendenza lineare
C’è indipendenza lineare tra il numero medio ore utilizzo cellulare al giorno(CELL_H ) e il numero medio ore utilizzo telefono fisso al giorno (FISSO_H)? proc corr data=corso.telefonia; var cell_h; with fisso_h; run;

44 Esempio n°1 - Test t – Indipendenza lineare
Il p-value del test t è basso rifiuto l’hp di indipendenza lineare  esiste una relazione lineare tra le due variabili, anche se non molto forte (il coefficiente di correlazione lineare è non nullo ma ha valore non molto elevato)

45 Esempio n°2 - Test t – Indipendenza lineare
C’è indipendenza lineare tra il numero medio ore utilizzo telefono fisso (FISSO_H ) e il numero medio di inviate al giorno ( _H)? proc corr data=corso.telefonia; var fisso_h; with _h; run;

46 Esempio n°2 - Test t – Indipendenza lineare
Il p-value del test t è alto accetto l’hp di indipendenza lineare  non esiste una relazione lineare tra le due variabili

47 Test F – Indipendenza in media
Si applica a variabili quantitative Per testare l’hp di indipendenza in media tra due variabili, di cui una categorica (ossia, se X è categorica, le medie di Y calcolate per ogni categoria di X sono uguali tra di loro e uguali alla media globale di Y) Si calcola con la PROC REG (la vedremo quando parleremo di modelli di regressione lineare)

48 Esercizi Testare se le variabili area geografica e sesso del data set DENTI sono statisticamente indipendenti Testare l’ipotesi di indipendenza lineare tra le variabili consumo di dentifrici della marca A e numero di contatti pubblicitari totali del data set DENTI


Scaricare ppt "Analisi Bivariata e Test Statistici"

Presentazioni simili


Annunci Google