Valutazione delle ipotesi

Slides:



Advertisements
Presentazioni simili
ESERCITAZIONE 2 Come leggere la tavola della normale e la tavola t di Student. Alcune domande teoriche.
Advertisements

Test delle ipotesi Il test consiste nel formulare una ipotesi (ipotesi nulla) e nel verificare se con i dati a disposizione è possibile rifiutarla o no.
Stime per intervalli Oltre al valore puntuale di una stima, è interessante conoscere qual è il margine di errore connesso alla stima stessa. Si possono.
2. Introduzione alla probabilità
variabili aleatorie discrete e continue
Distribuzione Normale o Curva di Gauss
Intervalli di confidenza
Proprietà degli stimatori
Stime per intervalli Oltre al valore puntuale di una stima, è interessante conoscere qual è il margine di errore connesso alla stima stessa. Si possono.
Confronto tra 2 campioni Nella pratica è utilissimo confrontare se 2 campioni provengono da popolazioni con la stessa media: Confronti tra produzioni di.
1 2. Introduzione alla probabilità Definizioni preliminari: Prova: è un esperimento il cui esito è aleatorio Spazio degli eventi elementari : è linsieme.
Fondamenti della Misurazione
Inferenza Statistica Le componenti teoriche dell’Inferenza Statistica sono: la teoria dei campioni la teoria della probabilità la teoria della stima dei.
Analisi dei dati per i disegni ad un fattore
Progetto Pilota 2 Lettura e interpretazione dei risultati
Metodi Quantitativi per Economia, Finanza e Management Lezione n° 11.
redditività var. continua classi di redditività ( < 0 ; >= 0)
Inferenza statistica per un singolo campione
Apprendimento Automatico: Apprendimento Probabilistico Roberto Navigli 1 Apprendimento Automatico: Apprendimento Bayesiano.
Apprendimento Bayesiano
Computational Learning Theory and PAC learning
Apprendimento Bayesiano
INFERENZA NEL MODELLO DI REGRESSIONE LINEARE MULTIPLA (parte 1)
ISTOGRAMMI E DISTRIBUZIONI:
Distribuzioni di probabilità
Appunti di inferenza per farmacisti
Corso di biomatematica lezione 9: test di Student
Corso di biomatematica lezione 10: test di Student e test F
Corso di biomatematica lezione 4: La funzione di Gauss
Corso di biomatematica lezione 6: la funzione c2
Corso di biomatematica lezione 7-2: Test di significatività
STATISTICA a.a PARAMETRO t DI STUDENT
ISTOGRAMMI E DISTRIBUZIONI : i xixi
Valutazione della stima: gli intervalli di confidenza
Lezione 8 Numerosità del campione
Num / 36 Lezione 9 Numerosità del campione.
Lezione 4 Probabilità.
PROBABILITÀ La probabilità è un giudizio che si assegna ad un evento e che si esprime mediante un numero compreso tra 0 e 1 1 Evento con molta probabilità.
Quale valore dobbiamo assumere come misura di una grandezza?
Le distribuzioni campionarie
Unità 2 Distribuzioni di probabilità Misure di localizzazione Misure di variabilità Asimmetria e curtosi.
Errori casuali Si dicono casuali tutti quegli errori che possono avvenire, con la stessa probabilità, sia in difetto che in eccesso. Data questa caratteristica,
STATISTICA INFERENZIALE
STATISTICA PER LA RICERCA SPERIMENTALE E TECNOLOGICA
Cap. 15 Caso, probabilità e variabili casuali Cioè gli ingredienti matematici per fare buona inferenza statistica.
PROPAGAZIONE DEGLI ERRORI:
Domande riepilogative per l’esame
Lezione B.10 Regressione e inferenza: il modello lineare
Corso di Analisi Statistica per le Imprese
Strumenti statistici in Excell
Martina Serafini Martina Prandi
“Teoria e metodi della ricerca sociale e organizzativa”
Le distribuzioni campionarie
Intervallo di Confidenza Prof. Ing. Carla Raffaelli A.A:
“Teoria e metodi della ricerca sociale e organizzativa”
Intervalli di confidenza
La distribuzione campionaria della media
Elaborazione statistica di dati
Metodologia della ricerca e analisi dei dati in (psico)linguistica 24 Giugno 2015 Statistica inferenziale
TRATTAMENTO STATISTICO DEI DATI ANALITICI
La covarianza.
Operazioni di campionamento CAMPIONAMENTO Tutte le operazioni effettuate per ottenere informazioni sul sito /area da monitorare (a parte quelle di analisi)
In alcuni casi gli esiti di un esperimento possono essere considerati numeri naturali in modo naturale. Esempio: lancio di un dado In atri casi si definisce.
1 Statistica descrittiva 2. Sintetizzare i dati con degli indici Come descrivere una variabile in un insieme di osservazioni 1. Utilizzare rappresentazioni.
1 DISTRIBUZIONI DI PROBABILITÁ. 2 distribu- zione che permette di calcolare le probabilità degli eventi possibili A tutte le variabili casuali, discrete.
1 VARIABILI CASUALI. 2 definizione Una variabile casuale è una variabile che assume determinati valori in modo casuale (non deterministico). Esempi l’esito.
La distribuzione normale. Oltre le distribuzioni di frequenza relative a un numero finito di casi si possono utilizzare distribuzioni con un numero di.
INFERENZA NEL MODELLO DI REGRESSIONE LINEARE SEMPLICE
Introduzione all’inferenza
Psicometria modulo 1 Scienze tecniche e psicologiche Prof. Carlo Fantoni Dipartimento di Scienze della Vita Università di Trieste Test di ipotesi.
Transcript della presentazione:

Valutazione delle ipotesi

Valutazione empirica delle ipotesi Dato un valore di accuratezza di classificazione misurato su un campione, quanto questo valore è accurato nella stima di ulteriori campioni? Se una ipotesi h risulta prevalere su un’ipotesi h’ su un campione di test, possiamo dire che h “è meglio” di h’ in generale? Quando il campione di dati annotati (D) è limitato, quale è il metodo migliore per utilizzarlo sia in fase di apprendimento che di test?

Definizioni di errore Sia T un insieme di tuple <x,c(x)> in generale, TD Errore sul campione (sample error) n è il numero di tuple in T e la funzione  è 1 se c(x)=h(x), 0 altrimenti Errore reale dove D è la distribuzione di probabilità delle istanze Quindi, eT è una stima, e siamo interessati a scoprire quanto questa stima si discosti dalla “realtà”, rappresentata da eD

Intervalli di confidenza Ci interessa valutare i margini di discrepanza fra errore reale ed errore stimato. Vogliamo stimare la probabilità che dove UB e LB sono dei valori di discrepanza massimo e minimo (upper bound e lower bound) UB e LB definiscono un intervallo di confidenza Def: un intervallo di confidenza del N% per un parametro p è un intervallo [LB,UB]che include p con probabilità N% (ovvero: con probabilità N% si ha che LBpUB)

Altre definizioni (reminder) Distribuzione di probabilità per una variabile aleatoria Y specifica la probabilità Pr(Y=yi)yi Densità di probabilità (nel continuo) Valore atteso o media, a volte indicato anche con Y Varianza caratterizza la dispersione della distribuzione attorno alla media Deviazione standard

Esempio =1,5 y 1 2 3 (y-)2 2,25 0,25 P(y) 0,125 0,375 1 P(y) y 1 2 3 (y-)2 2,25 0,25 P(y) 0,125 0,375 1 0 1 2 3 P(y) y

Distribuzione binomiale P(r) r Data una variabile aleatoria che può assumere valore 0 o 1, una binomiale fornisce la probabilità di osservare r “0” (e (n-r) “1”) in un campione di n osservazioni, quando la probabilità di ottenere “0” su un singolo lancio è p.

Stima dell’errore La stima dell’errore eD(h) sulla base di un insieme casuale di osservazioni indipendenti equivale alla stima del parametro p della binomiale. Il numero r rappresenta il numero di errori osservabili in n classificazioni di istanze x nel test set T. eD(h) =p eT(h) è detto uno stimatore di p Il pregiudizio, o bias, della stima è definito dalla E[eT(h)]-p Una stima si dirà unbiased se il valore medio di molte stime di eT(h) (la variabile aleatoria) converge verso p r segue una binomiale

Torniamo al problema degli intervalli di confidenza un intervallo di confidenza del N% per un parametro p è un intervallo [LB,UB]che include p con probabilità N% È complicato stimare questi intervalli per una distribuzione binomiale Viceversa, e molto più facile farlo per una distribuzione Normale o Gaussiana

Distribuzione Normale (Gaussiana)

Intervalli di confidenza in una distribuzione normale o Gaussiana Se una variabile aleatoria X obbedisce ad una distribuzione Normale con media  e deviazione standard , allora una misura x della variabile X cadrà nell’intervallo N% delle volte Equivalentemente, avrò per la stima di  il seguente intervallo:

Teorema del Limite Centrale La distribuzione Normale o Gaussiana è interessante perché consente di calcolare in modo semplice degli intervalli di confidenza (integrale) Il Teorema del Limite Centrale stabilisce che la somma di un numero sufficientemente grande di variabili aleatorie indipendentemente distribuite segue una distribuzione che è approssimativamente normale La distribuzione che governa tende alla distribuzione Normale per n In pratica, questo è approssimativamente vero per n>30

Graficamente

Combiniamo i risultati Se eT(h) obbedisce approssimativamente ad una Normale con media  e varianza  (il che è vero per un campione n>30) allora il valore misurato per eT(h) , r/n, cadrà nel seguente intervallo con probabilità N%: zN definisce la (metà della) larghezza del più piccolo intervallo attorno alla media, che include l’N% della massa totale di probabilità (area tratteggiata) zN

Determiniamo l’intervallo N% dell’area giace in zN 80% dell’area giace in 1,28 Per una Normale con media 0 e deviazione standard 1: Ricordando che: Otteniamo:

Migliorare la stima dell’errore mediante stime multiple

K-fold cross validation Suddividere i dati di apprendimento D in k sotto-insiemi di uguale taglia D1,D2,..Dk Per i=1..K do: Li  (D-Di), Ti Di (usa Di come test set e tutto il resto come learning set) Calcola l’errore medio: Intervallo di confidenza N%: k-1 (indicato spesso con n) indica il numero di gradi di libertà (numero degli eventi indipendenti che concorrono nella produzione del valore della variabile aleatoria d).

K-FOLD CROSS VALIDATION

Verificare ipotesi alternative Date due ipotesi h1 e h2, la differenza è: perché la varianza di questa distribuzione è pari alla somma delle varianze delle due distribuzioni L’intervallo di confidenza all’N% sarà:

Verificare algoritmi alternativi Ad esempio, due architetture G e G’ di rete neurale, o due algoritmi di alberi di decisione, basati su diverse politiche Siano LA e LB due apprendisti: Suddividere i dati di apprendimento D in k sotto-insiemi di uguale taglia D1,D2,..Dk Per i=1..K do: Li  (D-Di), Ti Di (usa Di come test set e tutto il resto come learning set) hA=LA(Li), hB=LB(Li) i=eTi(hA)- eTi(hB) Intervallo di confidenza N%: