Ragionamento Bayesiano Esercizi. Classificatore Naïve Bayes: richiami (credits: P. Velardi-uniroma1) Si applica quando le ipotesi in H sono rappresentabili.

Slides:



Advertisements
Presentazioni simili
Chiara Mocenni – Analisi delle Decisioni a.a Analisi delle Decisioni Probabilita condizionate e Teorema di Bayes Chiara Mocenni.
Advertisements

Apprendimento Automatico: Apprendimento Bayesiano
Apprendimento Automatico: Apprendimento Probabilistico Roberto Navigli 1 Apprendimento Automatico: Apprendimento Bayesiano.
Apprendimento Bayesiano
Valutazione delle ipotesi
Computational Learning Theory and PAC learning
Apprendimento Bayesiano
Appunti di inferenza per farmacisti
Modelli probabilistici
Bayesian Learning Martedì, 16 Novembre 2004 Giuseppe Manco Readings: Sections , Mitchell Chapter 2, Bishop Chapter 4, Hand-Mannila-Smith Bayesian.
1.PROBABILITÀ A. Federico ENEA; Fondazione Ugo Bordoni Scuola estiva di fonetica forense Soriano al Cimino 17 – 21 settembre 2007.
è … lo studio delle caratteristiche di regolarità dei fenomeni casuali
Probabilità. Un percorso didattico esperimenti e simulazioni L. Cappello 9 Maggio Didattica probabilità e statistica PAS 2014.
Spiegazione di alcuni concetti
1 Principali analisi statistiche 1. Confronto fra medie (2 o piú campioni) 2. Correlazione e regressione 3. Analisi di tabelle di contigenza Variabile.
UNIVERSITÀ DEGLI STUDI DI MODENA E REGGIO EMILIA Dipartimento di Scienze Fisiche, Informatiche e Matematiche CORSO DI LAUREA IN INFORMATICA Analisi e Valutazione.
LA STATISTICA. Cenni storici ● In Egitto: si rilevava l'ammontare della popolazione e i vari beni ai fini fiscali; si tenevano elenchi delle famiglie.
Introduzione alla Statistica Corso di Misure Meccaniche e Termiche Prof. Ing. David Vetturi.
Precorso di Statistica per le Lauree Magistrali
Universita’ di Milano Bicocca Corso di Basi di dati 1 in eLearning C
Effetto scuola o Valore aggiunto
Le operazioni relazionali
Distribuzioni limite La distribuzione normale
Dip. Economia Politica e Statistica
Pianificazione disegno sperimentale
Valutazione dell’incertezza associata alla mappa acustica dinamica di Milano Giovanni Zambon; Roberto Benocci; Maura Smiraglia; H. Eduardo Roman.
Variabili casuali a più dimensioni
rielaborato da Atzeni-etal., Basi di dati, Capitolo 4
Laboratorio II, modulo Conversione Analogico/Digitale (cfr. e
Reti di credenze Esercizi.
IL CALCOLO DELLA PROBABILITÀ
Misure Meccaniche e Termiche - Università di Cassino
Metodi Quantitativi per Economia, Finanza e Management Lezione n°12 Regressione Logistica: Le ipotesi del modello, la stima del modello.
coordinate geografiche longitudine, latitudine
Spiegazione di alcuni concetti
DISTRIBUZIONI TEORICHE DI PROBABILITA’
I teoremi delle funzioni derivabili
IL CONCETTO DI ALGORITMO
Dip. Economia Politica e Statistica
Elementi di teoria delle probabilità
Didattica speciale : codici del linguaggio logico e matematico
Corso di Laurea in Scienze e tecniche psicologiche
APPUNTI DI STATISTICA INFERENZIALE
Mercati finanziari efficienti 2
Intervalli di Fiducia Introduzione Intervalli di fiducia per la media – Caso varianza nota Intervalli di fiducia per la media – Caso varianza non nota.
Precorso di Statistica per le Lauree Magistrali
Magnetostatica 2 Legge di Biot-Savart Prima formula di Laplace
La probabilità matematica
TEOREMA DI BAYES: ESEMPI
Indici di variabilità La variabilità è la ragione dell’esistenza della psicologia. Le persone hanno dei comportamenti diversi che non possono essere predetti.
L’indagine statistica
Statistica Scienza che studia i fenomeni collettivi.
Mario Scarpino - Francesco Sgaramella
INTERNATIONAL COSMIC DAY Become a Scientistic for a Day
Per un conto satellite sulla produzione familiare di Monica Montella*
Ricorsione 16/01/2019 package.
LE SUCCESSIONI Si consideri la seguente sequenza di numeri:
Esercizio La popolazione di adulti presenta una media di ansia pari a 4. Ad un campione di 35 soggetti con disturbo ossessivo compulsivo è stato somministrato.
Dip. Economia Politica e Statistica
Precorso di Statistica per le Lauree Magistrali
Misurare il reddito di una nazione
Test di ingresso per il corso di laurea in Medicina
Esercizio 1 Si vuole studiare la mobilità di voto degli elettori di una certa circoscrizione. Da un sondaggio telefonico risulta che: Si calcolino le distribuzioni.
Corso di Analisi Statistica per le Imprese
Test per campioni indipendenti
Corso di Analisi Statistica per le Imprese
Dip. Economia Politica e Statistica
Nord-Italia verso l’Europa, Sud altrove
Flusso del campo elettrico e teorema di Gauss
L’Analisi della Varianza ANOVA (ANalysis Of VAriance)
Transcript della presentazione:

Ragionamento Bayesiano Esercizi

Classificatore Naïve Bayes: richiami (credits: P. Velardi-uniroma1) Si applica quando le ipotesi in H sono rappresentabili mediante una congiunzione di valori di attributi e la classificazione è scelta da un insieme finito Y. Le istanze x in X sono descritte da m-uple di valori (x 1, x 2, …, x m ) associati agli m attributi di x, si basa sull’assunzione semplificativa che I valori degli attributi siano condizionalmente indipendenti, assegnato un valore della funzione obiettivo.

Classificatore Naïve Bayes: richiami (2) Dato un nuovo esempio da classificare, si calcola:

Naïve Bayes: Esempio C = {allergia, raffreddore, in_salute} (valori c(x)) att 1 = starnuti (sì, no) ; att 2 = tosse (sì, no) ; att 3 = febbre (sì, no) (attributi booleani) x = (1, 1, 0) ovvero (att 1, att 2,  att 3 ) come lo classifico? { Dall’insieme D stimo le prob. a priori e condizionate es: Probin salute raffred dore allergia P(c i ) P( a 1 |c i ) P( a 2 |c i ) P( a 3 |c i )

Esempio (continua) 40 esempi, 36 classificati “in salute”, 2 “raffreddore”, 2 “allergia” Per stimare, ad esempio, P(a 1 =1|in-salute), contare sui 36 esempi nei quali c(x)= “in-salute” quanti hanno att 1 =1 se 1 su 36, P(att 1 =1|in-salute)=1/36=0,027 Analogamente avrò, ad es.: - P(att 1 =1|raffreddore)=2/2=1 - P(att 1 =1|allergia)=2/2=1 - ecc.

Esempio (continua) Devo calcolare il massimo al variare di c di: Quindi ad esempio per c=raffreddore Analogamente, troverò:

Problemi con Naive Bayes Se D è piccolo, le stime sono inaffidabili (nell’esempio precedente alcune stime sono = 1!!!). Un valore raro a k può non capitare mai in D e dunque: –  c j : P(a k | c j ) = 0. Analogamente, se ho un solo esempio di una classe c j, –  a k : P(a k | c j ) = 1 o P(a k | c j ) = 0. Se a k capita in un test set T, il risultato è che –  c i : P(T | c i ) = 0 and  c i : P(c i | T) = 0 perché a k non è mai apparso nel training set. Meglio adottare lo smoothing!!!

Smoothing: richiami Le probabilità P(x j |c) vengono stimate osservando le frequenze nei dati di addestramento D Se D include n i esempi classificati c i, e n ij di questi n i esempi contengono il valore x j per l’attributo j, allora:

Smoothing: richiami (2) Per tener conto di eventi rari, si operano degli aggiustamenti sulle probabilità detti smoothing Laplace smoothing con una M-stima assume che ogni evento x j abbia una probabilità a priori p, che si assume essere stata osservata in un campione virtuale di dimensione M > del campione reale

Smoothing: richiami (3) Nell’esempio precedente, si avrebbe:

Smoothing: richiami (4) M è una costante che determina il peso dello smoothing In assenza di altre informazioni, si assume p=1/k dove k è il numero di valori dell’attributo j in esame.

Moneta bilanciata (credits: G. Manco) Lancio della moneta – Spazio:  = {Head, Tail} – Scenario: la moneta è bilanciata o sbilanciata al 60% in favore di Head h 1  bilanciata: P(Head) = 0.5 (più precisamente: P(Head | h 1 )) h 2  60% bias: P(Head) = 0.6 (più precisamente: P(Head | h 2 )) – Obiettivo: decidere tra l’ipotesi di default (null) e l’alternativa. Distribuzione a-priori – P(h 1 ) = 0.75, P(h 2 ) = 0.25 – Riflette le credenze iniziali su H – L’apprendimento è revisione delle credenze

Moneta bilanciata (continua) Evidenze – d  singolo lancio, viene Head – D: Cosa crediamo adesso? – R: Calcoliamo P(d) = P(d|h 1 )∙P(h 1 ) +P(d|h 2 )∙P(h 2 ) Inferenza Bayesiana: Calcolo di P(d=HEAD) = P(d|h 1 )∙P(h 1 ) +P(d|h 2 )∙P(h 2 ) = 0.5   0.25 = = Questa è la probabilità dell’osservazione d=Head

Moneta bilanciata (continua) Apprendimento bayesiano – In base al teorema di Bayes P(h 1 |d) = P(d|h 1 ) P(h 1 ) / P(d) = / = P(h 2 |d) = P(d|h 2 ) P(h 2 ) / P(d) = 0.15 / = Le credenze sono state spostate verso h 1 MAP: crediamo ancora che la moneta sia bilanciata – Approccio ML (assumiamo priors identici) Le credenze sono revisionate a partire da 0.5 C’è più sbilanciamento a favore di h 1

Moneta bilanciata (continua) Ulteriore evidenza: Sequenza D di 100 lanci con 70 heads e 30 tails – P(D) =(0.5) 70  (0.5) 30  (0.6) 70  (0.4) 30  0.25 – Ora P(h 1 |D) << P(h 2 |D)