Apprendimento Automatico: Apprendimento Probabilistico Roberto Navigli 1 Apprendimento Automatico: Apprendimento Bayesiano.

Slides:



Advertisements
Presentazioni simili
Dr. Marta Giorgetti Esercizi Calcolo combinatorio, spazio degli eventi, probabilità, indipendenza, teorema di Bayes.
Advertisements

Elementi di calcolo delle probabilità
La probabilità nei giochi
N=100 n=30 n/N=0.33 Regole della probabilità ed applicazioni N=numero di modi in cui un evento può manifestarsi n=numero di modi in cui può manifestarsi.
Chiara Mocenni - Sistemi di Supporto alle Decisioni I – aa Sistemi di Supporto alle Decisioni I Lezione 6 Chiara Mocenni Corso di laurea L1.
2. Introduzione alla probabilità
Chiara Mocenni – Analisi delle Decisioni a.a Analisi delle Decisioni Probabilita condizionate e Teorema di Bayes Chiara Mocenni.
Definizione di probabilità, calcolo combinatorio,
Intervalli di confidenza
La probabilità.
Matematica I: Calcolo differenziale, Algebra lineare, Probabilità e statistica Giovanni Naldi, Lorenzo Pareschi, Giacomo Aletti Copyright © The.
1 2. Introduzione alla probabilità Definizioni preliminari: Prova: è un esperimento il cui esito è aleatorio Spazio degli eventi elementari : è linsieme.
5) IL CAMPIONE CASUALE SEMPLICE CON RIPETIZIONE
2.VARIABILI CONTINUE A. Federico ENEA; Fondazione Ugo Bordoni Scuola estiva di fonetica forense Soriano al Cimino 17 – 21 settembre 2007.
Variabili casuali a più dimensioni
Bruno Mario Cesana Stefano Calza
Bruno Mario Cesana Stefano Calza
Inferenza Statistica Le componenti teoriche dell’Inferenza Statistica sono: la teoria dei campioni la teoria della probabilità la teoria della stima dei.
Definizioni di probabilità
Definizioni Chiamiamo esperimento aleatorio ogni fenomeno del mondo reale alle cui manifestazioni può essere associata una situazione di incertezza. Esempi:
Elementi di statistica Elementi di statistica M. Dreucci Masterclasses LNF Elementi di statistica M. Dreucci.
Chiara Mocenni – Analisi delle Decisioni – a.a Analisi delle Decisioni Probabilita condizionate Chiara Mocenni.
3. Processi Stocastici Un processo stocastico è una funzione del tempo i cui valori x(t) ad ogni istante di tempo t sono v.a. Notazione: X : insieme di.
Marco Riani STATISTICA A – K (60 ore) Marco Riani
Torna alla prima pagina Sergio Console Calcolo Combinatorio e cenni di calcolo delle Probabilità Istituzioni di Matematiche Scienze Naturali.
Esempio Ritorniamo al caso illustrato con i diagrammi di Venn e
Apprendimento Automatico: Apprendimento di Concetti da Esempi
Apprendimento Automatico: Apprendimento Bayesiano
Apprendimento Bayesiano
Apprendimento Automatico: Apprendimento Pigro (Lazy Learning)
Valutazione delle ipotesi
Apprendimento Automatico: Valutazione delle Prestazioni
Computational Learning Theory and PAC learning
Apprendimento Bayesiano
Apprendimento di Concetti da Esempi
DISTIBUZIONE BINOMIALE
Abbiamo visto un esempio di applicazione del teorema, ma a noi interessa l’applicazione del Teorema di Bayes alla combinazione delle informazioni, ovvero.
Appunti di inferenza per farmacisti
BIOINGEGNERIA S. Salinari Lezione 4.
LA PROBABILITA’.
Modelli probabilistici
Funzioni di densità (o di probabilità) congiunte.
Impostazione Assiomatica del Calcolo della Probabilità
Bayesian Learning Martedì, 16 Novembre 2004 Giuseppe Manco Readings: Sections , Mitchell Chapter 2, Bishop Chapter 4, Hand-Mannila-Smith Bayesian.
Determinazione Orbitale di Satelliti Artificiali Lezione 5
Lezione 4 Probabilità.
La Classificazione supervisionata
La probabilità Schema classico.
Calcolo delle Probabilità
1.PROBABILITÀ A. Federico ENEA; Fondazione Ugo Bordoni Scuola estiva di fonetica forense Soriano al Cimino 17 – 21 settembre 2007.
Probabilità probabilità Probabilità totale
Torna alla prima pagina Sergio Console Calcolo delle Probabilità seconda parte Istituzioni di Matematiche Scienze Naturali.
STATISTICA PER LA RICERCA SPERIMENTALE E TECNOLOGICA
Cap. 15 Caso, probabilità e variabili casuali Cioè gli ingredienti matematici per fare buona inferenza statistica.
è … lo studio delle caratteristiche di regolarità dei fenomeni casuali
La probabilità condizionata
Appunti conclusioni simulazione lancio dadi
Probabilità. Un percorso didattico esperimenti e simulazioni L. Cappello 9 Maggio Didattica probabilità e statistica PAS 2014.
2) PROBABILITA’ La quantificazione della ‘possibilità’ del verificarsi di un evento casuale E è detta probabilità P(E) Definizione classica: P(E) è il.
Spiegazione di alcuni concetti
PROBABILITÀ Corsi Abilitanti Speciali Classe 59A III semestre - 2.
Elementi di teoria delle probabilità
Informazioni “Moduli di MATEMATICA E STATISTICA”, S. INVERNIZZI, M. RINALDI, A, SGARRO, Ed. Zanichelli, Bologna Testo di riferimento da cui sono.
La probabilità matematica
1 VARIABILI CASUALI. 2 definizione Una variabile casuale è una variabile che assume determinati valori in modo casuale (non deterministico). Esempi l’esito.
1 TEORIA DELLA PROBABILITÁ. 2 Cenni storici i primi approcci alla teoria della probabilità sono della metà del XVII secolo (Pascal, Fermat, Bernoulli)
Probabilità Definizione di probabilità La definizione di probabilità si basa sul concetto di evento, ovvero sul fatto che un determinato esperimento può.
Un evento è un fatto che può accadere o non accadere. Se esso avviene con certezza si dice evento certo, mentre se non può mai accadere si dice evento.
Teoria dei Sistemi di Trasporto Tematica 4: Elementi minimi di teoria della probabilità.
Ragionamento Bayesiano Esercizi. Classificatore Naïve Bayes: richiami (credits: P. Velardi-uniroma1) Si applica quando le ipotesi in H sono rappresentabili.
Transcript della presentazione:

Apprendimento Automatico: Apprendimento Probabilistico Roberto Navigli 1 Apprendimento Automatico: Apprendimento Bayesiano

Apprendimento Automatico: Apprendimento Probabilistico Roberto Navigli 2 Caratteristiche dellApprendimento Bayesiano Ogni esempio di addestramento progressivamente decrementa o incrementa la probabilità stimata che unipotesi sia corretta La conoscenza pregressa può essere combinata con i dati osservati per determinare la probabilità finale di unipotesi I metodi Bayesiani possono fornire predizioni probabilistiche (es. questo paziente ha il 93% di possibilità di guarire) Nuove istanze possono essere classificate combinando le predizioni di ipotesi multiple, pesate con le loro probabilità Anche quando i metodi Bayesiani sono intrattabili computazionalmente, possono fornire uno standard di decisione ottimale rispetto al quale misurare metodi più pratici

Apprendimento Automatico: Apprendimento Probabilistico Roberto Navigli 3 Spazio di campionamento è linsieme degli esiti di una prova è lesito di una prova (es. il lancio del dado ha esito 2) A è un evento (sottoinsieme di ) Indichiamo con P(A) la probabilità (massa di probabilità) di un evento A (es: x=1, o x pari) Per ogni coppia di eventi A e B: A B Richiamo di concetti di calcolo delle probabilità

Apprendimento Automatico: Apprendimento Probabilistico Roberto Navigli 4 Probabilità congiunta Dati due eventi A e B, P(A) è la probabilità marginale dellevento A e P(B) quella dellevento B La probabilità congiunta che si verifichino entrambi gli eventi è P(A, B) Se i due eventi sono indipendenti, allora si ha: –P(A, B) = P(A) P(B)

Apprendimento Automatico: Apprendimento Probabilistico Roberto Navigli 5 Probabilità condizionata La probabilità condizionata dellevento B dato levento A (probabilità di un evento A supponendo che sia verificato un evento B) è data da: AB A B

Apprendimento Automatico: Apprendimento Probabilistico Roberto Navigli 6 Teorema di Bayes Sfruttando la definizione di probabilità condizionata si ottiene:

Apprendimento Automatico: Apprendimento Probabilistico Roberto Navigli 7 Classificatore Naïve Bayes Si applica al caso in cui le ipotesi in H sono rappresentabili mediante una congiunzione di valori di attributi e la classificazione è scelta da un insieme finito Y. Le istanze x in X sono descritte mediante m-uple di valori (x 1,x 2,..., x m ) associati agli m attributi di x Il classificatore naif si basa sullassunzione semplificativa che i valori degli attributi siano condizionalmente indipendenti, assegnato un valore della funzione obiettivo, cioè, dato un nuovo esempio x da classificare, calcoliamo:

Apprendimento Automatico: Apprendimento Probabilistico Roberto Navigli 8 Stima delle probabilità Le probabilità P(x i |c) vengono stimate osservando le frequenze nei dati di addestramento D Se D include n i esempi classificati c i, e n ij di questi n i esempi contengono il valore x j per lattributo j, allora:

Apprendimento Automatico: Apprendimento Probabilistico Roberto Navigli 9 Naïve Bayes: Esempio Y = {allergia, raffreddore, in_salute} (possibili classi) x 1 = starnuti (sì, no) ; x 2 = tosse (sì, no) ; x 3 = febbre (sì, no) (attributi booleani) x = (1, 1, 0) come lo classifico? Probin salute raffred- dore allergia P(c) P( x 1 |c) P( x 2 |c) P( x 3 |c) { Dallinsieme D stimo le prob. a priori e condizionate es:

Apprendimento Automatico: Apprendimento Probabilistico Roberto Navigli 10 Esempio (continua) 40 esempi, 36 classificati in salute, 2 raffreddore, 2 allergia Per stimare, ad esempio, P(x 1 =1|in-salute), contare sui 36 esempi nei quali c(x)= in-salute quanti hanno x 1 =1 se 1 su 36, P(x 1 =1|in-salute)=1/36=0,027 Analogamente avrò, ad es.: -P(x 1 =1|raffreddore)=2/2=1 -P(x 1 =1|allergia)=2/2=1 -ecc.

Apprendimento Automatico: Apprendimento Probabilistico Roberto Navigli 11 Devo calcolare il massimo al variare di c di: Quindi ad esempio per c=raffreddore Analogamente, troverò: Esempio (continua)

Apprendimento Automatico: Apprendimento Probabilistico Roberto Navigli 12 Problemi con Naive Bayes Se D è piccolo, le stime sono inaffidabili (nellesempio precedente alcune stime sono = 1!) Un valore raro x k può non capitare mai in D e dunque: – c: P(x k | c) = 0. Analogamente, se ho un solo esempio di una classe c, – x k : P(x k | c) = 1 o P(x k | c) = 0.

Apprendimento Automatico: Apprendimento Probabilistico Roberto Navigli 13 Smoothing Per tener conto di eventi rari, si operano degli aggiustamenti sulle probabilità detti smoothing Laplace smoothing con una M-stima assume che ogni evento x j abbia una probabilità a priori p, che si assume essere stata osservata in un campione virtuale di dimensione M > del campione reale Nellesempio precedente, ad es. M è una costante che determina il peso dello smoothing In assenza di altre informazioni, si assume p = 1/k dove k è il numero di valori dellattributo j in esame

Apprendimento Automatico: Apprendimento Probabilistico Roberto Navigli 14 Un esempio Classificazione automatica di documenti –Un documento rappresentato come un elenco di termini t j (j=1,…,|V|), dove V è il vocabolario –Rappresentiamo un documento x con il vettore x = (x 1,x 2 …,x |V| ) dove x j =1 se il termine t j è presente (0 altrimenti) –D = { (x i, y i ) } insieme di addestramento di documenti già classificati –Y = { sport, politica,..., scienze } –Stimare, sulla base di D, le P(t j |c)