La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Data Mining e Scoperta di Conoscenza. Outline Introduzione al Semi-Supervised Learning Algoritmi di semi-supervised learning Self Training Generative.

Presentazioni simili


Presentazione sul tema: "Data Mining e Scoperta di Conoscenza. Outline Introduzione al Semi-Supervised Learning Algoritmi di semi-supervised learning Self Training Generative."— Transcript della presentazione:

1 Data Mining e Scoperta di Conoscenza

2 Outline Introduzione al Semi-Supervised Learning Algoritmi di semi-supervised learning Self Training Generative Models T-SVMs Inductive models vs. Trasductive models Graph-based Algorithms Multiview Algorithms References

3 Introduzione al Semi-Supervised Learning Problema: Predizione del comportamento di un dato sistema Input: Insieme di campioni, estratti dal dominio del sistema, di cui è nota la classificazione Insieme di campioni del dominio la cui categorizzazione non è nota Output: Un modello di predizione addestrato sul campione etichettato e sullinsieme di dati la cui classe è sconosciuta

4 Introduzione al Semi-Supervised Learning Perché il semi-supervised learning? I campioni non etichettati sono economici I campioni etichettati spesso sono costosi Lannotazione umana è noiosa e dispendiosa Le etichette spesso richiedono conoscenza di dominio e consultazione di esperti del settore Le etichette richiedono a volte lutilizzo di dispositivi specializzati Possibili miglioramenti della qualità della predizione a basso costo

5 Introduzione al Semi-Supervised Learning Notazione: campione x, etichetta y Predittore Dati etichettati Dati senza etichetta, disponibili durante laddestramento Solitamente Test Set, non disponibile durante laddestramento

6 Introduzione al Semi-Supervised Learning A cosa servono i campioni senza categorizzazione? Assumendo che ogni classe sia un gruppo ben localizzato Il decision boundary viene spostato

7 Introduzione al Semi-Supervised Learning Non sempre il semi-supervised learning porta a miglioramenti della qualità dei predittori

8 Self Training Algoritmo: 1. Addestra un modello (a scelta) f su 2. Effettua la predizione su un 3. Aggiunge al training set 4. Torna al passo 2 fino al soddisfacimento (dipende dalle diverse varianti) 5. Addestra nuovamente f sul nuovo training set ottenuto 6. Torna al passo 2 fino al soddisfacimento (dipende dalle diverse varianti) rimuovendo, se si desidera, dal training set i campioni aggiunti Assunzione: La predizione ottenuta ad ogni passo ha una buona qualità

9 Self Training Varianti: Quante e quali tuple aggiungere al training set? Quante volte addestrare il modello scelto? Quante e quali tuple rimuovere dal training set arricchito?

10 Self Training Pro: Il più semplice algoritmo di self training E di facile adattamento ad ogni algoritmo di predizione tradizionale Contro: Gli errori del modello scelto vengono potenziati Non sempre converge

11 Generative Models Dati etichettati: Supponendo che i dati siano governati da distribuzioni guassiane, qual è il decision boundary?

12 Generative Models Nellesempio proposto si hanno due classi, quindi: Il vettore di parametri I Gaussian Mixture Models (GMMs) La classificazione si calcola

13 Generative Models Il modello più verosimile con relativo decision boundary

14 Generative Models Aggiungendo i campioni non etichettati

15 Generative Models Il modello più verosimile con relativo decision boundary

16 Generative Models La differenza: i modelli massimizzano quantità diverse

17 Generative Models Modelli generativi per il semi-supervised learning Tendono a quantificare Attraverso le ipotesi MLE: stima di massima verosimiglianza MAP: stima della massima probabilità a posteriori Approcci Bayesiani

18 Generative Models Esempio: GMM con MLE logaritmica con k classi Dai dati etichettati Facile calcolare i parametri con un approccio MLE (vedi lEM – Expectation Maximization) Dai dati non etichettati

19 Generative Models Il modello con i dati non etichettati è molto più complesso Soluzioni: EM Approssimazioni variazionali Ottimizzazioni dirette

20 Generative Models Pro Possiedono un framework matematico probabilistico molto forte Se il modello è scelto con criterio, allora ottengono ottimi risultati Contro Difficile è la verifica del modello Trovano ottimi locali Se il modello scelto non è corretto allora le tuple non etichettate degradano la qualità

21 Generative Models Esempio di modello non corretto

22 T-SVMs Le Trasductive Support Vector Machines (T-SVMs) sono lestensione al semi-supervised learning delle SVMs

23 T-SVMs Le SVMs cercano liperpiano di separazione che tende a massimizzare il margine tra le etichette dei campioni. w H+H+ H-H- M d

24 T-SVMs Le T-SVMs massimizzano anche un margine, che dipende non solo dai campioni etichettati ma anche dai dati senza categorizzazione SVM T-SVM

25 T-SVMs

26 Pro Utilizzabili ovunque siano utilizzabili le SMV Hanno un ben definito framework matematico Contro: Ottimizzazione complessa Trovano ottimi locali Approccio trasduttivo e non generativo (induttivo)

27 Inductive models vs. Trasductive models Linduzione (alla base della maggior parte delle tecniche di learning) è un procedimento attraverso il quale si cerca di stabilire una legge universale (modello generativo globale) da un insieme di casi specifici Approccio generale, valido per ogni istanza del dominio Complessità nel generare i modelli Obiettivo ben più modesto si pone lapproccio transductive a cui non interessa la costruzione di un modello globale ma semplicemente costruire un modello che sia adatto ad uno specifico insieme di istanze Approccio diretto sui dati modelli semplici e specifici Trova una soluzione solo per i dati in input Nuovi dati comportano un nuovo addestramento

28 Graph-based Algorithms I dati sono visti come nodi di un grafo I legami tra i dati sono indicati attraverso gli archi (pesati) di un grafo Assunzione di base: Istanze connesse da legami forti tendono ad avere la stessa etichetta di classe

29 Graph-based Algorithms Attraverso le istanze non etichettate è possibile cogliere strutture interessanti nei dati

30 Graph-based Algorithms Il legame tra le istanze può essere matematicamente definito attraverso le funzioni di similarità e distanza, es.: Modelli k-NN Modelli a decadimento di similarità Similarità lungo i percorsi:

31 Graph-based Algorithms Pro: Possiedono un ben definito framework matematico Ottima qualità dei risultati, se il grafo è adatto ai dati Contro Sono sensibili alla struttura dei grafi e dei pesi dei loro archi Bassa qualità dei risultati, se il grafo è non adatto ai dati

32 Multiview Algorithms Idea: analizzare i dati sotto aspetti diversi I dati possono essere divisi per caratteristiche indipendenti Da queste partizioni (che comprendono anche dati non etichettati) si generano più modelli I modelli generati, in combinazione, effettuano la predizione finale

33 Multiview Algorithms Esempio. Analisi di pagine web Le pagine web possono contenere testo ed immagini Si possono dividere le informazioni multimediali dal testo Si possono addestrare due modelli: uno sul testo ed uno sulle immagini La classificazione delle pagine web avverrà tramite la combinazione dei due modelli

34 Multiview Algorithms Idee di base dellalgoritmo Co-training: Si divide il data set in due porzioni condizionalmente indipendenti Ogni partizione deve essere popolata da un numero sufficiente di campioni, tale da permettere laddestramento di un predittore Si addestrano due modelli di predizione sui due diversi sotto data set I modelli si addestrano vicendevolmente

35 Multiview Algorithms Nel dettaglio: 1. Divide in e 2. Addestra f 1 su ed f 2 su 3. Classifica X u con f 1 ed f 2 separatamente 4. Aggiungi al training set i campioni (x, f(x)) di X u che hanno maggiore confidenza per f 1 ed f 2 5. Riaddestra sul nuovo training set f 1 ed f 2 6. Torna al passo 3 fino al soddisfacimento (dipende dalle diverse varianti) rimuovendo, se si desidera, dal training set i campioni aggiunti

36 Multiview Algorithms Co-training pro: Molto semplice, come il self training. Adattabile a tutti i predittori esistenti Meno sensibile agli errori rispetto al self training Co-training contro: Le suddivisioni dei dati potrebbero non essere significative Modelli che usano tutti i dati potrebbero risultare migliori

37 References Olivier Chapelle, Alexander Zien, Bernhard Scholkopf (Eds.). (2006). Semi-supervised learning. MIT Press. Xiaojin Zhu (2005). Semi-supervised learning literature survey. TR University of Wisconsin-Madison Department of Computer Science. Matthias Seeger (2001). Learning with labeled and unlabeled data. Technical Report. University of Edinburgh.


Scaricare ppt "Data Mining e Scoperta di Conoscenza. Outline Introduzione al Semi-Supervised Learning Algoritmi di semi-supervised learning Self Training Generative."

Presentazioni simili


Annunci Google