Metodi di Ensemble Metaclassificatori.

Slides:



Advertisements
Presentazioni simili
Macchine di Percezione
Advertisements

Test delle ipotesi Il test consiste nel formulare una ipotesi (ipotesi nulla) e nel verificare se con i dati a disposizione è possibile rifiutarla o no.
Le distribuzioni di probabilità continue
Apprendimento Automatico Apprendimento supervisionato
2. Introduzione alla probabilità
A A1A1 A2A2 A C1C1 C1C1 C2C2 C2C2 C3C3 C4C4.
Sistemi di Classificazione usando NCD
Classe IV B A.s – 2009 Programma di Informatica 6 ore (3 laboratorio) Docenti –Prof. Alberto Ferrari –Prof. Alberto Paganuzzi.
LA PROGETTAZIONE DEL MIGLIORAMENTO
La teoria di portafoglio: cap.7-9
Il campo elettrico - Lo chiamiamo campo elettrico,
Fisica 1 Termodinamica 9a lezione.
Fisica 2 Elettrostatica
ERRORI L'errore è presente in ogni metodo analitico e può essere dovuto a cause diverse. L’errore può essere definito come la differenza tra il valore.
Primo sguardo a metodi multivariati per l'analisi del ttH
Teoria e Tecniche del Riconoscimento
Valutazione delle Prestazioni di un Classificatore
Apprendimento Automatico: Apprendimento Probabilistico Roberto Navigli 1 Apprendimento Automatico: Apprendimento Bayesiano.
Apprendimento Non Supervisionato
Apprendimento Automatico: Alberi di Decisione
Apprendimento Bayesiano
Alberi di Decisione decision trees
Apprendimento Automatico: Apprendimento Pigro (Lazy Learning)
Valutazione delle ipotesi
Apprendimento Automatico: Valutazione delle Prestazioni
Apprendimento di funzioni algebriche
Computational Learning Theory and PAC learning
Apprendimento Bayesiano
Dip. Economia Politica e Statistica
Comune di PISA ART. 5 PRE-INTESA NUOVO ORDINAMENTO PROFESSIONALE Per aggiungere alla diapositiva il logo della società: Scegliere Immagine dal menu Inserisci.
Realizzazione e caratterizzazione di una semplice rete neurale per la separazione di due campioni di eventi Vincenzo Izzo.
1 2. Analisi degli Algoritmi. 2 Algoritmi e strutture dati - Definizioni Struttura dati: organizzazione sistematica dei dati e del loro accesso Algoritmo:
BIOINGEGNERIA S. Salinari Lezione 4.
TECNOLOGIE DEI SISTEMI DI CONTROLLO
“Riconoscimento di Facce”
Apprendimento di movimenti della testa tramite Hidden Markov Model
Controllo delle operazioni su una macchina
TECNICHE DI APPROSSIMAZIONE
FUNZIONALE DELLA DENSITA’
Modelli simulativi per le Scienze Cognitive Paolo Bouquet (Università di Trento) Marco Casarotti (Università di Padova)
Modelli simulativi per le Scienze Cognitive Paolo Bouquet (Università di Trento) Marco Casarotti (Università di Padova)
Modelli simulativi per le Scienze Cognitive
Modelli probabilistici
Determinazione Orbitale di Satelliti Artificiali Lezione 5
L INFORMATICA A PIÙ DIMENSIONI. GLI STUDENTI E LINFORMATICA.
Intelligenza Artificiale Algoritmi Genetici
Metodo della moltiplicazione
Semi-Supervised Learning
Le distribuzioni campionarie
Tecniche descrittive Utilizzano modelli matematici per semplificare le relazioni fra le variabili in studio Il fine è la descrizione semplificata del fenomeno.
Unità 6 Test parametrici e non parametrici Test per la verifica della normalità Funzione di ripartizione.
Prof. Cerulli – Dott.ssa Gentili
STATISTICA PER LE DECISIONI DI MARKETING
Regressione e correlazione
Università degli Studi di Cagliari
P.L. Fabbri Gli Hard Disks sono oggetti molto affidabili. Strategie di Backup dei dati … fino a che non si guastano !!!
Misurare la diversità Alessandro Giuliani. La diversità può essere definita solo in riferimento ad una popolazione e per quanto riguarda una misura dotata.
Metaclassificazione Giovedì, 18 novembre 2004 Francesco Folino ( Combinare Classificatori Lecture 8.
Metodi Quantitativi per Economia, Finanza e Management Lezione n°9 Regressione lineare multipla: la stima del modello e la sua valutazione, metodi automatici.
PROPAGAZIONE DEGLI ERRORI:
Sistemi e Tecnologie Informatiche Verifica di correttezza di un programma.
Implementazione di dizionari Problema del dizionario dinamico Scegliere una struttura dati in cui memorizzare dei record con un campo key e alcuni altri.
IL CAMPIONE.
APPLICAZIONI DI INTELLIGENZA ARTIFICIALE ALLA MEDICINA 4.
APPROSSIMAZIONE DI FUNZIONI
DATA MINING PER IL MARKETING Andrea Cerioli Sito web del corso GLI ALBERI DI CLASSIFICAZIONE Introduzione alla metodologia Zani-Cerioli,
REALIZZAZIONE DI UN SISTEMA DI CLASSIFICAZIONE Prof. Roberto Tagliaferri Studente: Ragognetti Gianmarco Corso di Reti Neurali e Knowledge Discovery A.A.
Esercitazione N°5 Approssimazione di Funzioni. Esercizio 1 Costruzione di una rete RBF Il metodo più semplice per approssimare una funzione mediante reti.
In alcuni casi gli esiti di un esperimento possono essere considerati numeri naturali in modo naturale. Esempio: lancio di un dado In atri casi si definisce.
Psicometria modulo 1 Scienze tecniche e psicologiche Prof. Carlo Fantoni Dipartimento di Scienze della Vita Università di Trieste Campionamento.
Transcript della presentazione:

Metodi di Ensemble Metaclassificatori

... Metodi di Ensemble istanza in input C1 C2 Cn classificatori metodo di ensemble classificazione di ensemble

Come combinare i classificatori? Normalmente mediante una media pesata (supponiamo che le classi siano {-1, +1}): wi è il peso del classificatore Ci Si può estendere a un numero arbitrario classi Voting semplice (wk = wj per ogni k, j) Voting pesato (i pesi influenzano la scelta finale)

Metodi di Ensemble Mediano i risultati di modelli differenti (o stesso modello parametrizzato in modo differente) Perché? Normalmente hanno prestazioni migliori rispetto ai singoli classificatori Più resistenti al rumore Perché no? Richiedono più tempo Overfitting

Bagging Dato un insieme di addestramento D, generiamo n insiemi di addestramento Di (|Di|  |D|) Ciascun insieme di addestramento Di viene generato campionando esempi da D in modo uniforme (estratti con rimpiazzo) Bootstrapping Addestra n classificatori sugli n insiemi di addestramento ottenuti Media i risultati sui vari classificatori (se l’output è reale) oppure applica una tecnica di voting (se l’output è basato su classi)

Bagging: Esempio (Opitz, 1999) Insieme D 1 2 3 4 5 6 7 8 D1 D2 D3 D4

Boosting Può un insieme di classificatori “deboli” formare un classificatore “forte”? Il Boosting fornisce una risposta I classificatori vengono prodotti in sequenza Ciascun classificatore dipende dal precedente e tenta di migliorarne gli errori Gli esempi classificati in modo erroneo dai classificatori precedenti sono scelti più spesso o pesati maggiormente

Boosting . Campione pesato DT CT Campione pesato D2 C2 Training set D

Adaptive Boosting (AdaBoost) Si sceglie una distribuzione iniziale di selezione degli esempi (xi, yi), D1(i) = 1/m dato |D|=m e per i = 1, …, m For k = 1, …, T Definisce ek come la somma delle probabilità per le istanze misclassificate dai classificatori precedenti Apprendi un classificatore Ck che minimizzi l’errore ek (esci se ek  0.5 Calcola un peso k del classificatore Ck: Aggiorna la distribuzione: Dk+1(i) = Dk(i)ek se xi è classificato in modo errato, Dk+1(i) = Dk(i)e-k se xi è classificato in modo corretto “Rinormalizza” le probabilità (affinché sommino a 1) Combina i classificatori C1, …, Ck usando il voting pesato

AdaBoost: esempio + - + + - + - + - -

AdaBoost: esempio (k=1) + - + + - + - + - - C1

AdaBoost: esempio (k=1) + - + + - + - + - - C1

AdaBoost: esempio (k=2) + - + + - + - + - - C2

AdaBoost: esempio (k=2) + - + + - - + + - - C2

AdaBoost: esempio (k=3) + - + + C3 - - + + - -

AdaBoost: esempio (k=3) + - + + C3 - - + + - -

AdaBoost: H finale (T=3) . . .

AdaBoost Il classificatore finale è: Vantaggi: Svantaggi: Solo un parametro da apprendere: T Può essere combinato con qualsiasi classificatore “debole” Garanzie teoriche data una quantità sufficiente di dati e un buon classificatore “debole” Svantaggi: Suscettibile al rumore Dipende dal classificatore “debole” e dai dati Provate anche questa applet: http://www.cse.ucsd.edu/~yfreund/adaboost/index.html