Classificazione con Weka

Slides:



Advertisements
Presentazioni simili
Algoritmi e Strutture Dati
Advertisements

Strutture dati per insiemi disgiunti
Ricorrenze Il metodo di sostituzione Il metodo iterativo
Estendere i linguaggi: i tipi di dato astratti
Proprietà degli stimatori
Data warehousing con SQL Server
1 Il punto di vista Un sistema è una parte del mondo che una persona o un gruppo di persone, durante un certo intervallo di tempo, sceglie di considerare.
Algoritmi e Strutture Dati
Inferenza Statistica Le componenti teoriche dell’Inferenza Statistica sono: la teoria dei campioni la teoria della probabilità la teoria della stima dei.
RB-alberi (Red-Black trees)
1 Istruzioni, algoritmi, linguaggi. 2 Algoritmo per il calcolo delle radici reali di unequazione di 2 o grado Data lequazione ax 2 +bx+c=0, quali sono.
Regressione lineare Metodi Quantitativi per Economia, Finanza e Management Esercitazione n°10.
Regressione lineare Metodi Quantitativi per Economia, Finanza e Management Esercitazione n°8.
Capitolo 3 Strutture dati elementari Algoritmi e Strutture Dati.
Camil Demetrescu, Irene Finocchi, Giuseppe F. ItalianoAlgoritmi e strutture dati Copyright © The McGraw - Hill Companies, srl 1 Strutture dati per.
Algoritmi e Strutture Dati Capitolo 2 Modelli di calcolo e metodologie di analisi.
Algoritmi e Strutture Dati
Apprendimento Automatico: Apprendimento Pigro (Lazy Learning)
Valutazione delle ipotesi
Apprendimento Automatico: Valutazione delle Prestazioni
Computational Learning Theory and PAC learning
U V U V (a) |cfc|=2 prima e dopo (b) |cfc|=2 prima e |cfc|=1 dopo
Algoritmo di Ford-Fulkerson
ALBERI DECISIONALI prima parte
Camil Demetrescu, Irene Finocchi, Giuseppe F. ItalianoAlgoritmi e strutture dati Algoritmi e Strutture Dati Capitolo 2 Modelli di calcolo e metodologie.
Algoritmi e Strutture Dati
Capitolo 4 Ordinamento Algoritmi e Strutture Dati.
Camil Demetrescu, Irene Finocchi, Giuseppe F. ItalianoAlgoritmi e strutture dati Algoritmi e Strutture Dati Capitolo 2 Modelli di calcolo e metodologie.
Camil Demetrescu, Irene Finocchi, Giuseppe F. ItalianoAlgoritmi e strutture dati Capitolo 12 Minimo albero ricoprente: Algoritmi di Prim e di Borůvka Algoritmi.
Capitolo 4 Ordinamento Algoritmi e Strutture Dati.
Processi Aleatori : Introduzione – Parte I
Corso di Informatica (Programmazione)
1 Corso di Laurea in Biotecnologie Informatica (Programmazione) Problemi e algoritmi Anno Accademico 2009/2010.
Metodi Quantitativi per Economia, Finanza e Management Lezione n° 9.
TECNOLOGIE DEI SISTEMI DI CONTROLLO
Waikato Environment for Knowledge Analysis
PATTERN RECOGNITION.
Corso di Laurea in Ingegneria per lAmbiente e il Territorio Informatica per lAmbiente e il Territorio Docente: Giandomenico Spezzano Tutor: Alfredo Cuzzocrea.
Lezione 8 Numerosità del campione
Num / 36 Lezione 9 Numerosità del campione.
DBMS ( Database Management System)
Manipolazione dei dati
Elementi di Informatica di base
Il MODULO PREVENTIVI fa parte dei moduli opzionali di ASPAN e serve a preventivare i costi di Nesting.
Lezioni di Ricerca Operativa Corso di Laurea in Informatica
2000 Prentice Hall, Inc. All rights reserved. Capitolo 10 (Deitel) Strutture, unioni ed enumerazioni Sommario Introduzione Definire le strutture.
Prof. Cerulli – Dott.ssa Gentili
Le distribuzioni campionarie
Camil Demetrescu, Irene Finocchi, Giuseppe F. ItalianoAlgoritmi e strutture dati Copyright © The McGraw - Hill Companies, srl 1 K 4 è planare? Sì!
Capitolo 3 Strutture dati elementari Algoritmi e Strutture Dati Camil Demetrescu, Irene Finocchi, Giuseppe F. Italiano.
Project Management La programmazione della produzione Ing
STATISTICA PER LE DECISIONI DI MARKETING
Camil Demetrescu, Irene Finocchi, Giuseppe F. ItalianoAlgoritmi e strutture dati Capitolo 12 Minimo albero ricoprente: Algoritmi di Prim e di Borůvka Algoritmi.
Costruire una tabella pivot che riepiloghi il totale del fatturato di ogni agente per categorie di vendita, mese per mese. Per inserire una tabella pivot.
Microsoft Access (parte 5) Introduzione alle basi di dati Scienze e tecniche psicologiche dello sviluppo e dell'educazione, laurea magistrale Anno accademico:
Metaclassificazione Giovedì, 18 novembre 2004 Francesco Folino ( Combinare Classificatori Lecture 8.
Modulo 6 Test di verifica
Metodi matematici per economia e finanza. Prof. F. Gozzi
1 PerfectFit06 Sistema di personalizzazione dei contenuti per gli scavi archeologici di Ercolano Candidato: Vincenzo Scognamiglio Relatore: Prof. Ernesto.
Modulo 5 - Database. Contenuti della lezione 5.1.1Concetti Fondamentali 5.1.2Organizzazione di un Database 5.1.3Relazioni 5.2.1Lavorare con i database.
Microsoft Access Maschere (II).
I modelli Predittivi: Traning e Validation data set
Regressione lineare Metodi Quantitativi per Economia, Finanza e Management Esercitazione n°8.
DATA MINING PER IL MARKETING Andrea Cerioli Sito web del corso GLI ALBERI DI CLASSIFICAZIONE Introduzione alla metodologia Zani-Cerioli,
Microsoft Access Filtri, query. Filtri Un filtro è una funzione che provoca la visualizzazione dei soli record contenenti dati che rispondono a un certo.
TRATTAMENTO STATISTICO DEI DATI ANALITICI
REALIZZAZIONE DI UN SISTEMA DI CLASSIFICAZIONE Prof. Roberto Tagliaferri Studente: Ragognetti Gianmarco Corso di Reti Neurali e Knowledge Discovery A.A.
Psicometria modulo 1 Scienze tecniche e psicologiche Prof. Carlo Fantoni Dipartimento di Scienze della Vita Università di Trieste Campionamento.
Introduzione a Weka Di Fabio Cassano
La funzione CASUALE. Gli istogrammi.
Transcript della presentazione:

Classificazione con Weka a.a. 2008/2009 Sistemi Informativi per le Decisioni LS Classificazione con Weka Boaretti Martini Tassinari

indice 0 – Introduzione 1 – Principi base di classificazione 2 – Il package weka.classifier 3 – Algoritmi di classificazione: J48, RepTree e M5rules 4 – Classificazione con Weka.. Operativamente.. 5 – Case study: Supporto alla gestione di call center 17/03/2009 Sistemi Informativi per le Decisioni Boaretti Martini Tassinari Classificazione con Weka

…facciamo il giochino di “Ok il prezzo è giusto”… KDD – lo scenario …facciamo il giochino di “Ok il prezzo è giusto”… CLASSIFICAZIONE CLUSTERING REGOLE ASSOCIATIVE 17/03/2009 Sistemi Informativi per le Decisioni Boaretti Martini Tassinari Classificazione con Weka

Principi base di classificazione Obiettivo: estrarre modelli che descrivono classi di dati per: predire valori categorici predire valori continui Processo: costruzione del modello a partire da un insieme predeterminato di classi o concetti (training set) predizione delle classi per i dati del test set (validazione del modello) predizione delle classi per nuovi dati NB: Stimare l’accuratezza del classificatore 17/03/2009 Sistemi Informativi per le Decisioni Boaretti Martini Tassinari Classificazione con Weka

Il package weka.classifiers Contiene implementazioni degli algoritmi più comunemente utilizzati per classificazione e predizione numerica. La classe più importante è Classifier, che definisce la struttura generale di un qualsiasi schema di classificazione o predizione; Contiene due metodi, buildClassifier() e classifyInstance(), che debbono essere implementati da tutti gli algoritmi di apprendimento, Ogni algoritmo di apprendimento è una sottoclasse di Classifier e ridefinisce questi metodi. 17/03/2009 Sistemi Informativi per le Decisioni Boaretti Martini Tassinari Classificazione con Weka

Tipi di Classificazione (I) Categoria di classificatore Strumenti usati Bayes Reti bayesiane Functions Regressione lineare,reti neurali, SVM Lazy Somiglianza Meta Bagging, Boosting, Stacking, Regression via classification, Classification via regression, Cost sensitive classification Mi Algoritmi per dati multi-istanze Misc Creazione di intervalli di caratteristiche e assegnazione di punteggi alla classe in base alle caratteristiche presenti per l’istanza (peso locale) Trees Alberi decisionali Rules Regole associative 17/03/2009 Sistemi Informativi per le Decisioni Boaretti Martini Tassinari Classificazione con Weka

Tipi di Classificazione (II) Reti Bayesane  Una Rete Bayesiana (Bayesian Network) rappresenta la distribuzione della probabilità congiunta di un insieme di variabili. La B.N. viene risolta mediante specifici algoritmi, basandosi sullo stato delle variabili osservabili e delle probabilità a-priori rappresentate dagli archi nelle relazioni fra variabili, valutando le probabilità a-posteriori degli stati incogniti. In questo senso le B.N. possono essere considerate come uno strumento di investigazione e previsione. Matematicamente, una Rete Bayesiana è un grafo aciclico orientato in cui: nodi = variabili o stati; archi = relazioni di dipendenza statistica tra le variabile e le distribuzioni locali di probabilità dei nodi foglia rispetto ai valori dei nodi padre. Schema della relazione fra un nodo ed i padri in una generica rete bayesiana. La mancanza di un arco fra due nodi riflette la loro indipendenza condizionale. Al contrario, la presenza di un arco dal nodo Xi al nodo Xj può essere interpretata come il fatto che Xi sia causa diretta di Xj. 17/03/2009 Sistemi Informativi per le Decisioni Boaretti Martini Tassinari Classificazione con Weka

Tipi di Classificazione (III) Rete Neurale In ogni nodo intermedio il dato di input viene rielaborato secondo determinate funzioni, fino ad ottenere l’output. INPUT NODI INTERMEDI OUTPUT 17/03/2009 Sistemi Informativi per le Decisioni Boaretti Martini Tassinari Classificazione con Weka

Tipi di Classificazione (IV) Lazy somiglianza Instance-based= classifica l’istanza comparandola ad un database di esempi preclassificati. Idea di base= istanze simili avranno classificazione simile Problema= come definire “istanze simili” e “classificazioni simili”??? Alcuni algoritmi: Nearest neighbour (il più semplice) IB1, IB2 ecc (continui miglioramenti del precedente) K* (entropia come misura di distanza) 17/03/2009 Sistemi Informativi per le Decisioni Boaretti Martini Tassinari Classificazione con Weka

Tipi di Classificazione (V) Meta =metodo euristico per la risoluzione di una classe di problemi di calcolo mediante la combinazione di dati-utente e una procedura black-box - di solito l'euristica stessa - nella speranza di ottenere una più efficiente o più robusta procedura. Il nome unisce il prefisso greco "meta" ( "oltre", qui nel senso di "livello superiore") e "euristico" (da ευρισκειν, heuriskein, "per trovare"). Esempi: Bootstrap aggregation (bagging) è un meta-algoritmo per migliorare l'apprendimento automatico di classificazione e modelli di regressione in termini di stabilità e precisione di classificazione. Si riduce anche la varianza e contribuisce a evitare overfitting. Anche se di solito è applicato a modelli di albero di decisione, esso può essere utilizzato con qualsiasi tipo di modello. Dato un training set D di dimensione n, bagging genera m Di nuovi insiemi di dimensione n' ≤ n, con istanze di campionamento da D in modo uniforme e con la sostituzione. Con il campionamento con la sostituzione, è probabile che alcune istanze saranno ripetute in ogni Di. Se n' = n, allora per n grande il set Di dovrebbe avere il 63,2% di esempi unici di D, il resto sono doppioni. Il risultato è detto campione di bootstrap. Gli m modelli sono adattati con gli m campioni di bootstrap e combinati con una media di uscita (per regressione) o in fase di voto (per la classificazione). Boosting è un algoritmo di machine learning per l'esecuzione di algoritmi di apprendimento supervisionato. Si basa sulla questione posta da Kearns: può una serie di weak learners creare un unico strong learner? Un weak learner è definito come un classificatore che è solo di poco correlato con la vera classificazione. Al contrario, un strong learner è un classificatore che arbitrariamente è ben correlato con la vera classificazione. La maggior parte degli algoritmi di boosting consiste nel potenziare iterativamente i classificatori deboli nei confronti di una distribuzione e aggiungerli ad un classificatore forte finale. Quando vengono aggiunti sono tipicamente ponderati in qualche modo, che è di solito legato alla precisione del weak learner stesso. Dopo che un weak learner è aggiunto, i dati vengono nuovamente pesati: istanze classificate male guadagno di peso, quelle classificate correttamente perdono peso. Pertanto, i futuri weak learners si concentrano maggiormente sulle istanze che i precedenti weak learners classificavano erroneamente. 17/03/2009 Sistemi Informativi per le Decisioni Boaretti Martini Tassinari Classificazione con Weka

Tipi di Classificazione (VI) Multi - Istanze È una tecnica di classificazione supervisionata caratterizzata da: Multi istanze Una sola class label osservabile per tutte le istanze Formato dei dati: bag-id - attributo nominale; unico identificatore per ogni bag bag - attributo relazionale; contiene le istanze class - class label Esempio: Nell’esempio che segue, gli attributi f1 - f166 sono raccolti all’interno di un unico attributo, quello relazionale 17/03/2009 Sistemi Informativi per le Decisioni Boaretti Martini Tassinari Classificazione con Weka

attributo relazionale FORMATO “TRADIZIONALE” FORMATO MULTI-ISTANZA attributo relazionale

Classificazione con weka (I) Selezionare il Classificatore e impostare le opzioni “principali” es. Choose>Classifier>tree>j48; Tastosinistro:Options: binarySplits>true; confidenceFactor=0,25.. Test Options Training set: il classificatore è valutato in base alla correttezza della predizione effettuata sulle istanze usate per produrre il modello; Test set supplementare: il classificatore è valutato grazie a un test set supplementare appositamente caricato da file; Cross-validation: i record vengono suddifisi in un certo numero di folds (inserito tramite il campo Folds). Ogni fold “a turno” funge da test set (la parte restante dei dati fa il train) e infine si calcola il mean square error Percentage split: il classificatore è valutato in base alla correttezza della predizione effettuata su una % di dati tenuti da parte appositamente per il testing. La % desiderata è inserita tramite il campo Percentage Split. NB: sarebbe utile in fase di preprocessign andare ad applicare il filtro “randomize” per “mescolare” l’ordine delle tuple. Altre opzioni possono essere selezionate tramite il tasto More options 17/03/2009 Sistemi Informativi per le Decisioni Boaretti Martini Tassinari Classificazione con Weka

Classificazione con weka (II) Selezionare la Class Attribute Abbiamo diversi tipi di classificatori in Weka: alcuni possono predire soltanto attributi Categorici, altri predicono soltanto attributi Numerici (Regression Tree), alcuni riescono a predire entrambe le tipologie di dati. Di default come Class Attribute (ovvero l’attributo oggetto della predizione) viene preso l’ultimo attributo presente nella base dati. Tuttavia è possibile selezionarne uno diverso dalla lista apribile sotto la Test Option. Prova del classificatore - Start 17/03/2009 Sistemi Informativi per le Decisioni Boaretti Martini Tassinari Classificazione con Weka

Classificazione con weka (III) Output classificatore Run information: il programma di apprendimento opzioni, nome della relazione, n°istanze, attributi e le modalità di prova che sono stati coinvolti nel processo. Classifier model (full training set): Il testo del modello di classificazione che è stato prodotto sull’intero training set. I risultati della scelta sulle Test Options sono così ripartiti: c.1 Summary. un elenco di statistiche che riassume come il classificatore è stato in grado di predire la classe delle istanze del Test set c.2. Detailed Accuracy By Class: informazioni dettagliate sulla precisione ci ogni classe di predizione c.3. Confusion Matrix: mostra il numero di casi che sono stati assegnati a ciascuna classe. In particolare sulla diagonale si indivuano i valori classificati correttamente, vicerversa nelle restanti celle si individuano gli errori di predizione. c.4. Source code: codice sorgente (opzionale tramite More Options). 17/03/2009 Sistemi Informativi per le Decisioni Boaretti Martini Tassinari Classificazione con Weka

Classificazione con weka (IV) Lista dei Risultati – Result List In tale lista (in basso a sinistra) sono disponibili i risultati ottenuti coi diversi classificatori provati. Ogni voce della lista permette di: Visualizzare la Classifier Output Eliminare il risultato prodotto (canc) Effettuare una delle seguenti operazioni disponibili cliccando il pulsante destro del mouse: View in main/separate window Save result buffer Save/Load model Re-evaluate model on current test set. Visualize classifier errors Visualize tree or Visualize graph Visualize margin curve Visualize threshold curve Visualize cost curve Plugins 17/03/2009 Sistemi Informativi per le Decisioni Boaretti Martini Tassinari Classificazione con Weka

J48 (I) Class for generating a pruned or unpruned C4.5 decision tree Il classificatore J48 è un discendente del C4.5 classifier, il quale si basa sul seguente algoritmo: 1. si utilizza un sottoinsieme del dataset (chiamato “finestra") scelto casualmente come training set; 2. si utilizza la finestra corrente per la costruzione di un albero di decisione con tecniche che fanno uso della teoria dell'informazione; 3. si verifica l'errore di classicazione dell'albero costruito sui dati rimanenti (test set); 4. si incrementa la dimensione della finestra aggiungendo dei pattern che sono stati classificati erroneamente, fino a un numero massimo stabilito; 5. si ripetono iterativamente i passi 2, 3 e 4 fino a quando si ottiene un albero che classifica correttamente tutti i pattern del training set, oppure quando il tasso d'errore dell'ultimo albero costruito risulta maggiore a o uguale a quello dell'albero precedente; 6. si può poi effettuare un'operazione di pruning sull'albero di decisione ottenuto. 17/03/2009 Sistemi Informativi per le Decisioni Boaretti Martini Tassinari Classificazione con Weka

J48 (II) ID3 (l’algoritmo base del C4.5) usa l’Information Gain per ordinare gli attributi sui quali costruire l’albero: dove freq(Ci,S) è la frequenza della classe Ci nel set S Ti rappresenta un subset del set T (assumendo di splittare su X)   L’approccio è di scegliere per lo split l’attributo X col massimo Gain. Questo criterio può essere migliorato perché produce una forte distorsione a favore delle prove che hanno molti risultati. Così C4.5 cerca di normalizzare questo fenomeno nel seguente modo: Gain-ration(X) = Gain(X)/ Split-info(X) Quando l’albero è costruito e non è possibile farlo crescere ulteriormente inizia la fase di “potatura”: Pruning: consiste nel sostituire con un nodo foglia un sottoalbero. La sostituzione è opportuna quando il tasso di errore previsto nel subtree è maggiore rispetto a quello della singola foglia. Per fare Pruning si utilizza il confidenceFactor 17/03/2009 Sistemi Informativi per le Decisioni Boaretti Martini Tassinari Classificazione con Weka

J48 (III) OPTIONS binarySplits : da la possibilità di fare split categorici. confidenceFactor : è usato per il pruning: serve per decidere se tagliare o meno un determinato sottoalbero; a valori maggiori del condence-factor corrisponde un albero più complesso; Debug : se vero, il classificatore può dare informazioni addizionali in console. minNumObj : il numero minimo di istanze per foglia. numFolds : determina la quantità di dati usati per ridurre l’errore dovuto al pruning. Una partizione (fold) è usata per il pruning, il resto per sviluppare l’albero. reducedErrorPruning : se tale campo viene settato, si effettua un reduced-error pruning invece del pruning di default C.4.5 pruning. saveInstanceData : per salvare il training set per la visualizzazione. Seed : il seme usato per mescolare i dati quando il “reduced-error pruning” viene settato. subtreeRaising : serve per “raccogliere” il sottoalbero che è stato potato. unpruned :se non si vuole “potare”. useLaplace : attenuazione basata su Laplace 17/03/2009 Sistemi Informativi per le Decisioni Boaretti Martini Tassinari Classificazione con Weka

REPtree Fast decision tree learner Costruisce un decision o regression tree usando l’information gain (o variance) e pota i rami usando un reduced-error pruning. Genera solo valori per attibuti numerici. I valori mancanti sono trattati dalla suddivisione in pezzi delle corrispondenti istanze. OPTIONS Debug maxDepth : la massima profondità di albero (-1 per nessuna restrizione). minNum : il minimo peso totale di peso delle istanze in una foglia. minVarianceProp : la minima proporzione della varianza su tutti i dati che ha bisogno di essere presente in un nodo, al fine di poter effettuare lo split negli alberi di regressione. noPruning : per effettuare o no potature. numFolds : Determina la quantità di dati usati per il pruning. (Solo una partizione di dati è usata per fare pruning, il resto dei dati vengono usati per ricavare le regole.) seed : Il seme utilizzato per “randomizzare” i dati. 17/03/2009 Sistemi Informativi per le Decisioni Boaretti Martini Tassinari Classificazione con Weka 20

M5rules (I) Questo motodo permette di generare Regole associative da Alberi di decisione. Un tree learner è applicato interamente al training dataset in modo da sviluppare un albero con potature (pruned). Successivamente si va alla ricerca della miglior foglia tramite le regole ai nodi, in modo da poter scartare le parti di albero non selezionate dal dato. Tutte le istanze corrispondenti alla regola sono rimosse dal dataset. Il processo è applicato ricorsivamente alle istanze rimanenti e termina quando tutte le istanze sono scoperte da una o più regole. L’approccio sul quale si basa M5rules è di costruire un modello di sottoalbero da ogni nodo e trovare la miglior foglia della regola. Costruire alberi parziali permette di migliorare l’efficienza computazionale, allo stesso modo non si va ad intaccare l’accuratezza e il peso delle regole. 17/03/2009 Sistemi Informativi per le Decisioni Boaretti Martini Tassinari Classificazione con Weka 21

M5rules (II) OPTIONS buildRegressionTree : se si vuole generare delle regression tree/rule invece di un semplice model tree/rule. debug : se vero, il classificatore può dare informazioni addizionali in console. minNumInstances : il minimo numero di istanze da consentire a un nodo foglia. unpruned : se devono essere generati alberi/regole non potate useUnsmoothed : se vogliamo usare predizioni “non smorzate”. Come si misura la bontà delle regole generate? Accanto a ogni regola sono presenti due valori: [coverage / % root mean square error] Coverage: copertura, cioè il numero di istanze che soddisfano tale regola Dove: Yi = actual class value for example i yi = class value predicted by the linear model at a leaf Nr = the number of examples covered by a leaf Y = is the mean class value N = is the total number of examples 17/03/2009 Sistemi Informativi per le Decisioni Boaretti Martini Tassinari Classificazione con Weka 22

Case Study In collaborazione con: 17/03/2009 Sistemi Informativi per le Decisioni Boaretti Martini Tassinari Classificazione con Weka

Case Study Obiettivo Sviluppo di un software per la previsione, l’ottimizzazione e la simulazione al fine del supporto alla gestione di call center e sportelli. Problema iniziale Studio di fattibilità per lo sviluppo di uno strumento di forecasting delle richieste, si vuole prevedere le chiamate al call center o gli arrivi allo sportello in ogni mezzora dell’orario di apertura. In fase di analisi del problema è stata considerata la possibilità di predire tale fenomeno, che risulta influenzato da molte dimensioni, con la tecnica della classificazione quantitativa (tramite metodologie di regressione lineare). Utilizzo di Weka come software per la creazione dell’albero di decisione 17/03/2009 Sistemi Informativi per le Decisioni Boaretti Martini Tassinari Classificazione con Weka

Case Study Preparazione dei dati di input FASE 1 Preparazione dei dati di input FASE 2 Creazione del modello di previsione (WEKA) FASE 3 Validazione del modello tramite test set Scelta del modello di classificazione più opportuno FASE 4 Sviluppo di un eseguibile per effettuare previsioni FASE 5 Forecasting di nuovi oggetti (previsione di nuove richieste) 17/03/2009 Sistemi Informativi per le Decisioni Boaretti Martini Tassinari Classificazione con Weka

1- Preparazione dati di input Dipendenze del fenomeno Mese (gennaio, febbraio, ecc); Giorno del mese (1,2,3,ecc); Giorno della settimana (lunedì, martedì, ecc); Giorno festivo o feriale; Numero di fascia (orario) di arrivo; Numero di giorni trascorsi dall’ultima bollettazione. Sono disponibili i dati consuntivi di un call center per i mesi di gennaio e febbraio, questi dati vengono estratti dal database di HeraComm (GEMI) e convertiti in un file arff, formato utilizzato da Weka per la generazione dell’albero. E’ stato anche creato un file csv con gli stessi dati, questo verrà utilizzato in futuro come input per l’eseguibile di previsione. 17/03/2009 Sistemi Informativi per le Decisioni Boaretti Martini Tassinari Classificazione con Weka

17/03/2009 Sistemi Informativi per le Decisioni Boaretti Martini Tassinari Classificazione con Weka

2- Creazione del modello di previsione Si è cercato di individuare: gli attributi che potessero evidenziare correlazioni esistenti tra i dati (es giorno della settimana modellato come attributo categorico); un set di algoritmi che meglio modellassero il fenomeno delle chiamate al call center; i parametri che permettessero una maggiore generalità del problema. 3- Validazione del modello Analisi comparativa di test set error e training set error per ogni algoritmo selezionato in precedenza. Selezione dell’algoritmo (e quindi del modello) con cui modellare la realtà 17/03/2009 Sistemi Informativi per le Decisioni Boaretti Martini Tassinari Classificazione con Weka

4- Sviluppo un eseguibile per eseguire predizioni E’ stato realizzato un eseguibile (scritto in C) che permettesse di leggere in ingresso un file csv (creato nella fase 1) contenente dei record (nuovi oggetti) rappresentanti nuove fasce orarie per cui determinare la quantità di chiamata e ne effettuasse la predizione. 5- Forecasting nuovi oggetti E’ stato utilizzato l’eseguibile creato in precedenza per eseguir la predizione del mese di marzo. 17/03/2009 Sistemi Informativi per le Decisioni Boaretti Martini Tassinari Classificazione con Weka

Mean Absolute Error = 17.23 (14,0%) GENNAIO Media afflussi = 122,3 Mean Absolute Error = 17.23 (14,0%) 17/03/2009 Sistemi Informativi per le Decisioni Boaretti Martini Tassinari Classificazione con Weka

Mean Absolute Error = 19.30 (15,5%) FEBBRAIO Media afflussi = 124,1 Mean Absolute Error = 19.30 (15,5%) 17/03/2009 Sistemi Informativi per le Decisioni Boaretti Martini Tassinari Classificazione con Weka

Grazie per l’attenzione!

Boaretti Martini Tassinari 17/03/2009 Sistemi Informativi per le Decisioni Boaretti Martini Tassinari Classificazione con Weka