La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

6. Architetture e paradigmi per l’analisi dei dati

Presentazioni simili


Presentazione sul tema: "6. Architetture e paradigmi per l’analisi dei dati"— Transcript della presentazione:

1 6. Architetture e paradigmi per l’analisi dei dati

2 SOMMARIO Sistemi informativi direzionali
Sistemi informativi e data warehouse Architettura di un Data Warehouse Analisi multidimensionale Implementazione di un Data Warehouse Indici per il Data Warehouse Progetto di un Data Warehouse Knowledge Discovery in database

3 SISTEMI INFORMATIVI DIREZIONALI

4 Modello aziendale

5 Scambio di Informazioni tra livelli
Il livello direzionale si occupa di quelle attività necessarie alla definizione degli obiettivi da raggiungere ed alle azioni, eventualmente correttive, da intraprendere per perseguirli. Il livello operativo viceversa si occupa delle attività attraverso cui l’azienda produce i propri servizi e prodotti. il livello direzionale fornisce informazioni sulle strategie da seguire al livello operativo al fine di perseguire gli obiettivi aziendali. il livello operativo fornisce a sua volta al livello direzionale informazioni sui risultati raggiunti.

6 Tipi di sistemi direzionali
la pianificazione strategica determina gli obiettivi generali dell’azienda il controllo direzionale definisce traguardi economici ovvero risultati da conseguire a medio termine e loro verifica il controllo operativo assicura che le attività procedano nel modo prefissato.

7 Tipologia delle informazioni
I sistemi direzionali trattano informazioni fortemente aggregate. Essi infatti devono fornire ai dirigenti aziendali dati sintetici - indicatori gestionali - quali medie, ricavi globali, che possano quantizzare l’andamento dell’azienda in certi intervalli temporali.

8 INDICATORI – MISURE - FONTI
Indicatore1 Indicatore2 Indicatore n ... ... Misura 1 Misura 2 Misura p ... Fonte 1 Fonte 2 Fonte m

9 Dimensioni di analisi delle informazioni aziendali
L’analisi delle prestazioni aziendali può inoltre essere condotta in diverse dimensioni: la dimensione tempo ; la dimensione prodotto : finalizzata all’analisi di costi e ricavi (i quali sono evidentemente indicatori contabili o monetari); la dimensione processi : finalizzata al controllo di indicatori di efficienza ed efficacia come la tempestività; la dimensione responsabilità : ad ogni centro così come indicato dall’organigramma aziendale possono essere associati alcuni indicatori che forniscono dei rendiconti sulle prestazioni dei singoli dirigenti; la dimensione cliente : al fine di analizzare redditività, volume di affari e bacino di utenza.

10 CRITICAL SUCCESS FACTORS
Nel metodo dei CSF (Critical Success Factor) l’analista, mediante opportune interviste ai manager aziendali interessati al sistema, individua quali siano le aree in cui essi ritengono necessario eccellere per il successo nel business. Queste aree costituiranno i CSF ai quali vengono abbinati opportuni indici di prestazione. Sarà quindi compito del progettista selezionare gli indicatori ritenuti migliori sulla base di alcuni criteri: Semplicità: è opportuno selezionare indicatori ricavabili da algoritmi semplici. Costo dell’informazione: inteso come costo per produrre un certo indicatore. Frequenza: inteso come tasso di campionamento dell’indicatore. Strutturazione dell’informazione.

11 CSF SETTORE PRODUZIONE AZIENDA X

12 KEY PERFORMANCES INDICATORS
Nel metodo dei KPI (Key Performances Indicators) l’analisi è rivolta alla determinazione di indicatori globali quali efficienza, qualità e servizi. Indicatori di efficienza: misurano la produttività e i costi di alcuni processi aziendali di interesse. Indicatori di qualità: misurano la conformità degli output del processo di trasformazione alle attese del cliente (un esempio sono gli scarti) Indicatori di servizio: misurano i tempi di risposta dell’azienda (time to market)

13 ESAME DI COPERTURA DEI CSF
I parametri individuati con i due metodi possono essere incrociati al fine di verificare che i processi aziendali siano monitorati attraverso indicatori correlati alle aree di successo aziendale critiche. Qualora si dovessero trovare dei CSF di rilievo scoperti vanno introdotti altri indicatori atti a coprirli, viceversa in presenza di ridondanze è possibile decidere di selezionare opportunamente degli indicatori rispetto ad altri.

14 LA STRUTTURA INFORMATICA DEL SID
Il sottosistema front-end comprende tutte quelle elaborazioni necessarie alla presentazione delle informazioni utili all’utente finale. Il sottosistema back-end provvede ad alimentare automaticamente la base dati direzionale in maniera periodica estraendo le informazioni di interesse per il SIA.

15 Struttura dettagliata dei SID

16 SISTEMI INFORMATIVI E DATA WAREHOUSE

17 Motivazioni del DW I sistemi informativi permettono di aumentare la produttività delle organizzazioni automatizzando in maniera integrata la gestione operativa e quotidiana dei processi di business. I dati ad essi connessi — se adeguatamente accumulati e analizzati — possono essere utilizzati per la pianificazione e il supporto alle decisioni In particolare, da una corretta gestione dei dati storici l’azienda può conseguire un grande vantaggio competitivo.

18 Sistemi di “business intelligence”
I sistemi di business Intelligence (BI) costituiscono la tecnologia che supporta la dirigenza aziendale nel prendere decisioni operative, tattiche e/o strategiche in modo efficace e veloce. Ma come?... mediante particolari tipologie di elaborazioni dette “analitiche” che usano in maniera integrata i dati dell’organizzazione combinati con eventuali dati esterni Operando su quali dati? … quelli accumulati dai processi operativi e gestionali

19 Tipi di elaborazione Nei Transaction Processing Systems:
On-Line Transaction Processing Nei Business Intelligence Systems: On-Line Analytical Processing

20 OLTP Tradizionale elaborazione di transazioni, che realizzano i processi operativi dell’azienda o ente. Operazioni predefinite, brevi e relativamente semplici Ogni operazione coinvolge “pochi” dati Dati di dettaglio, aggiornati Le proprietà “acide” (atomicità, correttezza, isolamento, durabilità) delle transazioni sono essenziali

21 OLAP Elaborazione di operazioni per il supporto alle decisioni
Operazioni complesse e casuali Ogni operazione può coinvolgere molti dati Dati aggregati, storici, anche non attualissimi Le proprietà “acide” non sono rilevanti, perché le operazioni sono di sola lettura

22 OLTP e OLAP OLTP OLAP Utente impiegato dirigente Funzione
operazioni giornaliere supporto alle decisioni Progettazione orientata all'applicazione orientata ai dati Dati correnti, aggiornati, dettagliati, relazionali, omogenei storici, aggregati, multidimensionali, eterogenei Uso ripetitivo casuale Accesso read-write, indicizzato read, sequenziale Unità di lavoro transazione breve interrogazione complessa Record acc. decine milioni N. utenti migliaia centinaia Dimensione 100MB - 1GB 100GB - 1TB Metrica throughput tempo di risposta

23 OLTP e OLAP I requisiti sono quindi contrastanti
Le applicazioni dei due tipi possono danneggiarsi a vicenda

24 Separazione degli ambienti
APPLICAZIONE OLTP UTENTI FINALI (Transazioni) OLTP Base di dati Data Warehouse APPLICAZIONE OLAP ANALISTI (Query complesse) OLAP

25 Data warehouse Una base di dati
orientata al soggetto dell’elaborazione: il dirigente aziendale integrata — aziendale e non dipartimentale con dati storici — con un ampio orizzonte temporale, e indicazione (di solito) di elementi di tempo con dati usualmente aggregati — per effettuare stime e valutazioni fuori linea e a sola lettura— i dati sono aggiornati periodicamente e sono solo interrogati mantenuta separatamente dalle basi di dati operazionali

26 ... orientata al soggetto ... E’ una collezione di dati orientata al soggetto dell’elaborazione che è un dirigente aziendale che deve perseguire i suoi CSF.

27 ... integrata ... I dati di interesse provengono da tutte le sorgenti informative — ciascun dato proviene da una o più di esse Il data warehouse rappresenta i dati in modo univoco — riconciliando le eterogeneità dalle diverse rappresentazioni nomi struttura codifica rappresentazione multipla

28 problematiche di integrazione

29 ... dati storici ... Le basi di dati operazionali mantengono il valore corrente delle informazioni L’orizzonte temporale di interesse è dell’ordine dei pochi mesi Nel data warehouse è di interesse l’evoluzione storica delle informazioni L’orizzonte temporale di interesse è dell’ordine degli anni

30 con fissato arco temporale
Tutti i dati contenuti in un data warehouse si riferiscono ad un preciso arco temporale. Un DWH rappresenta dati in genere su un lungo periodo (ad esempio cinque, dieci anni) rispetto ai dati contenuti in un data base operativo validi e consistenti per un periodo molto più corto ( ad es. giorni o settimane). Ogni struttura di base in un DWH contiene implicitamente o esplicitamente un riferimento ad un valore temporale contenuto nella tabella dei tempi la quale ricordiamo rappresenta per gli utenti direzionali una dimensione di analisi.

31 ... dati aggregati ... Nelle attività di analisi dei dati per il supporto alle decisioni non interessa “chi” ma “quanti” non interessa un dato ma la somma, la media, il minimo e il massimo, ... di un insieme di dati Le operazioni di aggregazione sono quindi fondamentali nel warehousing e nella costruzione/mantenimento di un data warehouse.

32 ... fuori linea ... In una base di dati operazionale, i dati vengono
acceduti inseriti modificati Cancellati pochi record alla volta Nel data warehouse, abbiamo operazioni di accesso e interrogazione — “diurne” operazioni di caricamento e aggiornamento dei dati — “notturne” che riguardano milioni di record

33 con operazioni a sola lettura
Dal punto di vista delle operazioni consentite su un DWH a differenza dei dati di un data base tradizionale che possono essere inseriti, modificati ed acceduti, i dati di un DWH possono essere solo caricati ed acceduti poiché essi rappresentano successive istantanee della realtà elaborativa.

34 ... mantenuta separatamente ...
Diversi motivi: non esiste un’unica base di dati operazionale che contiene tutti i dati di interesse la base di dati deve essere integrata non è tecnicamente possibile fare l’integrazione in linea i dati di interesse sarebbero comunque diversi devono essere mantenuti dati storici e aggregati l’analisi dei dati richiede per i dati organizzazioni speciali e metodi di accesso specifici degrado generale delle prestazioni senza la separazione

35 SISTEMI OPERATIVI E SISTEMI “DATA WAREHOUSING”

36 ARCHITETTURA PER IL DATA WAREHOUSING

37 Architettura per il data warehousing
Metadati Sorgenti esterne Analisi dimensionale ETL Basi di dati operazionali Data Warehouse Data mining Data Mart Sorgenti informative Strumenti di analisi

38 Sorgenti informative i sistemi operazionali dell’organizzazione
sono sistemi transazionali (OLTP) orientati alla gestione dei processi operazionali non mantengono dati storici ogni sistema gestisce uno o più soggetti (ad esempio, prodotti o clienti) sono spesso sistemi “legacy” sorgenti esterne ad esempio, dati forniti da società specializzate di analisi

39 Alimentazione del data warehouse
Attività necessarie ad alimentare un data warehouse (si parla di strumenti ETL): Estrazione (Extraction) — accesso ai dati nelle sorgenti Pulizia (Cleaning) —rilevazione e correzione di errori e inconsistenze nei dati estratti Trasformazione (transformation) —trasformazione di formato, correlazione con oggetti in sorgenti diverse Caricamento (Loading) — con introduzione di informazioni temporali e generazione dei dati aggregati I metadati sono informazioni mantenute a supporto di queste attività

40 Metadati "Dati sui dati":
descrizioni logiche e fisiche dei dati (nelle sorgenti e nel DW) corrispondenze e trasformazioni dati quantitativi Spesso sono non dichiarativi e immersi nei programmi

41 Data Warehouse Server Sistema dedicato alla gestione del warehouse
Può basarsi su diverse tecnologie ROLAP i dati sono memorizzati in DBMS relazionali (schemi a stella) MOLAP I dati sono memorizzati in forma multidimensionale tramite speciali strutture dati tipicamente proprietarie i produttori di RDBMS stanno iniziando a fornire estensioni OLAP ai loro prodotti

42 Strumenti di analisi Consentono di effettuare analisi dei dati utilizzando il Data Warehouse server e offrono interfacce amichevoli per presentare, in forma adeguata e facilmente comprensibile, i risultati delle analisi Due principali tipologie di analisi (e quindi di strumenti) Analisi multidimensionale Data mining

43 Data mart Un sottoinsieme logico dell’intero data warehouse
un data mart è la restrizione del data warehouse a un singolo problema di analisi un data warehouse è l’unione di tutti i suoi data mart un data mart rappresenta un progetto fattibile la realizzazione diretta di un data warehouse completo non è invece solitamente fattibile

44 Variante dell’architettura
Monitoraggio & Amministrazione Metadati Sorgenti esterne Analisi dimensionale Basi di dati operazionali Data mining Sorgenti dei dati Strumenti di analisi Data Mart

45 Visualizzazione dei dati
I dati vengono infine visualizzati in veste grafica, in maniera da essere facilmente comprensibili. Si fa uso di: tabelle istogrammi grafici torte superfici 3D bolle

46 Visualizzazione finale di un’analisi

47 ANALISI MULTIDIMENSIONALE

48 Rappresentazione multidimensionale
L’analisi dei dati avviene rappresentando i dati in forma multidimensionale Concetti rilevanti: fatto — un concetto sul quale centrare l’analisi misura — una proprietà atomica di un fatto dimensione — descrive una prospettiva lungo la quale effettuare l’analisi Esempi di fatti/misure/dimensioni vendita/quantità,incasso/prodotto, luogo, tempo telefonata/costo,durata/chiamante, chiamato, tempo

49 Rappresentazione multidimensionale dei dati
VENDITE Luogo (negozio) Milano-2 Milano-1 Roma-2 Roma-1 Lettori DVD Televisori Articolo (prodotto) Quantità, incasso Lettori CD Videoregistratori 1 trim. 2003 Tempo (trimestre) 2 trim. 2003 3 trim. 2003 4 trim. 2003

50 Dimensioni e gerarchie di livelli
Ciascuna dimensione è organizzata in una gerarchia che rappresenta i possibili livelli di aggregazione per i dati. regione anno provincia trimestre marca categoria città mese prodotto negozio Articolo giorno Luogo Tempo

51 Operazioni su dati multidimensionali
Slice & dice — seleziona e proietta Roll up — aggrega i dati volume di vendita totale dello scorso anno per categoria di prodotto e regione Drill down — disaggrega i dati per una particolare categoria di prodotto e regione, mostra le vendite giornaliere dettagliate per ciascun negozio (Pivot — re-orienta il cubo)

52 Slice and dice Il manager regionale esamina
la vendita dei prodotti in tutti i periodi relativamente ai propri mercati Il manager finanziario esamina la vendita dei prodotti in tutti i mercati relativamente al periodo corrente e quello precedente Tempo Luogo Articolo Il manager di prodotto esamina la vendita di un prodotto in tutti i periodi e in tutti i mercati Il manager strategico si concentra su una categoria di prodotti, una area e un orizzonte temporale

53 Risultato di slice and dice
(Selezione del prodotto DVD e proiezione) LETTORI DVD 1 trim. 03 2 trim. 03 3 trim. 03 4 trim. 03 Roma-1 38 91 66 198 Roma-2 155 219 248 265 Milano-1 121 273 266 326 Milano-2 222 122 200

54 Roll-up (Selezione del prodotto DVD ed aggregazione rispetto alla dimensione luogo) LETTORI DVD 1 trim. 03 2 trim. 03 3 trim. 03 4 trim. 03 Roma 193 310 314 463 Milano 343 395 421 526

55 Altra operazione di roll-up
(Aggregazione rispetto alla dimensione luogo) VENDITE TRIM. 1 trim. 03 2 trim. 03 3 trim. 03 4 trim. 03 Lettori DVD 536 705 735 989 Televisori 567 716 606 717 Lettori CD 187 155 186 226 Videoregistratori 175 191 202 319

56 Drill-down (Disaggregazione rispetto alla dimensione tempo)
Vendite Mensili Gen 03 Feb 03 Mar 03 Apr 03 Mag 03 Giu 03 Lettori DVD 165 178 193 205 244 256 Televisori 154 201 212 245 255 216 Lettori CD 54 88 45 24 65 66 Videoregistratori 56 64 55 52 75

57 IMPLEMENTAZIONE DI UN DATA WAREHOUSE

58 Implementazione MOLAP
I dati sono memorizzati direttamente in un formato dimensionale (proprietario). Le gerarchie sui livelli sono codificate in indici di accesso alle matrici

59 Implementazione ROLAP: “schemi” dimensionali
Uno schema dimensionale (schema a stella) è composto da una tabella principale, chiamata tabella fatti memorizza i fatti e le sue misure Le misure più comuni sono numeriche, continue e additive due o più tabelle ausiliarie, chiamate tabelle dimensione una tabella dimensione rappresenta una dimensione rispetto alla quale è interessante analizzare i fatti memorizza i membri delle dimensioni ai vari livelli Gli attributi sono solitamente testuali, discreti e descrittivi

60 Schema a stella Tempo CodiceTempo Articolo CodiceArticolo Giorno
Mese Trimestre Anno Articolo CodiceArticolo Descrizione Marca Categoria Vendite CodiceTempo CodiceLuogo CodiceArticolo CodiceCliente Quantità Incasso Luogo CodiceLuogo Negozio Indirizzo Città Provincia Regione Cliente CodiceCliente Nome Cognome Sesso Età Professione

61 Schema a fiocco di neve Mese Mese Trimestre Anno CodiceRegione Regione
Vendite CodiceTempo CodiceLuogo CodiceArticolo CodiceCliente Quantità Incasso Tempo Giorno Mese Luogo Negozio Indirizzo Codice Città Città CodiceRegione Articolo Descrizione Marca Codice categoria Cliente Codice cliente Nome Cognome Sesso Età Professione Categoria Codice categoria Mese Trimestre Anno Mese CodiceRegione Regione

62 Una possibile istanza DataCube?

63 Caratteristiche di uno schema dimensionale
Una tabella dimensione memorizza i membri di una dimensione la chiave primaria è semplice gli altri campi memorizzano i livelli della dimensione tipicamente denormalizzata La tabella fatti memorizza le misure (fatti) di un processo la chiave è composta da riferimenti alle chiavi di tabelle dimensione gli altri campi rappresentano le misure è in BCNF

64 Esempio SELECT A.Categoria, T.trimestre, sum(V.Quantita)
FROM Vendite as V, Articolo as A, Tempo as T WHERE V.CodiceArticolo = A.CodiceArticolo and V.CodiceTempo = T.CodiceTempo and T.Anno = 2003 GROUP BY A.Categoria, T.trimestre ORDER BY A.Categoria, T.trimestre

65 Additività dei fatti Un fatto è additivo se ha senso sommarlo rispetto a ogni possibile combinazione delle dimensioni da cui dipende l’incasso è additivo perché ha senso calcolare la somma degli incassi per un certo intervallo di tempo, insieme di prodotti e insieme di negozi l’additività è una proprietà importante, perché le applicazioni del data warehouse devono solitamente combinare i fatti descritti da molti record di una tabella fatti

66 FORMATO DELLE INTERROGAZIONI DI ROLL-UP
Le interrogazioni assumono solitamente il seguente formato standard SELECT D1.L1,.., Dn.Ln, Aggr1(F.M1),.., Aggrk(F.Ml) FROM Fatti as F, Dimensione1 as D1, .., DimensioneN as Dn WHERE Join-predicate(F,D1) and .. and Join-predicate(F,Dn) and selection-predicate GROUP BY D1.L1, ..., Dn.Ln ORDER BY D1.L1, ..., Dn.Ln

67 DATA CUBE SELECT Citta, Categoria, count(Quantita) as VenditeCC
FROM Vendite as V, Articolo as A, Luogo as L WHERE V.CodiceArticolo = A.CodiceArticolo and V.CodiceLuogo = L.CodiceLuogo GROUP BY CUBE(Citta, Categoria)

68 Possibile risultato del data cube

69 GROUP BY ROLL UP SELECT Citta, Categoria, count(Quantita) as VenditeCC
FROM Vendite as V, Articolo as A, Luogo as L WHERE V.CodiceArticolo = A.CodiceArticolo and V.CodiceLuogo = L.CodiceLuogo GROUP BY ROLLUP(Citta, Categoria)

70 Possibile risultato

71 INDICI PER IL DATA WAREHOUSE

72 Motivazioni A causa della complessità delle elaborazioni direzionali, è necessario massimizzare la velocità di esecuzione delle interrogazioni OLAP ; l’impiego di indici quindi assume un’importanza primaria. L’aggiornamento periodico del DW consente di ristrutturare gli indici ogni volta che si effettua il “refresh”.

73 Query OLAP e indici Analizzando la struttura delle query OLAP è possibile affermare che gli indici vanno costruiti su: Attributi non chiave delle “Tabelle dimensione” al fine di accelerare le operazioni di selezione. Chiavi esterne (importate) della “Tabella Fatti” per accelerare l’esecuzione dei join. Sebbene meno efficaci, si può pensare di costruire indici sulle misure della “ Tabella Fatti” con predicati di selezione su tali valori Esempio : “Indicare tutte le vendite con quantitativi superiori a ”

74 Indice Bitmap Viene posto su un attributo e: E’ composto da
una matrice binaria con tante colonne quanti sono i possibili valori dell’ attributo tante righe quante sono le ennuple della relazione Per ogni possibile valore un bit (T/F) indica se il corrispondente record ha quel valore.

75 Esempio 1: T = Vero 0: F = Falso
Indice Bitmap sull’attributo Posizione di una tabella Impiegati. i possibili valori sono: ´Ingegnere´ - ´Consulente´ - ´Manager´ - ´Programmatore´ -´Segretario´ - ´Ragioniere´ 1: T = Vero 0: F = Falso

76 Indici Bitmap:implementazione nel DW
Generalmente, le bitmap sono associate ad un albero B-tree : la radice ed i nodi intermedi sono simili ad indici tradizionali Le foglie invece contengono per ciascun valore dell’indice un vettore i cui bit sono posti ad uno in corrispondenza delle tuple che contengono quel valore a zero altrimenti Algoritmo Discendi il B + tree. Carica l’array binario corrispondente al valore dell’indice. Determina quali bit sono alti. Trova tutte le tuple corrispondenti.

77 Considerazioni sulle bitmap
Vantaggioso nel caso di attributi con pochi valori differenti (indici con piccolo ingombro). Ottimo per query che non necessitano di accedere al file dati. Possibilità di utilizzare operatori binari di livello basso per l’esecuzione dell’elaborazione dei predicati.

78 esempio “Quanti maschi in California non sono assicurati?”

79 Svantaggi Gli indici BITMAP presentano forti limiti quando per un attributo siano possibili un elevato numero di valori differenti. Infatti è necessario utilizzare una diversa colonna per ogni possibile valore. Non sono indicati quando la tabella subisce frequenti modifiche: Nel nostro caso le modifiche si ottengono solo al refresh quando è già prevista una ristrutturazione.

80 Svantaggi (2) Quando il numero di valori possibili è molto alto la matrice di bit che ne deriva è estremamente sparsa. NOTA: Alcune versioni permettono di comprimere la matrice di bit al fine diminuirne la dimensione.

81 Join Index L’esecuzione di query su schemi a stella richiede spesso di eseguire join su più tabelle. Gli indici che risultano più utili in questi casi sono i Join Index. Questi vengono creati identificando in anticipo le tuple che soddisfano il predicato di join.

82 esempio Tabella indice La tabella indice individua le tuple per cui
Vendite.ID_Negozi = Negozi.ID_Negozi Per verificare le tuple che soddisfano il predicato di join non è più necessario scandire le tuple delle due relazioni

83 Join index: implementazione nel DW
Gli indici di join vengono costruiti sulle chiavi delle tabelle dimensioni. Contengono nelle foglie del B-tree per ogni valore dell’indice, invece dei puntatori alle tuple delle dimensioni, puntatori agli insiemi di tuple delle tabelle dei fatti che contengono quel valore di chiave.

84 Star Join Index Il “Join Index” calcola in anticipo il join tra un fatto ed una dimensione: lo “Star Join index” estende il join index a più tabelle dimensionali . Concatena colonne relative a più dimensioni ottenendo una tabella di join più complessa.

85 Ovvero … Tabella Indice

86 Indici Bitmap e di Join: costi e benefici
I costi sono dovuti alla necessità di costruire e memorizzare persistentemente gli indici bitmap e di join I benefici sono legati al loro uso effettivo da parte del Server del DW per la risoluzione delle interrogazioni

87 PROGETTO DI UN DATA WAREHOUSE

88 Progetto di un DWH Altre sorgenti Dati OLTP Input Esigenze OLAP
Selezione delle sorgenti informative Traduzione in modello E/R comune Analisi sorgenti Integrazione degli schemi E/R Integrazione Identificazione di fatti, misure e dimensioni Ristrutturazione dello schema concettuale Derivazione di un grafo dimensionale Progettazione logica multidimensionale Progettazione fisica relazionale a stella Progettazione

89 Informazioni in ingresso
Le informazioni in ingresso necessarie alla progettazione di un data warehouse requisiti dell’analisi — le esigenze aziendali di analisi dati (OLAP) basi di dati aziendali — con una documentazione sufficiente per la loro comprensione (OLTP) altre sorgenti informative — l’analisi richiede spesso la correlazione con dati non di proprietà dell’azienda ma comunque da essa accessibili — ad esempio, dati ISTAT o sull’andamento dei concorrenti

90 Analisi sorgenti informative
Selezione delle sorgenti informative analisi preliminare del patrimonio informativo aziendale correlazione del patrimonio informativo con i requisiti identificazione di priorità tra schemi Traduzione in un modello di riferimento attività preliminare alla correlazione e all’integrazione di schemi — si svolge con riferimento a schemi concettuali E/R

91 ... se non sono disponibili schemi E/R
Si applica l’attività di comprensione concettuale di uno schema di dati attraverso la rappresentazione dello schema relazionale mediante il modello E/R. Uno schema ER è più espressivo di uno schema relazionale L’attività descritta è detta di “reverse engineering” di schemi relazionali ed è svolta in maniera semiautomatica da appositi strumenti di progettazione CASE.

92 Integrazione di sorgenti informative
L’integrazione di sorgenti informative è l’attività di fusione dei dati rappresentati in più sorgenti in un’unica base di dati globale che rappresenta l’intero patrimonio informativo aziendale L’approccio è orientato alla identificazione, analisi e risoluzione di conflitti — terminologici, strutturali, di codifica L’integrazione delle sorgenti informative produce una descrizione globale del patrimonio informativo aziendale.

93 Integrazione di schemi di sorgenti informative
orientata all’analisi e risoluzione di conflitti tra schemi ovvero di rappresentazioni diverse di uno stesso concetto

94 Integrazione di sorgenti informative
L’integrazione di sorgenti informative è guidata da quella dei loro schemi – ma è necessario risolvere anche i conflitti relativi alla codifica delle informazioni un attributo “sesso” può essere rappresentato Con un carattere - M/F Con una cifra - 0/1 Implicitamente nel codice fiscale Non essere rappresentato Il nome e cognome di una persona “Mario”, “Rossi” “Mario Rossi” “Rossi Mario” “Rossi, M”

95 Integrazione di sorgenti informative
La parte più problematica è legata alla qualità dei dati disponibili Mario Rossi è nato il 3 ottobre 1942 Mario Rossi è nato il 10 marzo 1942 Mairo Rossi è nato il 10 marzo 1942

96 Progettazione del DWH identificazione di fatti, misure e dimensioni
ristrutturazione dello schema concettuale rappresentazione di fatti mediante entità individuazione di nuove dimensioni raffinamento dei livelli di ogni dimensione derivazione di un grafo dimensionale progettazione logica: derivazione dello schema multidimensionale. progettazione fisica: determinazione dello schema relazionale a stella.

97 Identificazione di fatti, misure e dimensioni
scontrino data numero pezzi incasso percentuale Vendita (0,1) codice Articolo nome prezzo costo marca categoria Cliente Occupazione sesso anno nascita città residenza tempo Negozio città

98 Ristrutturazione dello schema concettuale
E’ lo schema concettuale del data warehouse

99 Derivazione di un grafo dimensionale

100 Progettazione logica: schema MOLAP per Vendita, Costo e Prezzo
La traduzione dello schema dimensionale al modello logico multidimensionale è immediata: Dimensioni corrispondono a ipernodi del grafo Livelli e descrizioni corrispondono a nodi del grafo I fatti corrispondono ai nodi fatto: Vendita[Data:giorno, Prod:articolo, A:cliente, Loc:Negozio]: [incasso:numero] Costo[Prodotto:Articolo, Tempo:mese]: [Valore:numero] Prezzo[Prodotto:articolo,Tempo:mese]:[Valore:numero]

101 Progettazione fisica ROLAP: star schema per Vendita

102 ESEMPIO DI PROGETTO

103 Specifiche progetto di una DWH: statistiche vendite farmaci
Il Ministero della Salute ha commissionato la progettazione di un Data Warehouse per effettuare analisi e statistiche circa le vendite di farmaci da parte delle varie farmacie italiane. In particolare si vogliono analizzare le statistiche relative alle tipologie di farmaci venduti suddivisi per area geografica e orizzonte temporale, nonché semplici statistiche sull’utenza consumatrice.

104 Individuazione ed analisi sorgenti informative
Da colloqui col committente: Ogni farmacia utilizza una base di dati operazionale per la gestione delle vendite dei farmaci implementata attraverso un DBMS Access. Dall’analisi del modello E/R è possibile individuare lo schema concettuale contenente le sole informazioni di interesse: Prodotti/Farmaci Vendite/fatture Clienti

105 Schema E/R della base dati

106 Schema concettuale della DWH

107 Modello finale di tipo starflake-schema

108 Progettazione fisica e gestione dati
Si ottiene così, nella fase di progettazione fisica, uno star flake schema di figura con una sola dimensione denormalizzata: quella relativa alla collocazione geografica delle farmacie. Questo per consentire un maggiore livello di aggregazione delle informazioni. Su tale DW è poi possibile effettuare in maniera semplice interrogazioni come: selezione del farmaco più venduto in Campania. determinazione dell’età media dei consumatori di AULIN. I clienti della farmacia ALFANI. Impatto della terapia del dolore nelle varie regioni italiane. Infine vanno schedulate apposite procedure di refresh per aggiornare il contenuto del data warehouse ad intervalli di tempo prefissati.

109 KNOWLEDGE DISCOVERY IN DATABASE

110 Knowledge Discovery in Database
Il processo di KDD è un processo interattivo e iterativo, strutturato in diverse fasi:

111 Knowledge Discovery in Database
Fase 1: si identifica il problema, tenendo conto della relativa conoscenza già acquisita in precedenza e gli obiettivi che si vogliono perseguire. Fase 2: si seleziona l’insieme dei dati, oggetto del processo di estrazione (discovery) della conoscenza. Fase 3: si “puliscono” e si normalizzano i dati attraverso, ad esempio, l’eliminazione dei dati rumorosi e dei valori estremi, la gestione dei campi vuoti … Fase 4: si individuano le caratteristiche salienti per rappresentare il fenomeno che si sta analizzando in funzione dell’obiettivo definito, tendendo a ridurre il numero delle variabili prese in considerazione.

112 Knowledge Discovery in Database
Fase 5: si sceglie il cosiddetto “data mining task”, cioè il tipo di analisi sui dati da effettuare - classificazione, previsione, etc …-. Fase 6: si scelgono le tecniche di data mining da impiegare per ricercare i pattern nei dati, in funzione del criterio generale alla base del processo di KDD (ad esempio, l’analista potrebbe essere maggiormente interessato alla comprensione del modello rispetto alle capacità di previsione dello stesso). Fase 7: si effettua il data mining, cioè si compie la ricerca dei pattern d’interesse. Fase 8: si interpretano i pattern “scoperti” con la possibilità di ritornare alle fasi precedenti per ulteriori iterazioni.

113 Knowledge Discovery in Database
Fase 9: si consolida e si formalizza la conoscenza acquisita (realizzazione/integrazione di un sistema applicativo, redazione di documentazione, presentazione alle parti interessate …). Il ruolo fondamentale nel processo di KDD, che è caratterizzato da un alto livello di iterazione, è svolto dalla fase 7, ovvero quella in cui si compie il data mining.

114 KDD e Data Mining In questa ottica, il KDD è un processo non banale di identificazione dai “dati” dei “pattern” validi, precedentemente sconosciuti, potenzialmente utili ed ultimamente comprensibili. per “dato” si intende in questo contesto un insieme di fatti; per “pattern” si intende un sottoinsieme dei dati o un modello applicabile a questo sottoinsieme. Si noti ancora che per processo di estrazione di un pattern si intende il processo di individuare un modello che ben si adatta ai dati in esame.

115 Data mining E’ un approccio alternativo all’analisi multidimensionale per estrarre informazioni di supporto alle decisioni da un data warehouse Talora le tecniche di ricerca di “informazione nascosta” in una collezione di dati si applica a dati “destrutturati” ad es. collezioni di transazioni.

116 Problemi classici di data mining
Uso di regole associative: individuare regolarità in un insieme di transazioni anonime pattern sequenziali: individuare regolarità in un insieme di transazioni non anonime, nel corso di un periodo temporale classificazione: catalogare un fenomeno in una classe predefinita sulla base di fenomeni già catalogati

117 Uso di regole associative
Dati di ingresso: insiemi di transazioni Obiettivo: trovare delle “regole” che correlano nelle transazioni la presenza di un insieme di oggetti con un altro insieme di oggetti.

118 Regole associative:esempio di regola
Pannolini  Birra il 2% tra tutte le transazioni contiene entrambi gli oggetti (supporto cioè rilevanza statistica) il 30% delle transazioni che contiene Pannolini contiene anche Birra (confidenza cioè forza)

119 Significatività delle regole
X, Y  Z Supporto S: la regola è verificata in S% delle transazioni rispetto a tutte le transazioni rilevanza statistica Confidenza C: C% di tutte le transazioni che contengono X e Y contengono anche Z “forza” della regola

120 Pattern sequenziali Dati di ingresso: Obiettivo:
Insieme di sequenze di transazioni ciascuna delle quali si riferisce ad un fissato cliente. Obiettivo: trovare sequenze di oggetti che compaiono nell’insieme almeno in una assegnata percentuale.

121 Pattern sequenziali: esempi
“Il 5% dei clienti ha comprato un lettore di CD in una transazione e CD in un’altra” il 5% è il supporto del pattern Applicazioni misura della soddisfazione del cliente promozioni mirate medicina (sintomi - malattia)

122 Classificazioni Dati in ingresso Obiettivo
Record di osservazione elementari Obiettivo Determinare gli attributi significativi dei record osservati e costruire un albero di decisione che consenta, in funzione dei valori degli attributi significativi della tupla, di classificarla.

123 Classificazioni:esempio
Classificazione delle polizze di una compagnia attribuendo loro un rischio alto o basso. Partendo dalle transazioni che descrivono le polizze, il classificatore determina gli attributi per definire il rischio (età guidatore, tipo auto) e costruisce un albero di decisione.

124 Classificatore polizze a rischio
Età<20 T F TipoAuto = “Sportiva” T F Albero di decisione costruito in base ad un “training set” ed utilizzabile nel “test set”


Scaricare ppt "6. Architetture e paradigmi per l’analisi dei dati"

Presentazioni simili


Annunci Google