Pattern Oggetto o entità definito da un nome: p.es. un neo, un volto, un sintomo, un segnale biomedico, un paziente, un esame clinico, … Rappresenta.

Slides:



Advertisements
Presentazioni simili
Macchine di Percezione
Advertisements

Le distribuzioni di probabilità continue
Metodi Quantitativi per Economia, Finanza e Management Lezione n°6.
Apprendimento Automatico Apprendimento supervisionato
Analisi dei dati per i disegni ad un fattore
La regressione lineare trivariata
Riconoscimento di forme
Classificatore bayesiano
Sistemi e processi nei servizi sanitari CdLM Ingegneria gestionale (II anno) Introduzione Prof. Gabriele Cevenini Dipartimento di Chirurgia e Bioingegneria.
CLUSTER ANALYSIS Insieme di tecniche con l’obiettivo di unire le unità di un insieme statistico in un numero finito di classi o gruppi i quali devono.
Gli errori nell’analisi statistica
Progetto Pilota 2 Lettura e interpretazione dei risultati
Regressione lineare Metodi Quantitativi per Economia, Finanza e Management Esercitazione n°10.
Metodi Quantitativi per Economia, Finanza e Management Lezione n°8
Metodi Quantitativi per Economia, Finanza e Management Lezione n° 11.
redditività var. continua classi di redditività ( < 0 ; >= 0)
Regressione lineare Metodi Quantitativi per Economia, Finanza e Management Esercitazione n°8.
ALGORITMI DI OTTIMIZZAZIONE PER L'ADDESTRAMENTO DI RETI NEURALI
Ipotesi e proprietà dello stimatore Ordinary Least Squares (OLS)
ALCUNI METODI STATISTICI PER LA SELEZIONE DELLE VARIABILI NELL’ANALISI DISCRIMINANTE Eliminazione di variabili con contributo discriminatorio statisticamente.
Teoria e Tecniche del Riconoscimento
Apprendimento Non Supervisionato
Valutazione delle ipotesi
Apprendimento di funzioni algebriche
Computational Learning Theory and PAC learning
INFERENZA NEL MODELLO DI REGRESSIONE LINEARE MULTIPLA (parte 1)
ANALISI DEI GRUPPI seconda parte
ALBERI DECISIONALI prima parte
Analisi della varianza (a una via)
Metodi Quantitativi per Economia, Finanza e Management Lezione n° 9.
Stima ed algoritmi di consensus distribuito: considerazioni su IKF
CORSO DI MODELLI DI SISTEMI BIOLOGICI LAUREA IN INGEGNERIA CLINICA E BIOMEDICA.
BIOINGEGNERIA S. Salinari Lezione 4.
TECNOLOGIE DEI SISTEMI DI CONTROLLO
PATTERN RECOGNITION.
Analisi delle corrispondenze
Analisi dei gruppi – Cluster Analisys
Intelligenza Artificiale
Elaborazione (digitale) delle immagini
APPLICAZIONI DI INTELLIGENZA ARTIFICIALE ALLA MEDICINA
Regressione Logistica
Le distribuzioni campionarie
Tecniche descrittive Utilizzano modelli matematici per semplificare le relazioni fra le variabili in studio Il fine è la descrizione semplificata del fenomeno.
ANALISI FATTORIALE. Cosè lanalisi fattoriale? Statistica descrittiva Rappresentazione delle variabili in studio. Statistica confermativa vs Confermare,
STATISTICA PER LE DECISIONI DI MARKETING
Unità 6 Test parametrici e non parametrici Test per la verifica della normalità Funzione di ripartizione.
STATISTICA PER LE DECISIONI DI MARKETING
Unità 2 Distribuzioni di probabilità Misure di localizzazione Misure di variabilità Asimmetria e curtosi.
UNIVERSITÀ DI PISA FACOLTÀ DI INGEGNERIA CORSO DI LAUREA SPECIALISTICA IN INGEGNERIA INFORMATICA PER LA GESTIONE D’AZIENDA Tesi di laurea: Progettazione.
Classificazione (aka Cluster Analysis)
DATA MINING PER IL MARKETING
La verifica d’ipotesi Docente Dott. Nappo Daniela
Un insieme limitato di misure permette di calcolare soltanto i valori di media e deviazione standard del campione, ed s. E’ però possibile valutare.
Strumenti statistici in Excell
IL CAMPIONE.
Analisi discriminante lineare - contesto
ANALISI DEI GRUPPI I. La Cluster analysis è uno strumento di classificazione capace di scomporre una realtà complessa di osservazioni plurime in tipologie.
Tecniche di analisi matematica. Gli studi di autenticazione e di tracciabilità sugli alimenti sono generalmente effettuati individuando variabili chimico-fisiche.
DATA MINING.
APPROSSIMAZIONE DI FUNZIONI
DATA MINING PER IL MARKETING Andrea Cerioli Sito web del corso GLI ALBERI DI CLASSIFICAZIONE Introduzione alla metodologia Zani-Cerioli,
TRATTAMENTO STATISTICO DEI DATI ANALITICI
REALIZZAZIONE DI UN SISTEMA DI CLASSIFICAZIONE Prof. Roberto Tagliaferri Studente: Ragognetti Gianmarco Corso di Reti Neurali e Knowledge Discovery A.A.
Operazioni di campionamento CAMPIONAMENTO Tutte le operazioni effettuate per ottenere informazioni sul sito /area da monitorare (a parte quelle di analisi)
L’analisi di regressione e correlazione Prof. Luigi Piemontese.
1 LA STATISTICA DESCRITTIVA Docente prof.sa Laura Mercuri.
Campionamento procedimento attraverso il quale si estrae, da un insieme di unità (popolazione) costituenti l’oggetto delle studio, un numero ridotto di.
Riduzione dei Dati. Nelle scienze sociali ci si trova molto spesso di fronte a ricerche in cui vi è una sovrabbondanza di misurazioni nel tentativo di.
INTRODUZIONE ALL’ANALISI DELLA VARIANZA
INFERENZA NEL MODELLO DI REGRESSIONE LINEARE SEMPLICE
Transcript della presentazione:

Pattern Oggetto o entità definito da un nome: p.es. un neo, un volto, un sintomo, un segnale biomedico, un paziente, un esame clinico, … Rappresenta l’unità statistica oggetto dell’analisi ed è definito attraverso un insieme di attributi (variabili statistiche)

Fenomeni multidimensionali Variabile multimensionale insieme delle variabili statistiche qualitative e quantitative che descrivono i pattern Spazio multimensionale ha dimensione pari al numero di variabili e contiene i pattern rappresentabili come punti

Pattern recognition Si traduce in italiano con “Riconoscimento di configurazioni”, ma è preferibile non tradurre “Pattern” Individuazione (classificazione) di insiemi o gruppi di pattern con caratteristiche omogenee  cluster Riguarda metodi di apprendimento supervisionato e non supervisionato

Riconoscimento e classificazione Riconoscimento del pattern e suo assegnamento a una classe o cluster Classe o cluster  insieme di oggetti (unità statistiche) aventi proprietà comuni, descritte dai loro pattern: p.es. classe dei pazienti malati, cluster dei segnali cardiaci, classe delle auto d’epoca, cluster dei denti cariati, …

Applicazioni biomediche e sanitarie Valutazione del valore prognostico di test clinici Scelta di opportune strategie sanitarie Valutazione del significato diagnostico di un insieme di variabili cliniche Individuazione di aspetti patologici …

Cluster analysis La cluster analisi è il nome generico attribuito a un largo insieme di metodi statistici orientati ad individuare gruppi in un campione di oggetti. Di solito i gruppi sono chiamati cluster. Nella cluster analysis non è necessario conoscere a priori la struttura dei gruppi, cosicché essa rappresenta un attrattivo strumento esplorativo

Metodi di cluster analysis Supervisionati  il tipo dei cluster e il loro numero è definito dall’analista o progettista del modello Non Supervisionati  i cluster sono identificati nello spazio delle variabili con procedure statistiche e/o algoritmi di raggruppamento basati sull’apprendimento da campioni

Problemi da affrontare Definizione delle classi Imporre uno schema di classificazione agli oggetti Classificazione Trovare una regola di classificazione sulla base di campioni di oggetti precedentemente classificati

Soluzione del I problema DEFINIZIONE DELLE CLASSI Il problema è immediatamente risolto se è disponibile una divisione degli oggetti in classi o le classi sono determinabili in modo empirico Viceversa, si possono usare tecniche di cluster analysis non supervisionata: consentono di raggruppare oggetti in classi basandosi su misure di distanza o di similarità

Soluzione del II problema CLASSIFICAZIONE L’esistenza di campioni classificati implica che esiste un possibile schema di classificazione E’ quindi necessario estrarre questo schema e trasformarlo in una regola pratica di classificazione; giocano un ruolo fondamentale la scelta delle variabili in base al loro potere discriminante

Obiettivo matematico Trovare una funzione o una regola che rappresenti gli oggetti in un insieme di indici identificativi delle diverse classi Per alcuni problemi di classificazione la percezione umana può essere migliore dei classificatori quantitativi: p.es. riconoscimento del sesso dal volto o diagnosi di malignità di un neo In generale i classificatori quantitativi sono superiori all’uomo, specialmente quando gli oggetti non possono essere percepiti direttamente e sono rappresentati da dati numerici in forma tabellare

Schema di un sistema di classificazione PATTERN Pre-processing e feature extraction Informazioni: variabili, classi e dati empirici (campione di progetto) Assegnazione alla classe Classificazione Decisione

Metodi statistici e regole di classificazione VANTAGGI Sono oggettivi e possono essere ripetuti da altri Permettono di valutare le performance della regola di classificazione Permettono di misurare formalmente la dimensione relativa di ogni singola classe

Metodi statistici e regole di classificazione VANTAGGI Permettono di determinare quanto un particolare esempio sia rappresentativo della sua classe Permettono di stabilire quali sono gli aspetti di un oggetto che risultano più importanti per la sua classificazione Permettono di descrivere e testare le differenze fra le classi

Metodi statistici e regole di classificazione PROBLEMATICHE Scelta delle variabili (feature selection): standardizzazione, componenti principali, ... Scelta della misura di distanza o di similarità: distanza Euclidea, distanza di Mahalanobis, coefficiente di similarità di Gower, … Scelta del metodo di cluster: gerarchico o non gerarchico

Metodi statistici e regole di classificazione PROBLEMATICHE Analisi del potere di separazione della scelta finale delle variabili Scelta del metodo di classificazione: classificatore bayesiano, parametrico, non parametrico, logistico, rete neurale … Valutazione del classificatore: scelta del testing set, scelta del metodo di valutazione.

Misure di associazione tra oggetti METRICHE Possono essere adottate diverse misure di distanza o coefficienti di similarità dipendentemente dal tipo di variabili con cui i pattern sono definiti Le funzioni distanza più sofisticate dal punto di vista matematico sono chiamate metriche. Le proprietà formali di una metrica sono: Sia E una rappresentazione simbolica di uno spazio di misura e siano X, Y e Z tre punti qualsiasi in E. Allora la funzione distanza D è una metrica se e solo se soddisfa le seguenti condizioni: D(X,Y) = 0 se e solo se X=Y D(X,Y)  0 per tutti gli X e Y in E D(X,Y) = D(Y,X) per tutti gli X e Y in E D(X,Y)  D(X,Z)+D(Y,Z) per tutti gli X, Y e Z in E

Distanze euclidea e di Mahalanobis Le metriche più utilizzate sono la distanza euclidea DE e la distanza di Mahalanobis DM x(i), x(k) = vettori delle osservazioni i e k  = matrice di covarianza delle osservazioni T = operazione di trasposizione N.B. DM tiene conto delle mutue correlazioni tra variabili

Altre distanze o metriche La norma-p o distanza-p, Dp, tra due punti x(i) e x(k), detta anche distanza di Minkowski, è: Norma-1, detta di Manhattan  Norma-, detta di Chebyshev  N.B. La norma-2 coincide con la distanza euclidea  D2=DE

Coefficiente di similarità di Gower È una misura generale di associazione valida per variabili qualitative e quantitative G(i,k) = coefficiente di similarità di Gower tra i pattern i e k c(xj)(i,k) = misura di somiglianza tra i e k per la variabile xj w(xj)(i,k) = peso dicotomico: 0/1 = confronto insensato/sensato

Coefficiente di similarità di Gower TIPI DI VARIABILI G(i,k) = coefficiente di similarità di Gower tra i pattern i e k Rj = campo di variazione  Rj = xj(max) - xj(min) xj quantitativa xj dicotomica xj politomica xj(i) xj(k) c w 1 0/1 xj(i) xj(k) c w a 1 b se xj(i) = 0 e xj(k) = 0, c e w possono essere posti a 0 o a 1 w=0, solo se xj(i) o xj(k) mancante

Cluster analysis senza supervisore Tecniche gerarchiche Si suddividono in agglomerative o divisive: la fusione/divisione tra gruppi avviene a diversi livelli dando luogo a una struttura ad albero Tecniche non gerarchiche Il numero di gruppi è deciso a priori

Rappresentazione grafica ad albero dei raggruppamenti gerarchici Dendogramma Rappresentazione grafica ad albero dei raggruppamenti gerarchici

Metodi gerarchici agglomerativi Data una misura di distanza D(i-j) tra due punti generici i e j, due cluster, p e q, sono aggregati considerando la loro distanza D(p-q), valutata con diversi metodi: Metodo single-link  Metodo complete-link  Metodo average-link  Metodo Ward (m = punto medio)  (minimo incremento degli scarti quadratici entro gruppi) Metodo del baricentro o centroide (mp,mq = baricentri dei due cluster) 

Metodo gerarchico del legame singolo In un contesto unidimensionale il metodo agglomerativo del single-link è molto semplice e può essere descritto come segue: Ordinamento delle osservazioni in ordine crescente: ogni osservazione è trattata come un gruppo con un solo membro Esame di tutte le coppie di gruppi adiacenti per trovare i due più vicini tra loro, considerando la distanza tra i loro membri più vicini Ripetizione del passo 2 fino a quando non vi è un solo gruppo

Metodo gerarchico del legame singolo 3 1 2 5 4 6 7 Nodi terminali Distanza tra gruppi * Dendrogramma x1 x2 ESEMPIO IN 2 DIMENSIONI

Metodo non gerarchico k-means Il numero k di gruppi deve essere noto a priori I cluster si formano con la seguente procedura iterativa, non lineare: Scelta di un punto iniziale per ognuno dei k cluster Attribuzione di ogni caso al cluster più vicino Calcolo del vettore delle medie (centroide) per ciascuno dei cluster formati al passo 2 Ripetizione dei passi 2 e 3 finché i centroidi non cambiano più N.B. Il metodo è influenzato dalla scelta dei punti iniziali

Metodo non gerarchico k-means Scegliendo una metrica euclidea il metodo converge Minimizza la seguente funzione (errore entro-cluster): xij = caso i-mo del j-mo cluster mj, nj = media, numerosità del j-mo cluster L’algoritmo ha complessità O(n*k*I*d) n = numero dei punti I = numero iterazioni d = numero variabili (dimensione) N.B. Sebbene I non possa essere stabilito a priori, in pratica l’algoritmo converge dopo pochissimi passi, tipicamente < 5-6

Metodo non gerarchico k-means Esempio con n = 10, d = 2 e k = 2 Passo 1. Passo 4. Passo 3. Passo 2. Gruppo A Gruppo B * *

Tecniche di partizione Siano W e B le matrici di covarianza, rispettivamente, entro e tra gruppi e sia T la loro somma: La maggioranza delle tecniche di partizione individua gruppi che minimizzano varie funzioni di tali matrici. I tre criteri più usati sono: Minimizzazione determinante |W|, equivalente alla massimizzazione del rapporto |T|/|W| Minimizzazione della traccia (varianza totale) di W, equivalente alla massimizzazione della traccia di B Massimizzazione della traccia di BW-1

Metodi non supervisionati CONSIDERAZIONI FINALI La prima tecnica di partizione (minimo di |W|) isola gruppi con variabili molto correlate al loro interno  autovalori bassi I metodi basati sulla traccia di W dipendono dall’unità di misura delle variabili. Il numero di cluster può essere scelto a priori o cambiato durante l’analisi Tecniche iterative non lineari  molti minimi, la soluzione dipende dalla condizione iniziale Si arriva a una partizione in gruppi del set iniziale anche se esso ha una distribuzione multinormale

Metodi non supervisionati CONSIDERAZIONI FINALI La forma dei cluster dipende dalla tecnica usata: p.es. il single-link trova cluster a catena, i metodi di partizione basati sulla traccia di W formano cluster ipersferici, quelli basati sul determinante formano cluster tutti della stessa forma  esistono perciò molti aggiustamenti È bene eseguire più tipi di cluster analisi, studiarne la stabilità, confrontare i risultati, decidere quali scartare/conservare  analisi esplorativa In generale, le tecniche di cluster devono essere accompagnate da un’analisi esperta in grado di giudicare criticamente i risultati alla luce della competenza ed esperienza nel campo in cui l’analisi è condotta. È utile studiare statisticamente i gruppi formati per esempio tramite analisi descrittive

Classificatori supervisionati Metodi statistici, modelli matematici, algoritmi, alberi decisionali, ecc., che assegnano pattern a classi predeterminate, cioè definite a priori Effettuano pattern recognition ed eventualmente prendono una decisione Il problema centrale è quello di assegnare un oggetto (caratterizzato da un insieme di n variabili) in una classe nota

Classificazione di lesioni cutanee attraverso dermoscopia digitale Classificazione con supervisore: 2 classi Neo benigno Melanoma Lo scopo è quello di diagnosticare le lesioni cutanee come nei o melanomi

Scelta variabili e acquisizione dati Informazioni a priori: scelta di d variabili utili a fini diagnostici Dati empirici: campione di n esempi utilizzato per costruire il classificatore Geometria: area, perimetro, diametri massimo e minimo, circolarità, frattalità dei bordi … Colore: quantità di rosso/blu/verde lesione e cute … Tessitura: contrasto, entropia … Isole di colore: disomogeneità, sbilanciamenti e concentrazioni locali o periferiche di colore …

Pre-processing e feature extraction Invece di utilizzare le variabili nella loro forma originale, esse possono essere convenientemente trasformate per: introdurre importanti informazioni a priori; codificare variabili qualitative e discrete; rendere adimensionali le variabili quantitative per poterle confrontare tra loro; trattare i dati parzialmente mancanti; sceglierne un sottinsieme ottimale per ridurre la dimensionalità del fenomeno e filtrare gli errori statistici.

Codifica variabili qualitative In generale, la codifica di variabili qualitative deve tener conto del problema in esame, ma ricorrendo a una codifica di tipo binario si risolvono molti dei problemi connessi con la natura delle variabili Codifica dummy: n categorie  n-1 bit Es.: variabile = gruppo sanguigno (n=4) Categorie della variabile b1 b2 b3 A 1 B AB ZERO

Standardizzazione Rende le variabili quantitative adimensionali in modo da poterle gestire nell’ambito multivariato i = media campionaria della variabile xi i = deviazione standard campionaria della variabile xi N = numerosità campionaria N.B. Le nuove variabili zi (i=1,2,…,d) hanno media nulla e varianza (deviazione standard) unitaria

Feature extraction Scelta sottinsieme ottimo di variabili Riduzione della dimensionalità Aumento della generalizzazione Trasformazione e scelta delle variabili più informative Tecniche stepwise Criteri statistici di scelta delle variabili più discriminanti: F di Fisher, lambda di Wilks, divergenza di Kullback, area sotto la curva ROC, … Criteri di ingresso/uscita e fermata: livello di significatività, decremento non significativo dell’errore, … Tecniche per la riduzione della varianza Componenti principali Tecniche con controllo del potere discriminante Fukunaga-Koontz

La sciagura della dimensionalità La dimensione dello spazio delle variabili influenza fortemente le prestazioni del classificatore poiché: i dati di addestramento sono campioni di dimensione N finita; N è spesso limitato da ragioni pratiche, economiche o connaturate col fenomeno studiato (p.es. numero di melanomi); l’aumento di dimensione comporta un aumento anche cospicuo del numero di parametri Np del modello; Se il rapporto N/Np è troppo basso le stime di alcuni parametri sono molto incerte e perdono di significato, compromettendo le prestazioni del classificatore.

Progetto del modello di classificazione Stima del rischio sanitario Probabilità di evento sanitario sfavorevole (p.es. diagnosi di melanoma, M) condizionata alle informazioni contenute nelle variabili scelte e nei dati campionari Uso del teorema di Bayes Metodi bayesiani Metodi non bayesiani Stima diretta della probabilità diagnostica Regressione logistica Reti neurali artificiali K-nearest-neighbour Algoritmi genetici

Classificatori a punteggio intero Scoring model Invece di stimare la probabilità dell’evento sanitario sfavorevole valutano il rischio attraverso una scala discreta di n valori interi positivi si (i = 0, 1, 2, ..., n) che includono lo zero per rappresentare il rischio nullo d = numero di variabili si = punteggio intero associato all’i-ma variabile xi λi = coefficiente binario 0/1  rischio basso/alto (cut-off su xi) Alcuni derivano dalla semplificazione di modelli probabilistici arrotondando i loro parametri all’intero più vicino Utili in ambiente clinico: pratici, non richiedono computer; non distolgono medici e operatori sanitari da diagnosi e cura.

Addestramento classificatore DATI CLINICI MELANOMI NEI LEARNING SET TESTING SET

Bias e varianza x2 x1 Learning set Testing set Bias elevato ERRORE DI MODELLO ERRORE STATISTICO Learning set Testing set Bias elevato Varianza elevata Bias e varianza minimizzate x2 x1

Complessità e Generalizzazione Generalizzazione: capacità del classificatore di mantenere le stesse prestazioni anche su nuovi dati Compromesso ottimo tra bias e varianza Modello né troppo semplice, né troppo complesso Principio del rasoio di Occam (William of Occam, XIV sec.): la metafora del rasoio esprime l’idea dell’opportunità metodologica di eliminare con tagli di lama e mediante approssimazioni successive le ipotesi troppo complesse ed inutili per la spiegazione del fenomeno

Tipi di modelli e generalizzazione melanomi nei Blue content Area (mm2) x overfitting underfitting good fit

Underfitting e Overfitting Underfitting: l’errore di modello (bias) può essere ridotto, utilizzando modelli di tipo più sofisticato o aumentando la complessità degli stessi, p.es. con un aumento del numero di parametri Overfitting: il modello è troppo complesso, stima anche gli errori campionari, memorizza i dati del learning set invece di apprendere le regole sottostanti, perde capacità predittiva, aumenta la varianza

Minimizzazione errore Funzioni errore Le principali funzioni errore sono il root mean square error (RMSE) e la probabilità media di errata classificazione Pmec

Controllo dell’overfitting Il miglior modello è quello che minimizza l’errore sui dati di learning, mantenendo lo stesso errore sui dati di testing Tecniche di cross-validazione Una parte dei dati viene efficientemente usata per controllare il potere di generalizzazione del modello Metodo di rotazione k-fold Testing set Training Testing set Training Testing set Training Testing set Training Testing set Training k=5 Metodo leave-one-out Testing = 1 Testing = 1 Training = N-1 k=N

Regolarizzazione Un diverso tipo di approccio per controllare complessità e generalizzazione è quello di introdurre un termine  di penalizzazione all’errore da minimizzare  = parametro di controllo del termine di regolarizzazione  L’overfitting introduce forti oscillazioni, con regioni di ampia curvatura. Conviene allora introdurre una penalizzazione sulla derivata seconda (smoothing). P.es., nel caso semplice della funzione di regressione y(x) si ha:

Early stopping Un approccio per limitare l’overfitting utilizzato con modelli a molti parametri, stimati con tecniche iterative, è quello di arrestare l’addestramento del classificatore quando comincia a perdere in generalizzazione 2 4 6 8 10 12 14 16 18 20 training set validation set Iterazioni Errore Learning Stop Overfitting

Divergenza di Kullback-Leibler Per valutare la bontà di un classificatore è utile avere una misura della separazione tra le classi N.B. La DKL non è simmetrica quindi a rigore non può essere considerata una metrica

Divergenza di Kullback-Leibler DISTRIBUZIONI GAUSSIANE Nel caso in cui le distribuzioni delle classi siano gaussiane, la DKL simmetrica e diventa quindi una metrica, semplificandosi in: i = vettore delle medie associato alla classe i i = matrice di covarianza associato alla classe i

Valutazione delle prestazioni del classificatore MELANOMA Con due sole classi possiamo concepire la probabilità a posteriori di melanoma Pm stimata dal classificatore come un test diagnostico la cui soglia decisionale Pd individua la seguente matrice di classificazione: Melanomi Nei VERI POSITIVI FALSI NEGATIVI Pm > Pd Pm  Pd

Curva ROC Receiver Operating Characteristic Ad ogni soglia Pd corrisponde una coppia (SE, SP) Riportando in ascisse 1-SP e in ordinate SE si traccia una curva i cui punti rappresentano le prestazioni del classificatore per ogni Pd * 0.6 0.8 0.4 1 0.2 SE Area di errore AUC Area Under ROC Curve 1-SP

Sensibilità, specificità e soglia di decisione Pd SE=0.9 SP=0.5 SE=0.75 SP=0.75 SE=0.5 SP=0.89 SENSIBILITÀ TROPPO BASSA SPECIFICITÀ TROPPO BASSA SE Pd