E SERCITAZIONE Ing. E. Ritacco Ing. M. Guarascio.

Slides:



Advertisements
Presentazioni simili
Equazioni e calcoli chimici
Advertisements

Marco Riani STATISTICA A – K (60 ore) Marco Riani
PROVA B: ESERCIZIO 1 Risolvere il sistema lineare (4 equazioni in 5 incognite):
Laboratorio Processi Stocastici
FUNZIONI DI DUE VARIABILI
6. Catene di Markov a tempo continuo (CMTC)
Introduzione Cosa sono le reti di Petri?
Un nuovo tipo di dati Gli array.
Bioinformatica Classificazione
Definizione e caratteristiche
6. Catene di Markov a tempo continuo (CMTC)
Regressione lineare Metodi Quantitativi per Economia, Finanza e Management Esercitazione n°10.
Regressione lineare Metodi Quantitativi per Economia, Finanza e Management Esercitazione n°8.
Apprendimento Automatico: Apprendimento Probabilistico Roberto Navigli 1 Apprendimento Automatico: Apprendimento Bayesiano.
Valutazione delle ipotesi
Support Vector Machines
Support Vector Machines
Processi Aleatori : Introduzione – Parte I

PER FUNZIONI DI PIÙ VARIABILI - 2.
CALCOLO DIFFERENZIALE PER FUNZIONI DI PIÙ VARIABILI. ESTREMI VINCOLATI, ESEMPI.
Argomenti della lezione
8. Reti di Code Nella maggior parte dei processi produttivi risulta troppo restrittivo considerare una sola risorsa. Esempio: linea tandem arrivi 1 v.
Ricerca di minimi e massimi di funzioni
Teoria e Tecniche del Riconoscimento
Seminario su clustering dei dati – Parte I
INGEGNERIA CLINICA E BIOMEDICA
BIOINGEGNERIA S. Salinari Lezione 1. Richiami sui filtri digitali Filtri non recorsivi La stima y*(k) è la somma pesata del segnale in k e degli n-1 campioni.
Cenni di ottimizzazione dinamica
Lavoratori qualificati o non qualificati?
Unità didattica «Scienza e Fantascienza»
Teoria e Tecniche del Riconoscimento
Studente Claudia Puzzo
PATTERN RECOGNITION.
Support Vector Machines
Chapter 14, Hastie , Tibshirani and Friedman
Esercitazione Data Mining
Estensioni: Regole di classificazione
Lezione 8 Numerosità del campione
Num / 36 Lezione 9 Numerosità del campione.
Modello Relazionale Proposto agli inizi degli anni ‘70 da Codd
Metodi numerici per lapprossimazione Laboratorio di Metodi Numerici a.a. 2008/2009 Prof. Maria Lucia Sampoli.
Test della differenza tra le medie di due popolazioni
Da studi svolti negli anni ‘50 è emerso che il numero ideale di figli per famiglia è di 3. Nel 1980, ipotizzando una modifica nei costumi e nei modelli.
Statistica Descrittiva
relazioni tra radici e simmetrie Lezione 3
Semi-Supervised Learning
Ispezione lineare La funzione hash h(k,i) si ottiene da una funzione hash ordinaria h'(k) ponendo L’esplorazione inizia dalla cella h(k,0) = h'(k) e continua.
A y=-3x x y Sembrano perpendicolari…Dimostriamolo A A A x y B B.
Prof. Cerulli – Dott.ssa Gentili
Introduzione alla Regressione Lineare e alla Correlazione.
Prof. Cerulli – Dott.ssa Gentili
Classificazione (aka Cluster Analysis)
Gli argomenti di questa lezione sono:
Consideriamo due misurazioni, per esempio benessere e soddisfazione personale. Le due variabili sono simili. Chi ha punteggi sopra la media in una variabile,
La verifica d’ipotesi Docente Dott. Nappo Daniela
Strumenti statistici in Excell
I costi di produzione Unità 10.
Analisi discriminante lineare - contesto
Esercizio Alberi di classificazione DATI Un’azienda vuole valutare l’efficacia di una promozione effettuata attraverso buoni acquisto. Per questo motivo.
Calcolo delle Aree Area del Cerchio Il calcolo dell’area è molto più complesso in quanto non è possibile scomporre il cerchio in triangoli. E’ possibile.
Assicurazioni vita e mercato del risparmio gestito Lezione 13 Modelli media varianza con N titoli.
Teoria del consumo: la scelta del consumatore
Esercitazione n. 2 La scelta del consumatore
Operazioni di campionamento CAMPIONAMENTO Tutte le operazioni effettuate per ottenere informazioni sul sito /area da monitorare (a parte quelle di analisi)
Breve trattazione della Serie di Mac – Laurin ISTITUTO ISTRUZIONE SECONDARIA SUPERIORE “E.Medi” Galatone di Michele Caprio Classe 5 A st Liceo Scientifico.
1 DISTRIBUZIONI DI PROBABILITÁ. 2 distribu- zione che permette di calcolare le probabilità degli eventi possibili A tutte le variabili casuali, discrete.
Riduzione dei Dati. Nelle scienze sociali ci si trova molto spesso di fronte a ricerche in cui vi è una sovrabbondanza di misurazioni nel tentativo di.
Lezione n° 10 Algoritmo del Simplesso: - Coefficienti di costo ridotto - Condizioni di ottimalità - Test dei minimi rapporti - Cambio di base Lezioni di.
Il DEFF Il DEFF (Design EFFect) è l’Effetto del Piano di
Transcript della presentazione:

E SERCITAZIONE Ing. E. Ritacco Ing. M. Guarascio

E SERCIZIO 1 Si consideri il seguente data set Si definisca analiticamente un classificatore SVM, utilizzando il lagrangiano descritto dal vettore [0; 0; ; 0; 0; ; 0; 0; ; 0] T xyU

T-SVM S Le SVMs cercano liperpiano di separazione che tende a massimizzare il margine tra le etichette dei campioni. w H+H+ H-H- M d

E SERCIZIO 1 Il lagrangiano primale del problema è dato da Dove w e b caratterizzano liperpiano di separazione, e α rappresenta il lagrangiano.

E SERCIZIO 1 Le condizioni di ottimalità sono date dai valori della funzione che soddisfano:

E SERCIZIO 1 Semplificando, le condizioni possono essere riscritte in

E SERCIZIO 1 Lultima condizione specifica che, ove α i non sia uguale a 0, allora deve valere la condizione Nel nostro caso, α è dato dal vettore [0; 0; ; 0; 0; ; 0; 0; ; 0] T che caratterizza le tuple x 3, x 6, x 9 come vettori di supporto.

E SERCIZIO 1 Analiticamente, i coefficienti del decision boundary sono

E SERCIZIO 1 Graficamente

E SERCIZIO 2 Si consideri il seguente dataset:

E SERCIZIO 2 Considerando C come attributo di classe ed A e B come variabili numeriche continue, calcolare lentropia del data set e costruire due alberi di decisione: Discretizzando A e B. Assumendo A e B come attributi numerici.

E SERCIZIO 2

Lentropia dellintero Dataset è Si discretizzano A e B secondo i seguenti criteri: A MB=Molto Basso (X<10) B=Basso (10<=X<15) M=Medio (15<=X<20) A=Alto (20<=X<25) B B=Basso (X<5) A=Alto (X>=5)

E SERCIZIO 2

Lalbero di decisione è il seguente:

E SERCIZIO 2 Nellaltro caso invece, occorre scegliere lattributo su cui splittare. Lo split sullattributo A garantisce un maggior guadagno informativo, rimane però da stabilire la soglia per lo split. Visto che A assume 8 valori diversi possiamo scegliere fra 7 soglie diverse. Tramite la seguente tabella calcoliamo il guadagno informativo correlato allo split sulle varie soglie

E SERCIZIO 2 Risulta conveniente splittare il dataset distinguendo fra valori di A =12.

E SERCIZIO 2 A questo punto splittiamo su B. Risulta conveniente splittare il dataset distinguendo fra valori di B =7.

E SERCIZIO 2 Lultimo split viene fatto nuovamente su A, la scelta della soglia è banale.

E SERCIZIO 3 Si considerino i seguenti classificatori:

E SERCIZIO 3 Qual è il modello migliore? E se considerassimo la seguente matrice di costo? Guardare la sola predizione può essere fuorviante, conviene ricorrere allanalisi delle curve di ROC

E SERCIZIO 3 FPRTPR Soglie Classe reale TPTNFPFN11 0, ,875 0, ,75 0, ,625 0, ,5 0, , ,5 0, , ,5 0, ,5 0, ,375 0, ,125 0, ,125 0, FPRTPR Soglie Classe reale TPTNFPFN11 0, ,751 0, ,750, , ,50, , ,250, , ,250, , ,250, , ,250, , ,250, , , , , , ,

E SERCIZIO 3

Dalla convex hull si individuano 3 punti principali: P1(0;0.5),P2(0.25;0.85),P3(0.75;1) Costo(P1)= 0 x x 10 = 40 Costo(P2)= 1 x x 10 = 60 Costo(P3)= 3 x x 10 = 150

E SERCIZIO 4 Si consideri il seguente data set Si assuma il seguente modello probabilistico: Dove, per una generica variabile binaria z, vale Definire il passo E dellalgoritmo EM Per il modello probabilistico di cui sopra, definire il passo M x1x x2x x

E SERCIZIO 4 Sappiamo che:

E SERCIZIO 4 Introduciamo le variabili aleatorie y ik Il passo E dellalgoritmo corrisponde al calcolo di:

E SERCIZIO 4 Ma ricordiamo che

E SERCIZIO 4 Il passo M Definizione dei vincoli: Sempre vero

E SERCIZIO 4 Utilizziamo, quindi, i moltiplicatori di Lagrange

E SERCIZIO 4 Derivando su π

E SERCIZIO 4 Derivando sui parametri di θ, e ricordando che Allora: