Primo sguardo a metodi multivariati per l'analisi del ttH

Slides:



Advertisements
Presentazioni simili
Macchine di Percezione
Advertisements

Strutture dati per insiemi disgiunti
Apprendimento Automatico Apprendimento supervisionato
FACOLTA’ DI INGEGNERIA Corso di Laurea in Ingegneria Elettronica
Introduzione ai circuiti elettronici digitali
Sistemi di Classificazione usando NCD
11/2/2008 Selezione di eventi ttH con un approccio MEt + jet.
Riconoscimento di forme
Alberi binari di ricerca
Attività cerebrale I neuroni si attivano in gruppi sotto lazione di uno stimolo Attività in gruppi ben delimitati con alta o bassa attività Il gruppo.
Pattern Recognition con Reti Neurali MLP
ALGORITMI DI OTTIMIZZAZIONE PER L'ADDESTRAMENTO DI RETI NEURALI
Reti Neurali: studi sull'intelligenza artificiale
Le reti neurali dagli esordi alle applicazioni
Università degli Studi di Roma Tor Vergata
Valutazione delle ipotesi
Apprendimento di funzioni algebriche
Metodi di Ensemble Metaclassificatori.
Processi Aleatori : Introduzione – Parte I
Reti neurali naturali ed artificiali
Apprendimento: Regola “Delta”
Realizzazione e caratterizzazione di una semplice rete neurale per la separazione di due campioni di eventi Vincenzo Izzo.
Algoritmi e Strutture Dati (Mod. B)
Algoritmi e strutture dati
BIOINGEGNERIA S. Salinari Lezione 4.
TECNOLOGIE DEI SISTEMI DI CONTROLLO
“Riconoscimento di Facce”
BIOINGEGNERIA S. Salinari Lezione 7. RETI CON APPRENDIMENTO SUPERVISIONATO A DISTANZA Nello sviluppo delle reti neurali si è proceduto indebolendo via.
Modelli simulativi per le Scienze Cognitive Paolo Bouquet (Università di Trento) Marco Casarotti (Università di Padova)
Modelli simulativi per le Scienze Cognitive Paolo Bouquet (Università di Trento) Marco Casarotti (Università di Padova)
Modelli probabilistici
Filtri adattativi.
PATTERN RECOGNITION.
Reti Neurali Ricorrenti
Mercato Privati CAMPAGNA COMMERCIALE POSTA ON LINE (12 settembre – 12 novembre 2011) UP IMPRESA MODALITÀ E CONDIZIONI OPERATIVE.
Intelligenza Artificiale Algoritmi Genetici
APPLICAZIONI DI INTELLIGENZA ARTIFICIALE ALLA MEDICINA
Raffinamento nella Ricostruzione dei Jets – energia:
Universita' degli Studi di Torino Studio della reazione pp qqW L W L qq qq al rivelatore CMS ad LHC Gianluca CERMINARA.
Btag phisics object group Andrea Bocci Scuola Normale Superiore e INFN, Pisa CMS Italia 2007 – 13 Febbraio.
1 Esercizio 1 Un router riceve da un collegamento A lungo 10 km a 100 Mb/s e instrada i pacchetti ricevuti, lunghi 1000 bit verso una linea duscita B a.
PoliICR Riconoscimento dei Caratteri Daniele Gasperini – William Spinelli Riconoscimento dei Segnali: un approccio unitario prof. Sergio Brofferio.
Strutture dati per insiemi disgiunti
STATISTICA PER LE DECISIONI DI MARKETING
Capitolo 3 Strutture dati elementari Algoritmi e Strutture Dati Camil Demetrescu, Irene Finocchi, Giuseppe F. Italiano.
Ricerca dellHiggs del Modello Standard nel canale ttH con CMS Massimiliano Chiorboli Università di Catania.
La teoria dei campioni può essere usata per ottenere informazioni riguardanti campioni estratti casualmente da una popolazione. Da un punto di vista applicativo.
Perceptron. è la somma effettuata sul nodo i-esimo dello strato j n è il numero di nodi dello strato j-1 è l'output proveniente dal nodo k-esimo dello.
Metaclassificazione Giovedì, 18 novembre 2004 Francesco Folino ( Combinare Classificatori Lecture 8.
Rete di Hopfield applicata al problema del TSP Federica Bazzano
1 Misura Dello Spin del Neutralino ad LHC/ATLAS M. Biglietti, I. Borjanovic, G. Carlino, F. Conventi, E. Gorini, A. Migliaccio, E. Musto, M. Primavera,
Simone Gennai INFN Sez. di Pisa I.F.A.E Strategie di trigger per eventi SUSY a LHC.
POLITECNICO DI MILANO Facoltà di Ingegneria Corso di Laurea in Ingegneria Informatica STUDIO E REALIZZAZIONE DI UN BRACCIO ROBOTICO ANTROPOMORFO E SOLUZIONE.
SEGMENTAZIONE PER OBIETTIVI: CHAID
Esercitazione 2 Reti Neurali Backpropagation. 2 Esercizio 1  Scompattare bp  Compilare i 4 programmi (con make, v.file readme )  Utilizzare i dati.
RETI NEURALI ARTIFICIALI
Automated counting of phytoplankton by pattern recognition: a comparison with a manual counting method K. V. EMBLETON, C. E. GIBSON AND S. I. HEANEY.
RETI NEURALI - 2.
Intelligenza Artificiale
Intelligenza Artificiale Reti Neurali
APPROSSIMAZIONE DI FUNZIONI
Efficient construction of regression trees with Range and Region Splitting Yasuhiko Morimoto, Hiromu Ishii, Shinichi Morishita (1997) Gruppo 11: Paola.
Ricerca del bosone di Higgs leggero, SM o MSSM, nei canali bb(bar) e ττ in CMS a LHC Andrea Gozzelino per la collaborazione CMS PAS HIG | PAS HIG
U.GaspariniCorso SM, Dottorato, XIII ciclo1 LEP: la ricerca diretta dell’Higgs L’ accoppiamento del campo di Higgs ai bosoni vettori ed ai fermioni è totalmente.
Gabriele Sirri Istituto Nazionale di Fisica Nucleare
REALIZZAZIONE DI UN SISTEMA DI CLASSIFICAZIONE Prof. Roberto Tagliaferri Studente: Ragognetti Gianmarco Corso di Reti Neurali e Knowledge Discovery A.A.
Tecniche di Gestione della Qualità Prof. Alessandro Ruggieri Prof. Enrico Mosconi A.A
Stima back of envelope dell’efficienza di segnale per particelle di carica frazionaria e reiezione del bkg – Segnale muon-like con ionizzazione media (1/3)^2.
Esercitazione N°5 Approssimazione di Funzioni. Esercizio 1 Costruzione di una rete RBF Il metodo più semplice per approssimare una funzione mediante reti.
Study of coincidences due to 40 K photons between adjacent OMs Paolo Fermani & ROMA group Catania Università di Roma «La Sapienza» – INFN Roma.
Transcript della presentazione:

Primo sguardo a metodi multivariati per l'analisi del ttH Studiare il possibile miglioramento di sensibilità per il segnale ttH nel canale MEt+Jet usando metodi multivariati Utilizzato il framework delle analisi multivariate di Root (TMVA)‏ Al momento considerato solo reti neurali (MLP) e boosted decision trees (BDT)‏ 10000 eventi usati per il training, il resto per il test Gli eventi sono pescati in modo casuale dal sample corrispondente

Variabili usate e loro correlazioni Dopo la selezione di eventi con MEtSig > 3 e jets(Et>25GeV && |η|<3) >= 5 e niente trigger ttH tt+Njets

Boosted decision trees Un decision tree è un classificatore ad albero binario in cui decisioni binarie vengono ripetute su un evento finchè non si raggiunge una classificazione (una foglia)‏ Il boosting consiste nel creare una foresta di alberi ad ogni iterazione gli eventi vengono pesati secondo l'errore dell'iterazione precedente Alla fine viene presa una decisione democratica usando tutta la foresta

Classificazione eventi ttH vs tt+Njets Addestrata una foresta di 400 alberi Indice di Gini i = p(1-p)‏ seleziona la decisione per cui imother – Σ(idaughter*evfrac) è massima nCuts = 20 AdaBoost α = (1-err)/err Pruning a 4.5 (Cost Complexity) fatto dopo il boosting Risposta yBDT(x) = Σln(αi)hi(x)‏ Discriminatore S vs B

Rete Neurale MLP Una rete neurale è una sequenza di neuroni che rispondono in funzione dell'input ricevuto Può essere vista come una mappa non lineare (se almeno uno dei neuroni ha funzione di risposta non lineare) dallo spazio delle variabili a uno spazio di arrivo Si parte da pesi casuali e li si modifica in modo da minimizzare l'errore sulla risposta

Classificazione eventi con MLP MLP feed-forward 2 strati nascosti, il primo con 26 neuroni e il secondo con 25 Funzione di risposta del neurone = sigmoide Addestramento con back- propagation, online Per ridurre overtraining si controlla ad ogni iterazione l'errore sul test sample oltre che sul training sample Si ferma quando l'errore sul campione di controllo è sotto la soglia fissata

Confronto overtraining Il BDT è più sensibile a overtraining, bisogna aumentare il campione di training e aggiustare il pruning Overtraining del BDT

Efficienza di segnale vs reiezione del bakground Il BDT è migliore per alti valori di efficienza, ma nella regione con alta reiezione di bakground la differenza è minore

Rimosse le variabili più correlate Tenendo le 14 variabili meno correlate non si perde molto in discriminazione, l'MLP recupera sul BDT MLP con 2 strati:15,14

Variazioni struttura MLP Layer dell'MLP: 3 layer: 15-5+5,14-5+5,13-5+5 2 layer: 15-5+5,14-5+5 Modificando la struttura non si guadagna molto 2 Layer 3 Layer BDT MLP

To do Gli eventi di fondo non sono pesati, pesare i diversi tipi in proporzione alle sezioni d'urto Confrontare l'aumento di significanza rispetto al metodo di likelihood già studiato Ottimizzare il set di variabili da usare per MLP e BDT separatamente Determinare i parametri (struttura della rete, forza del pruning per il BDT, ...)‏ Aggiungere altri metodi, il SVM sembra promettente Testare anche il metodo di decorrelazione lineare interno di TMVA