La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Primo sguardo a metodi multivariati per l'analisi del ttH

Presentazioni simili


Presentazione sul tema: "Primo sguardo a metodi multivariati per l'analisi del ttH"— Transcript della presentazione:

1 Primo sguardo a metodi multivariati per l'analisi del ttH
Studiare il possibile miglioramento di sensibilità per il segnale ttH nel canale MEt+Jet usando metodi multivariati Utilizzato il framework delle analisi multivariate di Root (TMVA)‏ Al momento considerato solo reti neurali (MLP) e boosted decision trees (BDT)‏ 10000 eventi usati per il training, il resto per il test Gli eventi sono pescati in modo casuale dal sample corrispondente

2 Variabili usate e loro correlazioni
Dopo la selezione di eventi con MEtSig > 3 e jets(Et>25GeV && |η|<3) >= 5 e niente trigger ttH tt+Njets

3 Boosted decision trees
Un decision tree è un classificatore ad albero binario in cui decisioni binarie vengono ripetute su un evento finchè non si raggiunge una classificazione (una foglia)‏ Il boosting consiste nel creare una foresta di alberi ad ogni iterazione gli eventi vengono pesati secondo l'errore dell'iterazione precedente Alla fine viene presa una decisione democratica usando tutta la foresta

4 Classificazione eventi ttH vs tt+Njets
Addestrata una foresta di 400 alberi Indice di Gini i = p(1-p)‏ seleziona la decisione per cui imother – Σ(idaughter*evfrac) è massima nCuts = 20 AdaBoost α = (1-err)/err Pruning a 4.5 (Cost Complexity) fatto dopo il boosting Risposta yBDT(x) = Σln(αi)hi(x)‏ Discriminatore S vs B

5 Rete Neurale MLP Una rete neurale è una sequenza di neuroni che rispondono in funzione dell'input ricevuto Può essere vista come una mappa non lineare (se almeno uno dei neuroni ha funzione di risposta non lineare) dallo spazio delle variabili a uno spazio di arrivo Si parte da pesi casuali e li si modifica in modo da minimizzare l'errore sulla risposta

6 Classificazione eventi con MLP
MLP feed-forward 2 strati nascosti, il primo con 26 neuroni e il secondo con 25 Funzione di risposta del neurone = sigmoide Addestramento con back- propagation, online Per ridurre overtraining si controlla ad ogni iterazione l'errore sul test sample oltre che sul training sample Si ferma quando l'errore sul campione di controllo è sotto la soglia fissata

7 Confronto overtraining
Il BDT è più sensibile a overtraining, bisogna aumentare il campione di training e aggiustare il pruning Overtraining del BDT

8 Efficienza di segnale vs reiezione del bakground
Il BDT è migliore per alti valori di efficienza, ma nella regione con alta reiezione di bakground la differenza è minore

9 Rimosse le variabili più correlate
Tenendo le 14 variabili meno correlate non si perde molto in discriminazione, l'MLP recupera sul BDT MLP con 2 strati:15,14

10 Variazioni struttura MLP
Layer dell'MLP: 3 layer: ,14-5+5,13-5+5 2 layer: ,14-5+5 Modificando la struttura non si guadagna molto 2 Layer 3 Layer BDT MLP

11 To do Gli eventi di fondo non sono pesati, pesare i diversi tipi in proporzione alle sezioni d'urto Confrontare l'aumento di significanza rispetto al metodo di likelihood già studiato Ottimizzare il set di variabili da usare per MLP e BDT separatamente Determinare i parametri (struttura della rete, forza del pruning per il BDT, ...)‏ Aggiungere altri metodi, il SVM sembra promettente Testare anche il metodo di decorrelazione lineare interno di TMVA


Scaricare ppt "Primo sguardo a metodi multivariati per l'analisi del ttH"

Presentazioni simili


Annunci Google