La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

20 Settembre 2007Fabrizio Cei1 Situazione del software di MEG, catena di analisi e preparazione al run 2007 Fabrizio Cei INFN e Università di Pisa CSN1,

Presentazioni simili


Presentazione sul tema: "20 Settembre 2007Fabrizio Cei1 Situazione del software di MEG, catena di analisi e preparazione al run 2007 Fabrizio Cei INFN e Università di Pisa CSN1,"— Transcript della presentazione:

1 20 Settembre 2007Fabrizio Cei1 Situazione del software di MEG, catena di analisi e preparazione al run 2007 Fabrizio Cei INFN e Università di Pisa CSN1, Frascati 20 Settembre 2007

2 20 Settembre 2007Fabrizio Cei2 Sommario  Struttura e stato del software di MEG  Release del software, produzione di massa  Riepilogo sulle risorse di CPU e spazio disco/nastro disco/nastro  Schema della procedura di analisi  Tecnica di analisi (likelihood)  Organizzazione del Run 2007

3 20 Settembre 2007Fabrizio Cei3 Struttura del software di MEG MEGMC MEGBartender(ROME) MEGAnalyzer MEGAnalyzer(ROME) DAQ ZEBRA ROOT MIDAS ROOT Simulazione Dati reali Simulazione WFM e pile-up

4 20 Settembre 2007Fabrizio Cei4 Interfaccia con i DataBase ODB (Online DataBase) DAQ MYSQL DataBase On-line Monitor (3 rd Level trigger ?) Offline(MEGAnalyzer) Front End Run Catalog mid2root Costanti di Calibrazione ricostruzione Dati Midas Dati Root Tabelle DB

5 20 Settembre 2007Fabrizio Cei5 Aggiornamenti: MEGMC Generazione degli eventi:Generazione degli eventi: – implementati nuovi eventi di calibrazione: LED, protoni su B, cosmici; – in fase di implementazione la simulazione dell’annichilazione in volo dei positroni tramite campionamento della traiettoria (test in corso); dei positroni tramite campionamento della traiettoria (test in corso); – raffinamento della simulazione del decadimento radiativo con calcolo dello spazio delle fasi corrispondente al range cinematico. calcolo dello spazio delle fasi corrispondente al range cinematico. Apparato sperimentale:Apparato sperimentale: - campo magnetico unificato con MEGBartender/MEGAnalyzer; - campo magnetico unificato con MEGBartender/MEGAnalyzer; - piccoli raffinamenti “in corso d’opera” durante l’allestimento - piccoli raffinamenti “in corso d’opera” durante l’allestimento (angolo del bersaglio, pannelli di honeycomb, LED …); (angolo del bersaglio, pannelli di honeycomb, LED …); - opzioni per differenti geometrie (RUN2007, RUN2006 …); - opzioni per differenti geometrie (RUN2007, RUN2006 …); - miglioramento nella simulazione della deriva elettronica nelle camere - miglioramento nella simulazione della deriva elettronica nelle camere (aggiunta della diffusione). (aggiunta della diffusione). Riorganizzazione della struttura degli hits (TICP(Z), DCH, XEC). Riorganizzazione della struttura degli hits (TICP(Z), DCH, XEC).

6 20 Settembre 2007Fabrizio Cei6 Aggiornamenti: MEGBartender MEGBartender funziona in maniera stabile.  Mescola eventi MC a distanza temporale fissa o utilizzando la statistica di Poisson; utilizzando la statistica di Poisson;  Raffinamento dei parametri della simulazione sulla base dei dati del run 2006; sulla base dei dati del run 2006;  Simulazione delle waveforms: aggiunti TTS per LXe, attenuazione del DRS, funzione di risposta delle DCH, attenuazione del DRS, funzione di risposta delle DCH, effetti degli splitter; effetti degli splitter;  Implementata la simulazione di vari tipi di trigger;  Tempo di calcolo: (1.2  1.3) sec CPU/evento nella regione del segnale. regione del segnale.

7 20 Settembre 2007Fabrizio Cei7 Aggiornamenti: MEGAnalyzer  Utilizzabile sia in off-line che come on-line monitor;  Grande sforzo nella parte di tracciamento del positrone: multipli algoritmi di hit e cluster finding e di track finding e fitting; algoritmi di hit e cluster finding e di track finding e fitting;  Implementati algoritmi di decodifica delle waveforms (estrazione di tempo e carica), ricostruzione temporale e calibrazione per il di tempo e carica), ricostruzione temporale e calibrazione per il calorimetro a Xenon liquido e per il TC; calorimetro a Xenon liquido e per il TC;  Aggiunti algoritmi di pattern recognition per il pile-up nel calorimetro; calorimetro;  Inserito un gruppo di routines (GLB) per la ricostruzione finale dell’evento (correlazione DC-TC, angolo e tempo relativo fra dell’evento (correlazione DC-TC, angolo e tempo relativo fra fotone e positrone, selezione degli eventi più interessanti …). fotone e positrone, selezione degli eventi più interessanti …).

8 20 Settembre 2007Fabrizio Cei8 I metodi (tasks) per LXe

9 20 Settembre 2007Fabrizio Cei9 I metodi per DCH e TC  DCH Era la parte più carente, per cui è quella su cui si è concentrato il maggior impegno (~ 10 fisici).  TC Implementate anche tasks per il calcolo della lunghezza di attenuazione.

10 20 Settembre 2007Fabrizio Cei10 Composizione del gruppo di analisi e responsabilità Coordinazione/framework: R.Sawada (Tokyo), M.Schneebeli (PSI)Coordinazione/framework: R.Sawada (Tokyo), M.Schneebeli (PSI) Gestione del database: R. SawadaGestione del database: R. Sawada Analyzer:Analyzer: LXe: R.Sawada, G.Signorelli (Pisa), F. Cei (Pisa) + alcuni studenti di Pisa e Tokyo DCH: M.Schneebeli, H.Nishiguchi (Tokyo), P.Huwe (UCI), F. Ignatov (PSI), W. Molzon (UCI), B. Golden (UCI), V. Tumakov (UCI), (PSI), W. Molzon (UCI), B. Golden (UCI), V. Tumakov (UCI), C. Topchan (UCI), D. Nicolò (Pisa), F. Yu (UCI), F. Xiao (UCI); C. Topchan (UCI), D. Nicolò (Pisa), F. Yu (UCI), F. Xiao (UCI); TC: P.Cattaneo (Pavia), A. Barchiesi (Roma), G. Cavoto (Roma), D. Zanello (Roma), S. Dussoni (Genova), L. Galli (Pisa), G. Gallucci (Pisa), C. Voena (Roma), Y. Uchiyama (Tokyo); D. Zanello (Roma), S. Dussoni (Genova), L. Galli (Pisa), G. Gallucci (Pisa), C. Voena (Roma), Y. Uchiyama (Tokyo); Trigger: D. Nicolò, G. Signorelli, L. Galli, Y. Hisamatsu (Tokyo). Nuovi membri

11 20 Settembre 2007Fabrizio Cei11 Release del software Il release del software atteso per aprile è stato posposto alla fine di settembre a causa di: - definizione della struttura dei dati e degli hits e match fra MEGMC, MEGBartender degli hits e match fra MEGMC, MEGBartender e MEGAnalyzer; e MEGAnalyzer; - problemi sul Bartender (mixing troppo lento); - quantità ed importanza degli upgrades (soprattutto per DCH). (soprattutto per DCH).

12 20 Settembre 2007Fabrizio Cei12 Produzione di massa MC Test preliminari (~ 10 5 eventi) superati con successo. Necessario definire il tipo ed il numero di eventi da generare per ciascun tipo. generare per ciascun tipo. Richieste previste per il 2007:  RUN2007 (LXe, DCH, TC)  Calibrazioni (LXe, DCH, TC)  Tabelle per il Trigger (Trigger) In passato una sola richiesta, dal gruppo di lavoro dell’analisi (utile anche come test ulteriore e per una dell’analisi (utile anche come test ulteriore e per una valutazione dei tempi necessari). valutazione dei tempi necessari). Produzione 2008: discussione nelle milestones.

13 20 Settembre 2007Fabrizio Cei13 Produzione per il gruppo di analisi gem RD (Y>0.01) 1,500 k events 15 Hrs 90 GB gem Michel (X>0.01) 1,000 k events 1 Hrs 52 GB gem RD (Y>0.5) 1,000 k events 72 Hrs 165 GB Bartender 100 k events 1.9 Hrs 71 GB gem RD (Y>0.01) 1,500 k events (15 Hrs) (90 GB) gem Michel (X>0.01) 1,000 k events (1 Hrs) (52 GB) gem RD (Y>0.75, X>0.90) 1,000 k events 84 Hrs 200 GB Bartender 100 k events 1.7 Hrs 73 GB Fondo Accidentale (100 k eventi) – 3 x 10 7 /s  stopping rate Fondo Correlato (100 k eventi) - 3 x 10 7 /s  stopping rate Mescolamento con trigger  → e  (30 k eventi) – 3 x 10 7 /s  stopping rate gem RD (Y>0.01) 1,500 k events (15 Hrs) (90 GB) gem Michel (X>0.01) 1,000 k events (1 Hrs) (52 GB) Segnale (no trigger) 100 k events 10 Hrs 24 GB Bartender 30 k events 0.5 Hrs 25 GB Totale: 186 ore (1 settimana) di CPU e 700 GB sul cluster del PSI.

14 20 Settembre 2007Fabrizio Cei14 Sistema offline di MEG Situazione attuale:Situazione attuale: - 20 Cores Opteron 2.4 GHz in linea + 4 Cores in installazione; - 46 Tb disco per l’acquisizione dati + 750 Gb per analisi individuali; - disponibilità di tapes ignota. I Cores saranno portati gradualmente a 64; le macchine sono già al PSI eI Cores saranno portati gradualmente a 64; le macchine sono già al PSI e sono sotto tests. Altri 3 Tb di disco attendono di essere montati. sono sotto tests. Altri 3 Tb di disco attendono di essere montati. Sun Fire x4100 quad core 4 GB Fiber Channel Switch 15 x 500 GB SATA GBit Ethernet

15 20 Settembre 2007Fabrizio Cei15 Necessità di MEG e disponibilità del PSI Stime di gennaio 2006: 60  70 Tb/anno (TAPE); 10 Tb/anno (DISCO); 50  70 CPU/anno Per il run 2007, 20 Tb di disco dovrebbero essere sufficienti per la presa dati, a cui occorre aggiungere il MC. Per questo run non sono previste riduzioni dei dati (tests).

16 20 Settembre 2007Fabrizio Cei16 Modello di calcolo Strategia generale :  il PSI garantisce la potenza di calcolo e lo spazio disco necessario per le analisi di massa e le calibrazioni; necessario per le analisi di massa e le calibrazioni;  in Italia (singole sezioni) si esegue solo l’analisi finale su un ristretto campione di dati calibrati e ricostruiti in dettaglio.  Anche le altre istituzioni (Giappone e USA) intendono seguire uno schema simile per limitazioni di intendono seguire uno schema simile per limitazioni di potenza di calcolo e di velocità di trasferimento. potenza di calcolo e di velocità di trasferimento.

17 20 Settembre 2007Fabrizio Cei17 Modello di calcolo: assunzioni Dati reali  Assumiamo un trigger rate di 5 Hz e 10 7 sec di tempo vivo/anno  5 x 10 7 eventi/anno.  5 x 10 7 eventi/anno.  Ciascun evento (senza riduzioni) occupa ~ 9 Mb (incluso il trigger), dominato dalle waveforms (1024 canali, 2 Bytes/canale); lo spazio dominato dalle waveforms (1024 canali, 2 Bytes/canale); lo spazio corrispondente è quindi ~ 450 Tb/anno. corrispondente è quindi ~ 450 Tb/anno.Calibrazioni  ~ 5 x 10 7 eventi/anno nel calorimetro (p su Li, ,  da Ni,  0 …); NO WFM   8 kb/evento   500 Gbytes/anno NO WFM   8 kb/evento   500 Gbytes/anno  ~ 10 7 eventi/anno nelle DCH (positroni di Michel, cosmici..); NO WFM   5 kb/evento   60 Gbytes/anno NO WFM   5 kb/evento   60 Gbytes/anno  TC piccolo impatto  totale calibrazioni < 1 Tb/anno Monte Carlo  ~ 40  50 Tb

18 20 Settembre 2007Fabrizio Cei18 Passi dell’analisi  PASSO 0: compressione e pre-analisi on-line al PSI  Necessario un fattore 15 di compressione (450  30 Tb, discussione in seguito);  Algoritmi on-line rapidi forniscono informazioni ADC-TDC-like;  I dati compressi vengono salvati su dischi/nastri del PSI.  PASSO 1: ricostruzione rapida al PSI  Tramite l’informazione veloce si può ridurre il numero di eventi di circa un fattore 50  100 utilizzando: impulso positrone, energia fotone, correlazione fattore 50  100 utilizzando: impulso positrone, energia fotone, correlazione angolare; efficienza ~ 90 %. angolare; efficienza ~ 90 %.  Tagli laschi per minor qualità dell’informazione e calibrazione;  Salvataggio anche dell’informazione ricostruita;  PASSO 2: ricostruzione completa al PSI del campione selezionato e produzione di n-uple (o trees) con calibrazioni più raffinate produzione di n-uple (o trees) con calibrazioni più raffinate  Analisi wfm dettagliata (ricerca di pile-up …);  Occupazione totale delle n-uple per 10 6 eventi è ~ alcuni Gb (trascurabile);  PASSO 3: trasferimento dati selezionati + n-uple e analisi locale  Analisi finale per la - ricerca di eventi  e  ; - studio di fondi, correlazioni …;  Trasferire anche i dati raw per ripetere l’analisi delle wfm su eventi interessanti.

19 20 Settembre 2007Fabrizio Cei19 Riduzione dati (Tb) Originale Passo 0 Passo 1 Passo 2 Passo 3 Dati 450 20  40 0.2  0.4 0.2  0.4 come 2 + n-uple Cal. 1 non non ~ 0.1 ~ 0.01 applicato applicato (n-uple + applicato applicato (n-uple + database) database) MC40  50 non non 0.04 ~ 0.05 applicato applicato applicato applicato Tot.  500 20  40 0.2  0.4 0.3  0.5 < 0.5 + MC + MC + MC + MC

20 20 Settembre 2007Fabrizio Cei20 Tempo macchina Passo 0 Passo 1 Passo 2 Passo 3 Passo 0 Passo 1 Passo 2 Passo 3 Dati cluster (0.5  1) (1  2) ~ 0.1 sec/ev. on-line sec/evento sec/evento + riprocess... Calibr. non non (0.5  1) ~ 0.1 sec/ev. applicato applicato sec/evento + riprocess... applicato applicato sec/evento + riprocess... MC non (10  20) (1  2) come i dati applicato sec/evento sec/evento applicato sec/evento sec/evento (produzione) (produzione) Totale on-line 5 x 10 7 s + MC 5 x 10 7 s ~ mese Cores on-line 30 + 40 (MC) 30 (Calibr.) 4  6 Proces. 1 5 + MC 10 + MC varie

21 20 Settembre 2007Fabrizio Cei21 Conclusione sul modello  La strategia di calcolo assume che tutto la parte “pesante” sia eseguita al PSI: sia eseguita al PSI: - analisi fino alla produzione di n-uple; - compressione e analisi on-line: PASSO 0 - ricostruzione veloce e preselezione: PASSO 1 - analisi accurata: PASSO 2 - processamento calibrazioni: solo PASSO 2; - produzione e analisi MC: solo PASSO 2;  A livello locale si esegue solo l’analisi di n-uple o trees su campioni selezionati: PASSO 3; campioni selezionati: PASSO 3;  Le necessità locali per questo tipo di analisi sono dell’ordine di: 5  6 CPU’s (Opteron, Pentium IV …) 2 Tb di disco per 3  4 ricostruzioni

22 20 Settembre 2007Fabrizio Cei22 Problema: dimensione dei dati  Nel run 2006 la dimensione degli eventi era di 2.8 Mb e corrispondeva a 1/3 della configurazione Mb e corrispondeva a 1/3 della configurazione finale (50% DC + TICP, no LXe); il rate di finale (50% DC + TICP, no LXe); il rate di acquisizione era di ~ 10 Hz. acquisizione era di ~ 10 Hz.  Senza alcuna riduzione si può quindi stimare una dimensione degli eventi di 9 Mb, che con un trigger dimensione degli eventi di 9 Mb, che con un trigger rate di 5 Hz ed un tempo vivo di 10 7 sec corrisponde rate di 5 Hz ed un tempo vivo di 10 7 sec corrisponde a 450 Tb/anno, inaccettabile per le limitazioni di a 450 Tb/anno, inaccettabile per le limitazioni di storage al PSI storage al PSI  necessità di riduzione dei dati  necessità di riduzione dei dati  0.4  0.8 Mb/evento  20  40 Tb/anno.  0.4  0.8 Mb/evento  20  40 Tb/anno.

23 20 Settembre 2007Fabrizio Cei23 Soluzioni proposte  Riduzione dati delle waveforms: - Soppressione degli zeri (canali sotto soglia); -Riduzione del numero di punti tramite re-binning (in alcune regioni, per es. la coda degli impulsi); -Riduzione della finestra temporale di registrazione dei dati.  Registrazione della sola informazione ADC/TDC per eventi di calibrazione; eventi di calibrazione;  Trigger di 3 o livello (selezione on-line degli eventi tramite una ricostruzione veloce). tramite una ricostruzione veloce).

24 20 Settembre 2007Fabrizio Cei24 Applicabilità Calorimetro a LXe: Calorimetro a LXe: verificato che un re-binning 1:4 per altezza d’impulso < 20 mV e 1:8 per altezza d’impulso < 10 mV non ha effetti rilevanti sulla 1:8 per altezza d’impulso < 10 mV non ha effetti rilevanti sulla ricostruzione in E e t  re-binning è una soluzione praticabile. ricostruzione in E e t  re-binning è una soluzione praticabile. DCH: DCH: - il numero medio di fili colpiti per camera è 2.7 su 9  - il numero medio di fili colpiti per camera è 2.7 su 9  soppressione degli zeri produce un fattore di riduzione 3.2; soppressione degli zeri produce un fattore di riduzione 3.2; - un ulteriore fattore 1.4 si può ottenere utilizzando una finestra - un ulteriore fattore 1.4 si può ottenere utilizzando una finestra temporale di 700 ns per eventi di Michel. temporale di 700 ns per eventi di Michel. Timing Counter: Timing Counter: TC (120 ch) ha molto minor impatto di DCH (1728) e LXe (846). Tuttavia: TC (120 ch) ha molto minor impatto di DCH (1728) e LXe (846). Tuttavia: - larghezza d’impulso (~ 50 ns) « finestra DRS (512 ns)  - larghezza d’impulso (~ 50 ns) « finestra DRS (512 ns)  possibile ridurre la finestra di registrazione; possibile ridurre la finestra di registrazione; - generalmente (2  3 barre) su 30 per evento  soppressione zeri realistica. - generalmente (2  3 barre) su 30 per evento  soppressione zeri realistica.

25 20 Settembre 2007Fabrizio Cei25 Stato e prospettive Situazione : - implementata libreria on-line di funzioni per l’analisi waveform; - implementata la soppressione degli zeri a soglia singola; - implementata la riduzione dei dati DCH nel front-end; - implementato il calcolo dell’ADC nel front-end; Da fare: - completare implementazione di analisi waveforms; - algoritmo per informazione TDC; - studi sistematici degli effetti sui dati per ciascun rivelatore; - implementare trigger di terzo livello; - test degli algoritmi di riduzione nel RUN 2007.

26 20 Settembre 2007Fabrizio Cei26 Analisi di likelihood per MEG  Confronta le distribuzioni attese e misurate per il segnale ed il fondo e quindi utilizza il massimo di informazione disponibile.  Necessario determinare le distribuzioni di probabilità (pdf) per il segnale (S) e per il fondo correlato (RD) ed accidentale.  Attualmente le pdf si possono estrarre con il MC, ma per il fondo potranno essere misurate (almeno in parte) sui dati reali.  Lo scopo di questi studi è la determinazione della sensibilità di MEG nel caso di 0 eventi di segnale e fondo eguale all’aspettato (“null experiment”). L’ordinamento degli esperimenti simulati si basa sulla prescrizione di Feldman e Cousins (“likelihood ratio”).

27 20 Settembre 2007Fabrizio Cei27 PDF’s 1): e + &  energy e+e+e+e+ Segnale FWHM = 0.8 % RD Accidentale  RD Segnale Accidentale FWHM = 5 % Utilizzato per i fotoni solo il fondo radiativo (anche per le accidentali) con E > 50 MeV. Pdf’s normalizzate a 1 e sommate in base al peso relativo atteso dei vari tipi di eventi. FWHM del positrone migliorata 1.0  0.8 %; FWHM del fotone migliorata 6.5  5 %.

28 20 Settembre 2007Fabrizio Cei28 PDF’s 2):  t &  tttt  Segnale + RD Accidentale (assunto piatto) Segnale Accidentale (assunto piatto in cos  ) RD FWHM = 180 ps FWHM  1 o  t assunto piatto per gli eventi accidentali e gaussiano per segnale/RD (come da risultato MC, con un miglioramento);  ricavato da MC (risultati MC compatibili con la proposta).

29 20 Settembre 2007Fabrizio Cei29 Sensibilità Tre possibili finestre di ricerca: il risultato non dipende dai tagli scelti. Tre possibili finestre di ricerca: il risultato non dipende dai tagli scelti. Il limite di sensibilità vale Il limite di sensibilità vale 2.15 x 10 -13 2.15 x 10 -13 equivalente a quello che si ottiene con un’analisi di box equivalente a quello che si ottiene con un’analisi di box assumendo fondo  0. assumendo fondo  0. Eventi binnati per semplicità di calcolo; ripetuto unbinned migliora a  1.9 x 10 -13. calcolo; ripetuto unbinned migliora a  1.9 x 10 -13. Importante: conoscendo la pdf del fondo si tiene conto in modo automatico degli eventi di fondo che penetrano nella Importante: conoscendo la pdf del fondo si tiene conto in modo automatico degli eventi di fondo che penetrano nella regione del signale. regione del signale. 2.15 x 10 -13 del “null” experiment N.B. Cerchi vuoti & croci sono spostate di 0.05 sull’asse x (B.R.) per chiarezza.  rate 3 x 10 7 /s Tempo di misura: 3 anni Efficienza  25 %

30 20 Settembre 2007Fabrizio Cei30 Vantaggio: effetti di bordo Box analysis window Likelihood analysis window 0 eventi nella box analysis Box analysis window Likelihood analysis window 1 evento nella box analysis Box analysis: il limite peggiora in maniera discontinua. Likelihood analysis: considera l’evento una fluttuazione del fondo, per cui il valore della likelihood cambia molto poco  il limite peggiora poco e con continuità.

31 20 Settembre 2007Fabrizio Cei31 Organizzazione run 2007 - 1)  Immagazzinamento dei dati: possibile struttura delle directory. possibile struttura delle directory. Che fare con i junk runs ? (informazioni sui Che fare con i junk runs ? (informazioni sui punti critici del sistema) punti critici del sistema)  Standardizzazione delle procedure di analisi on-site e off-line (produzione e applicazione on-site e off-line (produzione e applicazione delle costanti di calibrazione, ricostruzione delle costanti di calibrazione, ricostruzione completa, selezione degli eventi …); completa, selezione degli eventi …);  Analisi del tempo necessario per il processamento delle calibrazioni processamento delle calibrazioni e la determinazione delle costanti; e la determinazione delle costanti; +- run +- 001xx | +- 002xx | +- 003xx | +- calib +- 001xx | +- 002xx | +- 003xx | +- junk +- 001xx +- 002xx +- 003xx Separare LXe, DCH, TC, Trigger, …

32 20 Settembre 2007Fabrizio Cei32 Organizzazione run 2007 - 2)  Distribuzione dei dati all’esterno del PSI. Nel nostro modello di calcolo tutta la parte pesante deve essere Nel nostro modello di calcolo tutta la parte pesante deve essere svolta al PSI. Inoltre trasferire tutti i dati saturerebbe la rete svolta al PSI. Inoltre trasferire tutti i dati saturerebbe la rete (ci attendiamo un rate di dati di 5 Mb/s, mentre il link PSI- (ci attendiamo un rate di dati di 5 Mb/s, mentre il link PSI- Tokyo(UCI) arriva a (200  400) kB/s). Pertanto la distribuzione dei Tokyo(UCI) arriva a (200  400) kB/s). Pertanto la distribuzione dei dati richiede una preselezione (on or off-line). dati richiede una preselezione (on or off-line).  Copia dei dati dall’on-line ai dischi off-line tramite una procedura automatica (da scrivere); automatica (da scrivere);  Formazione di gruppi di esperti per la calibrazione dei singoli sottorivelatori; sottorivelatori;  Compito software dei turnisti: controllare la qualità dei dati tramite opportuni istogrammi di controllo forniti dagli esperti. tramite opportuni istogrammi di controllo forniti dagli esperti.

33 20 Settembre 2007Fabrizio Cei33 Conclusioni - 1) Il software di MEG ha raggiunto una condizione di buona stabilità in molte sue componenti (MEGMC, buona stabilità in molte sue componenti (MEGMC, MEGBartender, molte sezioni di MEGAnalyzer), per cui MEGBartender, molte sezioni di MEGAnalyzer), per cui è pronto per un nuovo release (fine settembre); è pronto per un nuovo release (fine settembre); Importanti progressi soprattutto nelle DCH e nell’organizzazione dei dati; nell’organizzazione dei dati; Meetings frequenti e regolari per i sottorivelatori; Una prima produzione di massa MC è stata effettuata positivamente sul cluster del PSI; una produzione più positivamente sul cluster del PSI; una produzione più consistente è attesa per l’anno prossimo; consistente è attesa per l’anno prossimo;

34 20 Settembre 2007Fabrizio Cei34 Conclusioni – 2) L’applicabilità dell’analisi di likelihood a MEG è stata verificata positivamente su dati MC ed ha fornito una verificata positivamente su dati MC ed ha fornito una ragionevole stima della sensibilità di MEG; ragionevole stima della sensibilità di MEG; Le risorse di calcolo e spazio disco al PSI (circa un terzo della configurazione finale) sembrano sufficienti terzo della configurazione finale) sembrano sufficienti per il run 2007 + MC e sono in progressiva evoluzione; per il run 2007 + MC e sono in progressiva evoluzione; Lo schema dell’analisi è basato su un’analisi di massa con processamento delle calibrazioni al PSI ed un’analisi processamento delle calibrazioni al PSI ed un’analisi finale su un campione ristretto nelle singole istituzioni. finale su un campione ristretto nelle singole istituzioni. L’organizzazione del run 2007 è in corso; alcuni punti devono essere definiti in dettaglio (gestione dei dati, devono essere definiti in dettaglio (gestione dei dati, procedure automatizzate di analisi, compiti dei turnisti …). procedure automatizzate di analisi, compiti dei turnisti …).


Scaricare ppt "20 Settembre 2007Fabrizio Cei1 Situazione del software di MEG, catena di analisi e preparazione al run 2007 Fabrizio Cei INFN e Università di Pisa CSN1,"

Presentazioni simili


Annunci Google