Il calcolo per l’esperimento GERDA Luciano Pandola INFN, Laboratori del Gran Sasso Riunione della CSN2, LNF Frascati, 29 Novembre 2011.

Slides:



Advertisements
Presentazioni simili
E835 & Hera-B Concezio Pisa, 21/12/2004. E835 (aka Jet-FNAL) timeline dell'esperimento –Presa dati conclusa nel Alcune analisi tuttora in corso.
Advertisements

Run I Distribuzione inclusive di Min Bias (Mult. Carica, Pt). Correlazioni dello stato finale ( -Mult) + mini-jet (soft hard physics). Campioni utilizzati:
A.Fanfani - C.Grandi CMS Bologna 10 febbraio 2009 La nuova farm di CMS Bologna al CNAF Alessandra Fanfani Claudio Grandi.
23/01/01Alberto Masoni – GR1 - Roma1 I MODELLI DI CENTRI REGIONALI POSIZIONE DI ALICE ITALIA CENTRO ITALIANO: CPU 450 KSI95, DISCO 400 TB (INSIEME TIER-1.
Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
Aspetti critici rete LAN e WAN per i Tier-2
Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
Michele Michelotto INFN-Padova
Execution benchmarks Obiettivi Test dettagliati e ben caratterizzati Esecuzione di benchmark standard Test di applicazioni dell'esperimento ALICE 20 Novembre.
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
Case study Maiora srl.
1 Installazione da rete Introduzione Configurazione del server NFS Cosa serve sul client Configurazione kickstart.
Architettura di storage ad alta affidabilita e bilanciamento di carico per volumi centrali e di esperimento A.Brunengo, M.Corosu INFN Sezione di Genova.
© Sediin e Achab 2007 MDaemon in Cluster: il cluster in azione Milano, 5 luglio 2007 Emiliano Biocchetti - SEDIIN S.p.A. &
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
Works in progress.  Semplificazione e maggiore efficienza della gestione  Risparmio (nel medio periodo)  Riallocazione delle risorse (hardware e timesheet)
COMPUTING DELLA CSN2 D. Martello Dep. Of Physics - Lecce.
3 Aprile CSN1 P. Capiluppi Tier2 CMS Italia.
Servizio Sistema Informativo - Area Gestione Sistemi e Sicurezza – LNF – Dael Maselli Area Gestione Sistemi e Sicurezza LNF Plenaria Servizio Sistema Informativo.
6 Febbraio 2006CSN1 - Roma1 MEG : relazione dei referees P. Cenci R. Contri P. Morettini M. Sozzi.
Servizio Sistema Informativo - Area Gestione Sistemi e Sicurezza – LNF – Dael Maselli Area Gestione Sistemi e Sicurezza LNF Plenaria Servizio Sistema Informativo.
1 CSN1 - Lecce 22/09/2003 Babar Relazione e proposte finanziarie Referee: M. de Palma, P. Lubrano, C. Luci, L. Perini,A. Staiano.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
Attivita' Grid in BaBar Workshop sulle Problematiche di Calcolo e Reti nell'INFN Maggio 2004.
1 LHCb Computing Angelo Carbone, INFN-CNAF CSN1, 21/9/06 Aggiornamento richieste Tier Richiesta Tier-2 al CNAF Stato e risultati DC06.
27/05/2004C.Bigongiari & M.Pieraccini INFN Workshop Castiadas (CA) 1 Stato e Prospettive del Calcolo di MAGIC M ajor A tmospheric G amma I maging C herenkov.
CSN1-Assisi L.Perini1 BaBar Calcolo L. Perini per i referees: L.Perini,A.Staiano…
Istituto Nazionale di Fisica Nucleare La Biodola, Isola d’Elba, 6-9 maggio 2002 AFS: Status Report WS CCR R.Gomezel Workshop sulle problematiche.
Tier-2 Tier-2 ATLAS (Osservazioni sulla proposta dei referee del calcolo LHC) Lamberto Luminari CSN1 – Roma, 3 Aprile 2006.
Alessandro Tirel - Sezione di Trieste Storage Area Network Riunione gruppo Storage Padova, 5 ottobre 2005.
Tier-2 ATLAS Tier-2 Lamberto Luminari CSN1 – Roma, 10 Ottobre 2005.
La Farm di Alice a Torino Workshop sulle problematiche di calcolo e reti Isola d’Elba 6-9 maggio 2002 Mario Sitta (Università del Piemonte Orientale e.
STATO DEI PROGETTI TIER2 F. Bossi CCR, Roma, 20 Ottobre 2005 ( per il gruppo di referaggio)
Off-line Cool Folders Description 1 Due sorgenti per le informazioni di Monitoring/Calibrazione e Data Quality per l’off-line, Tier0 e Calibration Stream.
CDF Calcolo Another brick in the wall Paolo Morettini CSN1 Lecce Valerio Vercesi Settembre 2003.
M. Sozzi Referaggio calcolo “non-LHC” Referaggio calcolo CSN1 “non-LHC” M. Sozzi.
CNAF 6 Novembre Layout del testbed  wn a OS SL5.0 8 GB RAM kernel xen_3.1.0 SMP  wn a OS SL5.0 8 GB RAM kernel.
Roberto Covati INFN di Parma. Workshop CCR/INFN GRID Palau maggio Sommario VmWare Server (in produzione dal 2004 al 2008) VmWare Infrastructure.
Roberto Covati – Roberto Alfieri INFN di Parma. Incontri di lavoro CCR dicembre Sommario VmWare Server (in produzione dal 2004) VmWare ESX.
26 Giugno 2007CSN1 - Frascati1 Temi di attualità nella CCR Accanto alla tradizionale attività di controllo dei finanziamenti per le infrastrutture di calcolo.
D. Martello Dip. Fisica - Lecce Sintesi piani esperimenti CSN2 CNAF 7-marzo-2007.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Lecce 30 Settembre 2015.
Referaggio sigla CALCOLO Gianpaolo Carlino Antonio Budano Michele Michelotto* Ruggero Ricci CCR – Roma Settembre 2015.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
1 referee-BaBar CSN I, LNF giugno 2007 RELAZIONE DEI REFEREE DI BaBar M.De Palma, C.Luci, C.Troncon, B.Gobbo(calcolo) 26 giugno 2007.
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
FESR Consorzio COMETA - Progetto PI2S2 Il Tier-2 di ALICE a Catania Roberto Barbera Università di Catania e INFN Visita Referee.
19 Ottobre 2012ATLAS Milano1 Stato delle risorse locali di calcolo L. Carminati, L. Perini, D. Rebatto, L. Vaccarossa.
Attività e servizi di calcolo a Roma Tor Vergata R. Kwatera, R. Lulli, R. Sparvoli Roma Tor Vergata.
Uso della rete geografica e richieste di upgrade CCR 31/3/2015 (Roma) S.Zani.
Referente Locale per il Trasferimento Tecnologico Francesco Broggi 02503
1 ALICE I ITER2 DI ALICE IN ITALIA Bologna, 6 marzo 2007 M. Masera
Referaggio TIER2 di Pisa 30 giugno 2006 Silvia Arezzini (Servizio Calcolo e Reti)
TIER-2: Risorse e tabella di marcia M.L. Ferrer. 5/12/2005 M.L. Ferrer Referaggio TIER-2 LNF 2 Presenti Calcolo: Massimo Pistoni Claudio Soprano Dael.
Referaggio Calcolo ATLAS II Gianpaolo Carlino INFN Napoli Catania, 12 Settembre 2012 Risorse e Richieste 2013 nei preventivi Aggiornamento in seguito all’allungamento.
Disaster Recovery Resoconto delle attività del Gruppo di Lavoro DR CCR CNAF 5-7/2/2013 S.Zani.
Test di storage a 10 Gbps proposta. Storage server a 10Gbps Si vuole vedere quali prestazioni si possano ottenere da server connessi a 10 GE –capacita’
EEE e Cloud Enrico Fattibene, Andrea Ferraro INFN – CNAF Workshop di CCR sull'Infrastruttura Cloud 15 Dicembre 2014 Quest'opera è distribuita con Licenza.
G. Maggi 24/1/2006 Il Progetto del TIER2 di Bari Giorgio Maggi.
KLOE - Referee Paolo Checchia, Luca Lista, Ezio Menichetti, Pierluigi Paolucci con l’aiuto sostanziale di Luca dell’Agnello, Mauro Morandin CSN1.
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
Silvia Arezzini 2 luglio 2014 Consiglio di Sezione per Preventivi.
ATLAS Italia – Sestri Levante, 15 Giugno 2010 G. Carlino – Richieste Run Efficiency = time for physics / total time LHC Efficiency = time with colliding.
CCR - Roma 15 marzo 2007 Gruppo storage CCR Report sulle attivita’ Alessandro Brunengo.
Aggiornamento AFS R.Gomezel Commissione Calcolo e Reti Presidenza 5/10/2010-7/10/2010.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Il calcolo per l’esperimento GERDA: prospettive per la Fase II Luciano Pandola INFN, Laboratori del Gran Sasso e Laboratori del Sud Workshop della CCR,
Transcript della presentazione:

Il calcolo per l’esperimento GERDA Luciano Pandola INFN, Laboratori del Gran Sasso Riunione della CSN2, LNF Frascati, 29 Novembre 2011

Il data flow Rete GERDA nei Laboratori sotterranei Server dati (2 CPU Xeon E5502) Server GERDA (2 CPU Xeon E5620) Laboratori esterni (CED) Bastion host, switch DAQ 3am nfs Collaborazione GERDA

L’approccio di gestione dei dati – dati raw e blinding I dati raw sono interamente convertiti in un formato standard (“tier1”) Basato su ROOT, sviluppato congiuntamente da GERDA e Majorana I files convertiti contengono esattamente la stessa informazione dei dati raw (a meno del blinding) Analisi indipendente dal particolare formato iniziale dei dati (stessa pipeline): background, calibrazioni, MC, altri R&D Supporta il blinding dei dati I dati raw non sono disponibili alla Collaborazione I tier1, che vengono distribuiti per l’analisi, possono avere degli eventi filtrati (blinding nella finestra Q  ) Svantaggio: richiede maggiore spazio disco, perché le informazioni sono di fatto duplicate (dati raw & tier1)

La gestione dei dati Dati raw background Tier1 (= copia dei dati) Dati raw calibrazione Analisi, livello 1 Simulazioni Monte Carlo Accesso ristretto

Hardware (server e storage) Server dati 2 CPU Xeon E5502 (1.846GHz 4MB) 8 dischi (2 TB ciascuno) 14 TB di disco disponibile in RAID5 Acquistato e gestito dal gruppo INFN-PD Server dati (Dell R410) – ge-data.lngs.infn.it 2 CPU Xeon (2.40 GHz 12 MB), scheda Fibre Channel Certificato digitale rilasciato (Terena) 21 dischi (2 TB ciascuno), fisicamente su ge-data Circa 35 TB disponibili, al netto della ridondanza RAID 3 partizioni, una esportata sul cluster LNGS via nfs Server di backup (Identico, Dell R410), ordinato Acquistato da GERDA, gestito dal Calcolo LNGS Galleria Superficie

Necessità per il calcolo di GERDA: (1) spazio disco Dati di GERDA Fase I: ~ 10 TB/anno Dati di background Rate tipico: ( *N ch ) [Hz], a parte noise bursts Con 12 canali: 6-7 GB/giorno (80% dal pulser) Calibrazioni con 228 Th Una calibrazione a settimana, circa GB Overhead (70%) dovuto ai file tier1 Viene applicata una compressione  lavoro in corso Dati di attività di R&D per la Fase II: ~ 10 TB Misure per l’accettazione dei nuovi detector BEGe per la Fase II: 400 GB/rivelatore x 20 rivelatori Output di analisi e Monte Carlo. Per ora < 1 TB Simulazione impulsi

Necessità per il calcolo di GERDA: (2) backup su nastro Dati raw di GERDA Fase I Policy della Collaborazione: 3 copie (Italia, Germania, Russia) Probabilmente Istituti Russi non ancora pronti Delicato perché i dati raw sono ad accesso ristretto Non c’è bisogno di backup dei files di tier1 Utile che comunque i dati siano anche conservati su disco (o che possano essere rapidamente ripristinati su disco) Ad esempio, all’apertura del “box”, tutti i dati raw andranno riprocessati Dati prodotti dai vari test R&D Risultati di analisi e simulazioni rilevanti

Necessità per il calcolo di GERDA: (3) CPU Analisi dati di GERDA (bck e calibrazioni) Analisi “base” (ricostruzione in energia, rise time, parametri semplici di PSD)  richieste limitate (1 CPU) Analisi PSD avanzata: potenzialmente molto più pesante dal punto di vista della CPU Inversioni matrici, fit, deconvoluzioni Ancora non c’è una linea definita, varie ipotesi Analisi per accettazione rivelatori BEGe Presumibilmente analisi abbastanza semplici (energy resolution, rates, A/E), ma data rate più alto Simulazioni Monte Carlo (gruppi LNGS e PD) Simulazioni di sorgenti di fondo (e.g. Geant4) Simulazioni di forme d’impulso

Organizzazione del calcolo di GERDA Vari requirements/informazioni aggiuntive: I dati vengono prodotti/salvati in posti diversi (LNGS per l’esperimento, altrove per la caratterizzazione dei nuovi rivelatori) I vari gruppi INFN hanno bisogno di girare simulazioni Monte Carlo (praticamente indipendenti) Il gruppo INFN-LNGS è responsabile del coordinamento analisi di GERDA Approccio “sinergico”: uso combinato delle risorse sia presso i LNGS che presso il CNAF

Richieste: LNGS (“home Lab”) Storage e analisi dati di GERDA-Fase I È il posto naturale, perché sede fisica dove vengono raccolti i dati e centro del Coordinamento Analisi di GERDA La macchina che monta di dischi (server ge-data) cura la conversione dei dati raw in tier1 e l’analisi di primo livello ricostruzione energia, quality cuts, calibrazioni Analisi dati advanced di GERDA (PSD), almeno in parte il carico CPU ancora non è definito, risorse u-Lite CPU per alcune simulazioni MC Studi del fondo, soprattutto gruppo LNGS Backup su nastro usando l’infrastruttura messa a disposizione dal Servizio Calcolo Le risorse disponibili sono più che adeguate (risorse di GERDA + U-Lite)

Richieste: CNAF Storage e analisi per le misure di accettazione dei BEGe Non ha senso trasferire e analizzare i dati ai LNGS (!) CPU per simulazioni MC Studi del fondo, soprattutto gruppo Padova Simulazioni di pulse shape (campi elettrici, etc.) Backup su nastro (e copia su disco) dei dati raw GERDA- Fase I dai LNGS Centro di backup (in sostituzione degli Istituti Russi) Centro di “ridistribuzione” dei dati (-> Germania per terzo backup) CPU addizionale per analisi dati avanzata di GERDA Supporto alle risorse LNGS, se le tecniche di PSD che verranno scelte dovessero risultare particolarmente CPU-intensive

Conclusioni Il footprint di GERDA per le risorse di calcolo (disco, CPU) è relativamente modesto rispetto ad altri esperimenti Basso counting rate, pochi canali I gruppi INFN finora hanno curato lo storage e i data server di esperimento Inoltre, Coordinamento Analisi presso i LNGS LNGS (risorse GERDA e U-Lite) è il centro di riferimento per le attività direttamente connesse allo storage, backup e analisi dei dati di GERDA CPU anche per analisi avanzata e alcune simulazioni MC CNAF per supporto su dati GERDA (backup disco/nastro) e per le attività non direttamente collegate alla presa dati LNGS (R&D, caratterizzazione rivelatori) CPU per simulazioni (fondo, forme d’impulso) e eventualmente per particolari analisi avanzate particolarmente “pesanti”