Il calcolo per l’esperimento GERDA: prospettive per la Fase II Luciano Pandola INFN, Laboratori del Gran Sasso e Laboratori del Sud Workshop della CCR,

Slides:



Advertisements
Presentazioni simili
Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
Advertisements

Architettura di storage ad alta affidabilita e bilanciamento di carico per volumi centrali e di esperimento A.Brunengo, M.Corosu INFN Sezione di Genova.
27/05/2004C.Bigongiari & M.Pieraccini INFN Workshop Castiadas (CA) 1 Stato e Prospettive del Calcolo di MAGIC M ajor A tmospheric G amma I maging C herenkov.
D. Martello Dip. Fisica - Lecce Sintesi piani esperimenti CSN2 CNAF 7-marzo-2007.
EEE e Cloud Enrico Fattibene, Andrea Ferraro INFN – CNAF Workshop di CCR sull'Infrastruttura Cloud 15 Dicembre 2014 Quest'opera è distribuita con Licenza.
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
Il calcolo per l’esperimento GERDA Luciano Pandola INFN, Laboratori del Gran Sasso Riunione della CSN2, LNF Frascati, 29 Novembre 2011.
Implementazione di TRIP ai LNF Commissione Calcolo e Reti 31 maggio 2007 Massimo Pistoni.
Referaggio delle richieste dei gruppi di lavoro G. Ambrosi, R. Fantechi, M. Gulmini, O. Pinazza Commissione Calcolo e Reti, CNAF, 16 Marzo 2011.
Sistema Informativo. Mansioni Gestione della piattaforma hardware e sistemistica del sistema informativo INFN In realta’ il mansionario e’ in continua.
Piano finanziario 2010 e incontro con i referee 6/17/20091L. Rossi – Bologna – ATLAS Italia.
ATLAS computing Roberto Carlin Commissione I Roma 1/7/08 F. Bossi, C.Bozzi, R. Carlin, R. Ferrari, D. Lucchesi, D. Martello, M. Morandin, M. Taiuti.
KLOE - Referee Luca Lista, Andrea Perrotta, Vincenzo Vagnoni.
“Un esperienza di ricerca in attuazione della misura D4 del POR Abruzzo 2000/2006” Alberto Di Cienzo LNGS 2 Febbraio 2008.
TOTEM referee C.Bini, P.Paolucci, A.Tricomi. Considerazioni generali - I 2011 anno molto positivo per TOTEM: – fine installazione rivelatore – primi risultati.
Utilizzo e Richieste infrastrutture di calcolo esperimenti LHC & non LHC G. Carlino, INFN Napoli CSN1 – Roma 7 Luglio 2016.
Torino, Andrea Dainese 1 Andrea Dainese (INFN – LNL) Stato del Tier-2 ALICE a Legnaro.
Acquisti TIER T2 team e Pistoni per la consulenza sull’hardware.
20-21/03/2006Workshop sullo storage - CNAF Alessandro Brunengo.
Il calcolo ATLAS a Napoli nel 2014/2015
Piattaforma per la gestione di forniture basata su servizi web
Dip. di Fisica & INFN - Univ. Del Salento
Sistemi e Applicazioni per l’Amministrazione Digitale
Riccardo Veraldi - Massimo Donatelli CCR 3-4 Marzo 2008
Resoconto delle attività del Gruppo di Lavoro DR
Status Report Gruppo Storage CCR CCR 14-15/03/2006.
Report dei referee sulle richieste di OPERA referees: S. Bottai, B
dCache Test effettuati al CNAF
D. Martello, F. Ricci, F. Ruggieri
CALCOLO CSN B.Bertucci.
Comput-ER l'infrastruttura di calcolo distribuito in Emilia Romagna
G. Carlino, D. Lucchesi, V. Vagnoni
Massimo Masera CSNIII Roma, 20 marzo 2012
Richieste di upgrade dei link di accesso alla rete Geografica
Collegamento a Garr-X Il collegamento alla nuova rete Garr-X dovrà garantire il massimo della efficienza nella gestione della banda. Per identificare opportunamente.
G. Carlino, D. Lucchesi, V. Vagnoni
PRIN Roma1 – status Luciano Barone, Alessandro De Salvo
Servizi Nazionali INFN
Richieste preliminari calcolo non LHC
Introduzione alla sessione sull’analisi per gli esperimenti LHC
Assegnazione risorse Stato INFN CNAF,
Lamberto Luminari CSN Maggio 2005
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
Richieste di Calcolo 2009: BaBar
Aggiornamento sullo stato del Tier-2 di Catania
Nuove funzionalità e futura implementazione nella Sezione di Trieste
ATLAS-Italia Tier-3 Dario Barberis Università e INFN Genova
Attvità Computing – Inverno 08/09
Necessità di calcolo per MEG II e ripartizione dei costi
CNAF – Proposte B.Bertucci.
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
Interfacce SRM: l'utilizzo di STORM - Overview e prospettive (ALICE)
R.Gomezel Commissione Calcolo e Reti CNAF
SETTORI FUNZIONALI La strutturazione dell’ospedale per settori funzionali consente di accorpare per macro-funzioni tutte le aree sanitarie e non sanitarie.
Stato Computing ATLAS Gianpaolo Carlino INFN Napoli
Situazione attuale CSN4
Stima risorse LHC LHC - Tier2 2 periodi
analizzatore di protocollo
Recupero polizze assicurative
Rivelazione e misura di mesoni 0 con il rivelatore ICARUS T600
AREA COMMERCIALE BUSINESS:
Nome progetto scientifico
Corsi di Laurea in Biotecnologie
Ricerca di oscillazioni di neutrino
IA2 Massimo Sponza IA2 – Osservatorio Astronomico di Trieste 2018 ICT Workshop - Catania.
NA62: Possibile nuovo esperimento
Report dei referee di Kloe
Analisi automatica di immagini
Storage and Data management Vladimir Sapunenko
Corso di programmazione, Simulazione, ROOT, code, ecc. ecc.
Transcript della presentazione:

Il calcolo per l’esperimento GERDA: prospettive per la Fase II Luciano Pandola INFN, Laboratori del Gran Sasso e Laboratori del Sud Workshop della CCR, LNGS, 26 Febbraio 2014

Come abbiamo lavorato in Fase I

L’approccio di gestione dei dati – strategia di Fase I L'esperimento prevede il blinding dei dati: gli eventi con energia prossima a quella di interesse vengono "nascosti" ed eliminati dal data stream pubblico Consente di finalizzare tutti i dettagli dell'analisi dati (cuts, modello di fondo, analisi di forma) prima di guardare gli eventi di potenziale interesse Presa dati "blind" da Gennaio 2012 a Maggio Unblinding e pubblicazione a Giugno/Luglio 2013 I dati raw sono interamente convertiti in un formato standard (“tier1”), basato su ROOT I files convertiti contengono esattamente la stessa informazione dei dati raw (a meno di eventi tagliati) Analisi indipendente dal particolare formato iniziale dei dati (stessa pipeline): background, calibrazioni, MC, altri R&D I dati raw non sono disponibili alla Collaborazione Svantaggio: richiede maggiore spazio disco, perché le informazioni sono di fatto duplicate (dati raw & tier1)

La gestione dei dati Dati raw background Tier1 (= copia dei dati) Dati raw calibrazione Analisi, livello 1 Simulazioni Monte Carlo Accesso ristretto

Il data flow Rete GERDA nei Laboratori sotterranei Server dati (2 CPU Xeon E5502) Server GERDA (2 CPU Xeon E5620) Laboratori esterni (CED) Bastion host, switch DAQ nfs Collaborazione GERDA Restricted disk area blinding

Consuntivo finora per: (1) spazio disco [LNGS] Dati di GERDA Fase I: circa 6 TB Raw data: 2.2 TB run fisica TB calibrazioni Tier1: 1.1 TB (compressione fattore ~4) Altri files di analisi (tierN): < 200 GB Muon veto: 0.5 TB Dati del commissioning ( ): ~ 4 TB Dati per attività di R&D per la Fase II: ~ 6 TB Solo misure effettuate ai LNGS. I dati dei test effettuati in altre sedi sono mantenuti localmente Test elettronica, LArGe, caratterizzazione rivelatori Output di Monte Carlo e analisi avanzata: ~ 2 TB

Consuntivo finora per: (2) backup su nastro Dati raw di GERDA Fase I Policy della Collaborazione: 3 copie (Italia, Germania, Russia) Istituti Russi non ancora pronti Delicato perché i dati raw sono ad accesso ristretto Non c’è bisogno di backup dei files di tier1 Due copie su nastro ai LNGS di tutte le aree disco di GERDA Dati raw, files ausiliari, files di analisi, etc. Gestito dal Servizio di Calcolo Una copia ad Heidelberg Una copia (disco/nastro) al CNAF per tutti i dati raw di Fase I Utilizzati 4.5 TB circa

Consuntivo finora per: (3) CPU [LNGS] Analisi dati di GERDA (bck e calibrazioni) Analisi “base” (ricostruzione in energia, rise time, parametri semplici di PSD)  richieste limitate Tutto il ri-processamento dell'unblinding ha richiesto ~1 settimana di CPU sul server di GERDA Simulazioni Monte Carlo, analisi avanzata (PSD) per Fase I, analisi delle misure extra Molto più pesante dal punto di vista della CPU Nell'ultimo anno (Feb 2013-Feb 2014) utilizzati 4.3 CPU yr sul sistema uLite ai LNGS Relativa ai soli dati effettivamente salvati ai LNGS Accesso efficiente ai dati su disco Richieste CPU (piccole) anche sul CNAF, ma non utilizzate Creata VO (gerda.mpg.de)

Prospettive per la Fase II

Lo scale-up alla Fase II Si prevede di lavorare con una logica simile alla Fase I Blinding dei dati, main storage ai LNGS Dati fattore x 5-10 rispetto alla Fase I Più canali di lettura dei Germani. Acquisizione veto attivo Ar. Tre anni di presa dati, anziché circa un anno Da ottimizzare LNGS ancora pensato come centro di acquisizione, storage, analisi e smistamento primario per i dati dell'esperimento Altre sedi contribuiranno per backup, storage delle misure ausiliarie e CPU per l'analisi dedicata

Ai LNGS (“home Lab”) Storage e analisi dati primaria di GERDA-Fase II È il posto naturale, perché sede fisica dove vengono raccolti i dati e centro del Coordinamento Analisi di GERDA Acquistati altri 40 TB di disco (totale: 80 TB) Analisi base probabilmente gestibile con i due server di GERDA, possibilmente integrati da uLite nei momenti di picco CPU per alcune simulazioni MC e analisi dati avanzata Studi del fondo, analisi dati avanzata, processamento di misure ausiliarie acquisite e salvate ai LNGS… Backup su nastro usando l’infrastruttura messa a disposizione dal Servizio Calcolo Le risorse disponibili dovrebbero essere adeguate (risorse di GERDA + U-Lite)

Conclusioni Il footprint di GERDA per le risorse di calcolo (disco, CPU) è relativamente modesto rispetto ad altri esperimenti Basso counting rate, pochi canali Vero "a consuntivo" per la Fase I e prevedibilmente vero anche per la Fase II I gruppi INFN finora hanno curato lo storage e i data server di esperimento LNGS (risorse GERDA e U-Lite) è il centro di riferimento per le attività direttamente connesse allo storage, backup e analisi dei dati di GERDA CPU anche per analisi avanzata e alcune simulazioni MC Istituzioni estere e CNAF per supporto su dati GERDA (backup disco/nastro) e per le attività non direttamente collegate alla presa dati LNGS (R&D, caratterizzazione rivelatori)

Backup

Hardware (server e storage) Server dati 2 CPU Xeon E5502 (1.846GHz 4MB) 8 dischi (2 TB ciascuno) 14 TB di disco disponibile in RAID5 Acquistato e gestito dal gruppo INFN-PD Server dati (Dell R410) – ge-data.lngs.infn.it 2 CPU Xeon (2.40 GHz 12 MB), scheda Fibre Channel Certificato digitale rilasciato (Terena) 21 dischi (2 TB ciascuno), fisicamente su ge-data Circa 35 TB disponibili, al netto della ridondanza RAID 3 partizioni, una esportata sul cluster LNGS via nfs Server di backup (Identico, Dell R410) Acquistato da GERDA, gestito dal Calcolo LNGS Galleria Superficie