1 LHCb Computing Angelo Carbone, INFN-CNAF CSN1, 21/9/06 Aggiornamento richieste Tier-1 2007-8 Richiesta Tier-2 al CNAF Stato e risultati DC06.

Slides:



Advertisements
Presentazioni simili
E835 & Hera-B Concezio Pisa, 21/12/2004. E835 (aka Jet-FNAL) timeline dell'esperimento –Presa dati conclusa nel Alcune analisi tuttora in corso.
Advertisements

Run I Distribuzione inclusive di Min Bias (Mult. Carica, Pt). Correlazioni dello stato finale ( -Mult) + mini-jet (soft hard physics). Campioni utilizzati:
Il Sistema Operativo.
Modello di simulazione
23/01/01Alberto Masoni – GR1 - Roma1 I MODELLI DI CENTRI REGIONALI POSIZIONE DI ALICE ITALIA CENTRO ITALIANO: CPU 450 KSI95, DISCO 400 TB (INSIEME TIER-1.
L. Perini CSN1 -Roma 23 Gen Centri Regionali per il calcolo di ATLAS in Italia Tier-1 e Tiers-N : funzioni, localizzazione, necessita di h/w, personale.
Computing: Attività 2010 Reprocessing e ri-simulazione dati Run7 Extra-production di dati MC alla Y(4S) 10 x cross section bb e cc, 2 x cross section u.
Computing: Attività 2009 Reprocessing e ri-simulazione dati Run7 Extra-production di dati MC alla Y(4S) 10 x cross section bb e cc, 2 x cross section u.
Computing: Attività 2011 Limitate produzioni di MC e skim E il dataset finale (rel24/26) Grosso sforzo per il Long Term Data Access project: cluster di.
Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
Interoperabilità tra i PON Giuseppe Andronico (INFN e Consorzio COMETA)
Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
SP-Grid - setup Implementazione dei servizi per la produzione al CNAF: –Integrazione tra i tool di produzione standard di BaBar (ProdTools) e gli strumenti.
Grid Computing Sergio Andreozzi (INFN-CNAF). A chi interessano i dati prodotti da LHC? Circa 5,000 scienziati –sparsi nel mondo –appartenenti ad istituzioni/università
Grid Computing Sergio Andreozzi. Chi è interessato ad analizzare i dati generati da LHC? Circa 5,000 scienziati –distribuiti nel mondo –appartenenti ad.
Reti di Calcolatori L-S Un Sistema Decentrato di Allocazione del Carico per Applicazioni di Calcolo Distribuito Mauro Bampo.
Calcolo per LHCb Italia
Tier1 - cpu KSI2k days ATLAS KSI2k days CMS. Tier1 - storage CASTOR disk space CMS requires: T1D0, T0D1 ATLAS requires: T1D0, T0D1 and T1D1.
W( μ n )H( bb) Riccardo Ranieri INFN e Università di Firenze TISB Firenze Gennaio
1 Riunione Testbed - 17 gennaio Agenda - stato del testbed di INFN-GRID (L. Gaido) - le risorse del CNAF (A. Italiano) - report sullo stress test.
Il calcolo distribuito in ATLAS
Conclusioni M. Paganoni workshop CMS Italia, Napoli 13-14/2/07.
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
MetodoEvolus Evolvere nella continuità. Certificazione Windows 7 logo Nuova procedura di setup Certificazione SQL 2008 R1 Consolle di produzione.
Alessia Tricomi Università & INFN Catania
* * Data Challenge 04 Stato dei centri di produzione in Italia.
Sistema Operativo (Software di base)
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
Introduzione al metodo Monte Carlo
Workshop sulle problematiche di calcolo e reti nell’INFN Paestum,9-12 giugno 2003 Report sull’ultimo HEPiX e proposte per le prossime edizioni Roberto.
COMPUTING DELLA CSN2 D. Martello Dep. Of Physics - Lecce.
3 Aprile CSN1 P. Capiluppi Tier2 CMS Italia.
16 Maggio CSN1 Computing-Software-Analysis CMS-INFN TEAM Analisi in CMS: stato e prospettive del supporto italiano.
6 Febbraio 2006CSN1 - Roma1 MEG : relazione dei referees P. Cenci R. Contri P. Morettini M. Sozzi.
Gestione del processore (Scheduler)
1 CSN1 - Lecce 22/09/2003 Babar Relazione e proposte finanziarie Referee: M. de Palma, P. Lubrano, C. Luci, L. Perini,A. Staiano.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
CSN Maggio 2005 P. Capiluppi Il Computing Model (LHC) nella realta’ italiana u I Computing models degli esperimenti LHC gia’ presentati a Gennaio.
LNF Farm E. V. 9/8/2006. Hardware CE, LCFG, HLR, 3 WN: DL 360 1U; SE: DL 380 2U 5 WN: BL 25 P In totale 25 jobs general purpuse (coda Atlas) + una coda.
Attivita' Grid in BaBar Workshop sulle Problematiche di Calcolo e Reti nell'INFN Maggio 2004.
Perugia - 12 novembre 2002 M. Morandin - INFN Padova Budget calcolo Babar 2003 e contributo INFN.
27/05/2004C.Bigongiari & M.Pieraccini INFN Workshop Castiadas (CA) 1 Stato e Prospettive del Calcolo di MAGIC M ajor A tmospheric G amma I maging C herenkov.
CSN1-Assisi L.Perini1 BaBar Calcolo L. Perini per i referees: L.Perini,A.Staiano…
Calcolo esperimenti LHC 2004 F. Ferroni, P. Lubrano, A. Martin, M. Morandin, M. Sozzi.
Gruppo di referaggio: Forti (chair), Bossi, Ferrari, Menasce, Morandin, Simone, Taiuti, Zoccoli TIER2: Update F. Bossi, CSN1 Trieste 7/7/05.
Halina Bilokon ATLAS Software di fisica DC1 – DC2 DC1 aprile fine 2003 (versioni di software  3.x.x – 7.x.x)  Validation del Software  Aggiornamento.
I testbed ed il loro uso 1 I testbed ed il loro uso L. Gaido, A.Ghiselli CSN1, Perugia novembre 2002.
STATO DEI PROGETTI TIER2 F. Bossi CCR, Roma, 20 Ottobre 2005 ( per il gruppo di referaggio)
Chiara Meroni Eugenio Nappi Pigi Paolucci Umberto Marconi INFN CERN Associate.
D. Martello Dip. Fisica - Lecce Sintesi piani esperimenti CSN2 CNAF 7-marzo-2007.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Lecce 30 Settembre 2015.
Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 1 ATLAS Attività di TeV Attività di computing Attività di computing.
FESR Trinacria Grid Virtual Laboratory PROGETTO “MAMMO” Sviluppo e ottimizzazione di algoritmi adattativi, specificatamente di Artificial.
Attività di Outreach CMS Italia Non ci sono risorse se non la buona volontà Abbiamo inserito l’attività in strutture più generali utilizzate dalla comunità.
1 referee-BaBar CSN I, Roma Gennaio 2008 RELAZIONE DEI REFEREE DI BaBar e SuperB M.De Palma, C.Luci, C.Troncon, B.Gobbo(calcolo),D. Pedrini
Study of coincidences due to 40 K photons between adjacent OMs Paolo Fermani & ROMA group Catania Università di Roma «La Sapienza» – INFN Roma.
Il Calcolo non LHC in CSN1 G. Carlino, INFN Napoli CSN1 – Roma 17 Luglio 2014.
Riunione CSN1, Roma, Gennaio 2012F. Bedeschi, INFN-Pisa 1 Riunione CSN1  Comunicazioni  Comunicazioni varie  Riunioni future  Similfellows  Regole.
Referaggio Calcolo ATLAS II Gianpaolo Carlino INFN Napoli Catania, 12 Settembre 2012 Risorse e Richieste 2013 nei preventivi Aggiornamento in seguito all’allungamento.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Catania 1 Ottobre 2014.
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
ATLAS Italia – Sestri Levante, 15 Giugno 2010 G. Carlino – Richieste Run Efficiency = time for physics / total time LHC Efficiency = time with colliding.
1 Bari, 21 Settembre 2011 G. Carlino – ATLAS: il calcolo ATLAS: il Calcolo Attività di Computing nel 2011 Attività di Computing nel 2011 Richieste Tier2.
Il calcolo per l’esperimento GERDA Luciano Pandola INFN, Laboratori del Gran Sasso Riunione della CSN2, LNF Frascati, 29 Novembre 2011.
Referaggio Calcolo ATLAS Gianpaolo Carlino INFN Napoli CNAF, 11 Maggio 2012 Attività di Computing ATLAS Attività di Computing in Italia Risorse e Richieste.
L.Perini Milano: 10 Gennaio Ex-ATLAS-Grid (Tier2 incluso) l Ruolo dei Tiers in ATLAS e grid l Le persone di Milano e le attività l Le infrastrutture.
CNAF. storage Siamo in una fase di tuning con lo storage, che al momento sembra essere un collo di bottiglia 1.~10 giorni fa vista saturazione GPFS.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Calcolo LHCb Umberto Marconi INFN Sezione di Bologna Riunione CSN1, 18/09/2008.
Transcript della presentazione:

1 LHCb Computing Angelo Carbone, INFN-CNAF CSN1, 21/9/06 Aggiornamento richieste Tier Richiesta Tier-2 al CNAF Stato e risultati DC06

2 Aggiornamento TDR Tier-1 Primo anno di presa dati 2008 Statistica acquisita 2.5 volte inferiore alla norma MSi2k · year CPU Tier-1s TDR  1.31 MSi2k · year Risorse al Tier-1 CNAF 1/6 delle risorse Tier-1s totali 0.1 MSi2k · year nel MSi2k · year nel LHCb non prevede di richiedere un aumento di risorse Tier-1 nel 2007 e 2008.

3 Tier2 LHCb I Tier-2 di LHCb servono per la produzione di eventi Monte Carlo. Secondo il computing TDR la potenza di CPU a regime deve essere tale da permettere di produrre ogni anno una statistica di 4*10 8 eventi, uguale alla statistica raccolta in un anno di presa dati. Eventi Monte Carlo generati ogni anno: 4*10 9 Eventi Monte Carlo che superano il trigger 1/10 La frazione della potenza di CPU nei Tier-2 corrispondente all’Italia è del 15% A regime la potenza di CPU del Tier-2 di LHCb equivale a quella impiegata da LHCb nel Tier-1 per ricostruzione, selezione ed analisi (vedi oltre).

4 Aggiornamento TDR Tier-2 È richiesta nel 2007 la produzione di 50*10 6 eventi Monte Carlo a varie luminosità, per studi del sistema di trigger e per il Physics Book. Al CNAF è richiesta una potenza di CPU di 300 kSi2k*year Nel 2008 totale CPU Tier-2s previste dal TDR 7.65 MSi2k · year Fattore di riduzione 2.5 della statistica. Il tempo di calcolo per produrre un evento Monte Carlo risulta maggiore del 50% rispetto al TDR Il totale della CPU necessaria è pertanto di 4.55 MSi2k · year Al Tier-2 del CNAF la CPU necessaria è prevista essere del 15% 4.55 * 0.15 = 0.7 MSi2k · year Al Tier-2 CNAF secondo TDR erano 1.15 MSi2k · year >> La nostra richiesta per il 2007 e’ di acquisire 300 Ksi2k

5 DC06 Obiettivi Obiettivo del DC06 è di collaudare il modello di calcolo dell’esperimento impiegando i servizi LCG. In particolare ci si propone di collaudare il sistema nelle realizzazione delle seguenti fasi: La simulazione degli eventi impiegando le risorse LCG disponibili Produzione di dati solo RAW La ricostruzione degli eventi RAW presso i centri Tier-1 e al CERN con produzione degli eventi rDST. La pre-selezione degli eventi rDST presso i centri Tier-1 e al CERN con produzione degli eventi DST. Il trasferimento La distribuzione dei dati RAW dai siti di produzione MC al CERN La distribuzione dei dati RAW dal CERN a tutti i centri Tier-1. La distribuzione degli eventi DST da ciascun centro Tier-1 ad almeno 3 centri Tier-1 (compreso CERN) per la successiva fase di analisi. I centri Tier-1 di LHCb che partecipano al DC06 sono: CERN, CNAF, NIKHEF, GridKa, PIC, IN2P3, RAL

6 DC06 Simulazione MC CERN CNAF PIC RAL IN2P3GRIDKANIKHEF Tier-0 Tier-1 Tier-2 Produzione MC DIGI (RAW) LHCb usa tutte le risorse LCG disponibile. Quando i job di simulazione terminano i dati (RAW) vengono mandati al T0 Questa fase è stata collaudata con successo

7 DC06 Simulazione MC CERN CNAF RAL Le variazioni osservabili sono dovute alla allocazione dinamica delle risorse operata dagli scheduler che implementano l’algoritmo di fair-share Circa 5000 job di simulazione attivi in media con picchi di 7000 job durante l’ultimo mese. Tutti i siti

8 Simulazione per sito (da maggio 2006) SiteEvents (%)Events LCG.CERN.ch ,773,752 LCG.CNAF.it ,105,760 LCG.RAL.uk ,264,775 LCG.LPC.fr5.818,372,270 LCG.Manchester.uk4.766,853,250 LCG.QMUL.uk4.696,754,999 LCG.GRIDKA.de4.105,910,519 LCG.USC.es3.074,420,500 LCG.NIKHEF.nl2.824,055,101 DIRAC.Lyon.fr2.643,807,749 LCG.Barcelona.es2.373,417,810 LCG.Liverpool.uk2.273,269,500 Eventi prodotti in totale su ~100 siti 144M

9 Simulazione per nazione (da maggio 2006) SiteEvents (%)Events UK ,777,300 CERN ,437,622 IT ,429,760 FR ,799,830 ES6.9910,065,229 GR5.247,552,039 DE5.007,206,019 NL2.894,156,350 PL1.802,584,749 RU1.602,305,570 BG0.771,108,510 Numero totale di eventi MC prodotti 144M

10 Eventi prodotti vs attesi ai Tier-1 DC06 (da Maggio 2006) SiteEvents (%)EventsExpected(%) CERN ,773, CNAF ,105, RAL ,264, GRIDKA4.105,910, NIKHEF2.824,055, Lyon2.944,313, PIC1.121,718,8642.6

11 DC06 Ricostruzione CERN CNAF PIC RALIN2P3GRIDKA NIKHEF T0&T1 DIGI (RAW) Per simulare la presa dati, i RAW vengono distribuiti dal T0 ai T1 Se il trasferimento è avvenuto con successo sul sito Tier-1 (copia su tape e registrazione nel catalogo) automaticamente viene lanciato un job di ricostruzione sul sito Tier-1 corrispondente L’ouput (rDST) è salvato sul sito Tier-1 pronto per essere processato dagli algoritimi di pre-selezione Questa fase è stata collaudata con successo su 4 Tier-1 PIC, CERN, IN2P3, RAL CNAF, GRIDKA, NIKHEF hanno avuto dei problemi (dettagli in seguito) T1

12 DC06 Ricostruzione: risultati Site Low lumi jobs Low lumi events High lumi jobs High lumi eventsLumi+High CERN M M25% CNAF M<1% GRIDKA M1% IN2P3(DIRAC) M M30% NIKHEF/SARA----- PIC M M19% RAL M M24% TOTAL12.3M11.3M GRIDKA: sovraccarico del gridFTP server, risolto da poco NIKHEF: problema di connessione tra data storage e WN (NIKHEF- SARA), si aspetta un versione patched di dcache per aggirare il problema CNAF: problemi di stabilità di Castor-2, sono stati fatti molti progressi per rendere il sistema il più stabile possibili, pronti per testarlo

13 DC06 Pre-selezione CERN CNAF PIC RALIN2P3GRIDKA NIKHEF T0&T1 DST Quando sul sito sono presenti sufficienti quantità di dati rDST, automaticamente sul sito Tier-1 viene inviato un job di pre-selezione I dati rDST sono analizzati dove prodotti L’output (DST) delle preselezione viene distribuito ai T1 in modo da avere su “disco” 3 copie Questa fase non è ancora stata realizzata, manca ancora un parte di codice per effettuare la pre-selezione Tecnicamente è del tutto analoga a qualla di ricostruzione, non ci aspettiamo particolari problemi dati pre-selezionati DST distribuiti tra i vari T1 T1

14 Trasferimento dati La verifica delle capacità di trasferimento dei dati dai centri di produzione al CERN e successivamente dal CERN ai Tier-1 (per la ricostruzione e selezione) è un obiettivo del DC06. Dati simulati: i file DIGI prodotti nei centri Tier-1 eTier-2 sono stati trasferiti direttamente al CERN dal job di produzione MC. Reconstruzione e pre-selezione: per simulare il flusso dei dati reali i file DIGI sono stati distributi ai Tier-1 mediante FTS ( gLite File Transfer Service)

15 Trasferimento dati RAW dai siti di produzione al CERN I trasferimenti dei dati RAW dai siti di produzione al CERN avviene ad un rate di ~8MB/s

16 Trasferimento dati RAW dai siti di produzione al CERN Se il CERN non è disponibile altri Tier-1 sono usati momentaneamente come Tier-0

17 Distribuzione dei dati RAW dal CERN ai centri Tier-1 (ultimo mese) Dal CERN Dal CERN ai Tier-1 Il sistema di trasferimento dei RAW è stato collaudato ad un basso rate Proveremo ad aumentare i rate

18 DC06 al CNAF Il sito Tier-1 ha contribuito alla produzione di dati RAW con successo, secondo le richieste della collaborazione LHCb Prodotto 11% di eventi MC La fase di ricostruzione ha presentato difficoltà dovute a Castor-2 LHCb ha provato ad eseguire in due mesi alcuni job di ricostruzione In simultanea non sono mai stati eseguiti più di 10 job In due mesi sono terminati con successo 14 job di ricostruzione (<1% di tutti i job di ricostruzione terminati con successo da LHCb) Ciascun job di ricostruzione richiede poche connessioni rfio_open() aperte per l’accesso ai dati (con basso I/O) Il carico dovuto al trasferimento dei dati dal CERN (che può sovrapporsi con la ricostruzione) è comunque stato ridotto ad alcuni MB/s L’attività di produzione MC (in continua attività in questa fase) non ha alcuna interferenza con la fase di ricostruzione non accedendo a Castor-2

19 DC06 al CNAF Il CNAF, in collaborazione con i referenti degli esperimenti, ha individuato e risolti alcuni problemi Numero di diskserver inadeguato Aggiunto un diskserver per LHCb Tuning di alcuni parametri dello scheduler LSF di Castor-2 Instabilità del DB di Castor Bugs fixed dal supporto CERN Ottimizzazione del DB Upgrade del software (client e server) all’ultima versione L’ultimo intervento di upgrade del software è stato completato ieri

20 Conclusioni DC06 di LHCb è stato condotto con risultati soddisfacenti negli ultimi 3 mesi I risultati DC06 sono stati presentati alla Collaborazone LHCb Le varie fasi previste sono state attuate con successo (eccetto la pre-selezione) Produzione MC Procede regolarmente da mesi Sono stati prodotti circa 144M di eventi da maggio Ricostruzione Il meccanismo di trasferimento dei dati RAW dal CERN ai Tier-1 e di esecuzione automatica di job di ricostruzione sta funzionando su 4 dei 7 siti Tier-1 di LHCb previsti I siti mancanti hanno provveduto a proporre delle soluzioni, la cui efficacia deve essere verificata Pre-selezione Tecnicamente molto simile alla ricostruzione, non ancora iniziata DC06 continuerà nei prossimi mesi con lo scopo di completare la ricostruzione degli eventi MC prodotti e la pre-selezione LHCb continuarà a colladuare le soluzioni proposte per rendere il sistema Castor2 al CNAF operativo