13-15 Ottobre 2004 P. Capiluppi - II Workshop Atlas-CMS - Napoli Data Challenging Paolo Capiluppi Dipartimento di Fisica e INFN, Bologna.

Slides:



Advertisements
Presentazioni simili
MIP International Patent Forum 2011
Advertisements

Trieste, 26 novembre © 2005 – Renato Lukač Using OSS in Slovenian High Schools doc. dr. Renato Lukač LinuxDay Trieste.
Brussels launch of the Association Bruno Trentin-ISF-IRES Fulvio Fammoni President Associazione Bruno Trentin-Isf-Ires (Italy) Brussels, 26 settembre 2013.
I numeri, l’ora, I giorni della settimana
L’esperienza di un valutatore nell’ambito del VII FP Valter Sergo
Cache Memory Prof. G. Nicosia University of Catania
Teoria e Tecniche del Riconoscimento
The standard CDF-GUI client submits the job to the LcgCAF head node which is the CDF-UI. This delegates the job to the Resource Broker component. The Resource.
1 Teaching Cloud Computing and Windows Azure in Academia Domenico Talia UNIVERSITA DELLA CALABRIA & ICAR-CNR Italy Faculty Days 2010.
A. Oppio, S. Mattia, A. Pandolfi, M. Ghellere ERES Conference 2010 Università Commerciale Luigi Bocconi Milan, june 2010 A Multidimensional and Participatory.
Relaunching eLene Who are we now and which are our interests.
EBRCN General Meeting, Paris, 28-29/11/20021 WP4 Analysis of non-EBRCN databases and network services of interest to BRCs Current status Paolo Romano Questa.
DG Ricerca Ambientale e Sviluppo FIRMS' FUNDING SCHEMES AND ENVIRONMENTAL PURPOSES IN THE EU STRUCTURAL FUNDS (Monitoring of environmental firms funding.
Amministratore Delegato Avaya Italia
Cancer Pain Management Guidelines
1 Ri-scoperta dello SM a LHC e fisica con di-bosoni -Breve rivista del early SM physics program in CMS - Motivazioni: - Comprensione apparato (calib./allineamenti/efficienze)
Metrica CSA07 1.Reconstruct events at the Tier-0 at greater than 100 Hz for 30 day a) The target is 24 hr/day, threshold 20 hrs/day 5 days a week Target:
CCRC08 Common Computing Readiness Challenge CSA08 Computing Software and Analysis Challenge of 2008 Test Trasferimenti T1T2 Test Trasferimenti T2T1 Esercizio.
1 Workplan della Fisica:2007/2008 Prime idee esposte al Physics meeting del 18/1 [ per maggiori dettagli, vedi talks dei Phys.Anal.convenors in: http:
1 Ricerca del bosone di Higgs nel canale di decadimento WW (*) 2l2 nel canale di decadimento WW (*) 2l2 Dati Spring07 CMSSW_1_3_x 100 pb -1 (47 pagine)
4/12/00M.Mazzucato – GR1 - Roma1 The INFN Regional Center(s) as main node(s) of the INFN Grid Mirco Mazzucato On behalf of Expts Comp. Coord. and tech.
1 ATLAS Data Challenges e Tier-2 a Milano Situazione dei Data Challenges in Atlas (s/w workshop 4-8 Marzo) Situazione Risorse INFN CSN1 Roma 25 Marzo 2002.
CSN giugno Comunicazioni Riunione R-ECFA ai LNF 21&22 maggio; buona impressione data dallEnte. Follow-up? Giornata PT ai LNGS 3&4.
Biometry to enhance smart card security (MOC using TOC protocol)
Modellizzazione DICOM in Geant4 Stéphane Chauvie Santa Croce e Carle Hospital, Cuneo Gruppo italiano MC-INFN.
TIPOLOGIA DELLE VARIABILI SPERIMENTALI: Variabili nominali Variabili quantali Variabili semi-quantitative Variabili quantitative.
Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
Ergo : what is the source of EU-English? Standard British English? Standard American English? Both!!!! See morphology (use of British.
Nuove Tecnologie: Trigger, Computing & Software Massmimo Caccia, Luca Lista Uni. Insubria & INFN Milano, INFN, Napoli.
Introduzione alle griglie computazionali - a.a LEZIONE LEZIONE N. 12 Grid Monitoring modello GMA GridICE GridICE demo Introduzione alle griglie.
Fanno ormai parte della nostra vita di tutti i giorni….
Avis Contact Centres Review
PLANCK LFI N. Mandolesi Consorzio PLANCK-LFI Incontro con Prof. P. Benvenuti IASF/CNR - Sez. di Bologna, Gennaio 2004.
Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
2000 Prentice Hall, Inc. All rights reserved. 1 Capitolo 3 - Functions Outline 3.1Introduction 3.2Program Components in C++ 3.3Math Library Functions 3.4Functions.
1 Astroparticle Physics in Space Claudia Cecchi Dipartimento di Fisica e Sezione INFN, Perugia Workshop Nazionale La Scienza e la Tecnologia sulla Stazione.
Introduzione Grid1 Introduzione ai Sistemi Grid. Introduzione Grid2 Generalità Un sistema Grid permette allutente di richiedere lesecuzione di un servizio.
FONDAMENTI DI INFORMATICA III WfMC-1. FONDAMENTI DI INFORMATICA III WfMC-2 WFMC Cose WfMC Workflow Management Coalition (WfMC), Brussels, è unorganizzazione.
WP 10 – Applicazioni Astrofisica – stato Leopoldo Benacchio INAF Osservatorio Astronomico di Padova Pisa maggio 03.
VARO SRL LOGISTIC, QUALITY, SERVICE
National Project – on going results Potenza 7/10 November 06 IT-G2-SIC-066 – Social Enterprise and Local Development.
Tier1 - cpu KSI2k days ATLAS KSI2k days CMS. Tier1 - storage CASTOR disk space CMS requires: T1D0, T0D1 ATLAS requires: T1D0, T0D1 and T1D1.
LHCf Status Report Measurement of Photons and Neutral Pions in the Very Forward Region of LHC Oscar Adriani INFN Sezione di Firenze - Dipartimento di Fisica.
Concord A tool for the analysis and concordances of the terminological constituents P. Plini, N. Mastidoro* * - Èulogos, Rome Institute for Atmospheric.
S. Bolognesi (1) from CMS A. Di Simone (2) from ATLAS 1 Università di Torino ed INFN Torino 2 Università di Roma Tor Vergata ed INFN Roma 2 V workshop.
Il software delle DT Attività in corso Stato della simulazione e ricostruzione hit in ORCA Calibrazione Validazione con dati di Testbeam Testbeam Ottobre.
Perugia 11/12/20021 AMS Data Handling e INFN P.G. Rancoita.
Test-beam X5/H Workshop a dicembre su organizzazione attivita 2003 Mail generale inviata a tutti da F.Cerutti Date del workshop (definitive) Venerdi.
VII EBRCN GM, Berlin, 26-28/09/20041 EBRCN Site: current status Béatrice Dutertre Questa presentazione può essere utilizzata come traccia per una discussione.
PASTIS CNRSM, Brindisi – Italy Area Materiali e Processi per lAgroindustria Università degli Studi di Foggia, Italy Istituto di Produzioni e Preparazioni.
Gli ambienti di apprendimento Firenze, 3 marzo 2006.
Last quarter work and future activities
Project Review Novembrer 17th, Project Review Agenda: Project goals User stories – use cases – scenarios Project plan summary Status as of November.
Federazione Nazionale Commercio Macchine Cantiermacchine Cogena Intemac Unicea Unimot ASSOCIAZIONE ITALIANA PER LA PROMOZIONE DELLA COGENERAZIONE.
21/01/2004 L. Silvestris 1 Analisi (fake e non) per il DC04 L. Silvestris INFN-Bari.
* * Data Challenge 04 Stato dei centri di produzione in Italia.
Italian Family Policies and Pre- School Childcare in view of the Best Interest of the Child and Best Quality of Early Care Services. Towards the Lisbon.
Negli ultimi anni, la richiesta di poter controllare in remoto la strumentazione e cresciuta rapidamente I miglioramenti nell’hardware e nel software insieme.
"We firmly believe that the on-the-run issues should command a high liquidity premium in the current environment. But with very high probability, the.
UITA Genève ottobre Comitè du Groupe Professionnel UITA Genève octobre 2003 Trade Union and Tour.
A PEACEFUL BRIDGE BETWEEN THE CULTURES TROUGH OLYMPICS OLYMPIC CREED: the most significant thing in the olympic games is not to win but to take part OLYMPIC.
Lezione n°27 Università degli Studi Roma Tre – Dipartimento di Ingegneria Corso di Teoria e Progetto di Ponti – A/A Dott. Ing. Fabrizio Paolacci.
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
Scenario e Prospettive della Planetologia Italiana
1 Acceleratori e Reattori Nucleari Saverio Altieri Dipartimento di Fisica Università degli Studi - Pavia
From 8 to 80 boxes. From FBSNG to Condor CPU Satura !
Analisi dei dati dell’Esperimento ALICE
Information In March we decided to start to work on this topic in strong collaboration with Roma 1 group: Ferrante (50-70%), Braccini (50-70%), Torre (100%),
Transcript della presentazione:

13-15 Ottobre 2004 P. Capiluppi - II Workshop Atlas-CMS - Napoli Data Challenging Paolo Capiluppi Dipartimento di Fisica e INFN, Bologna

2 P. Capiluppi - II Workshop Atlas-CMS - Napoli Ottobre 2004 Sommario u Perche? Definire un Computing Model Preparare lAnalisi [ presentazioni in questo WS] Simulare il comportamento dei detector, trigger compreso [ idem] Definire lorganizzazione dellInfrastruttura, risorse e persone u Come? Attraverso i Data Challenges Componenti specifiche di Esperimento Componenti comuni: LCG e/o Grid u Dove siamo? Data Challenges di ATLAS e CMS u Cosa manca? Dimostrare quale scalabilita Misurare il carico dellanalisi Definire meglio è lorganizzazione è cosa e comune tra gli esperimenti (I Data Challenges futuri)

3 P. Capiluppi - II Workshop Atlas-CMS - Napoli Ottobre 2004 Dimensioni del Calcolo ad LHC (~2008) u CERN T0/T1 Disk Space [PB]5 Mass Storage Space [ PB]20 Processing Power [MSI2K]20 WAN [10Gb/s]~5? u Tier-1s (Sum of ~10) Disk Space [PB]20 Mass Storage Space [ PB]20 Processing Power [MSI2K]45 WAN [10Gb/s/Tier-1]~1? u Tier-2s (Sum of ~40) Disk Space [PB]12 Mass Storage Space [ PB] 5 Processing Power [MSI2K]40 WAN [10Gb/s/Tier-2]~.2? u Cost Sharing 30% At CERN, 40% T1s, 30% T2s CERN T0/T1 Cost Sharing T1 Cost Sharing T2 Cost Sharing

4 P. Capiluppi - II Workshop Atlas-CMS - Napoli Ottobre 2004 The Goal is the Physics, not the Computing… u Motivation: at L 0 =10 33 cm -2 s -1, 1 fill (6hrs) ~ 13 pb -1 1 day ~ 30 pb -1 1 month ~ 1 fb -1 1 year ~ 10 fb -1 u Most of Standard-Model Higgs can be probed within a few months Ditto for SUSY u Turn-on for Detector(s) + Computing and Software will be crucial

5 P. Capiluppi - II Workshop Atlas-CMS - Napoli Ottobre 2004 Computing Model 1 (CM1) Computing Model 2 (CM2) Perché un Computing Model? u Ogni Esperimento ne ha uno ! u Occorre garantire ad ogni partecipante laccesso ai dati Per produrre risultati di Fisica sfruttando le capacità di ogni individuo u Occorre garantire il mantenimento dei dati E la consistenza di questi u Occorre garantire le priorità e le scelte dellEsperimento Salvaguardando lautonomia di ognuno (e delle Istituzioni) u Occorre sfruttare al meglio le risorse Di hardware ed umane Organizzazione dei dati e del loro accesso Organizzazione dei dati e del loro accesso

6 P. Capiluppi - II Workshop Atlas-CMS - Napoli Ottobre 2004 Elementi di un Computing Model u Componenti Data Model è Event data sizes, formats, streaming è Data Tiers (DST/ESD/AOD etc) è Roles, accessibility, distribution,… è Calibration/Conditions data è Flow, latencies, update freq è Simulation. Sizes, distribution è File size Analysis Model è Canonical group needs in terms of data, streams, re- processing, calibrations è Data Movement, Job Movement, Priority management è Interactive analysis u Metodologie di implementazione Computing Strategy and Deployment è Roles of Computing Tiers è Data Distribution between Tiers è Data Management Architecture è Databases è Masters, Updates, Hierarchy è Active/Passive Experiment Policy Computing Specifications è Profiles (Tier N & Time) Processors, Storage, Network (Wide/Local), DataBase services, Specialized servers è Middleware requirements

7 P. Capiluppi - II Workshop Atlas-CMS - Napoli Ottobre 2004 Valutazione del CM2 di BaBar CM2 compared to CM1

8 P. Capiluppi - II Workshop Atlas-CMS - Napoli Ottobre 2004 Un Modello Gerarchico (MONARC) Tier 1 Tier2 Center Online System CERN Center PBs of Disk; Tape Robot FNAL Center IN2P3 Center INFN Center RAL Center Institute Workstations ~ MBytes/sec Gbps 0.1 to 10 Gbps Tens of Petabytes by An Exabyte ~5-7 Years later Physics data cache ~PByte/sec ~ Gbps Tier2 Center ~ Gbps Tier 0 +1 Tier 3 Tier 4 Tier2 Center Tier 2 Experiment CERN/Outside Resource Ratio ~1:2 Tier0/( Tier1)/( Tier2) ~1:1:1 Filter raw data Data Reconstruction Data Recording Distribution to Tier-1 Permanent data storage and management Data-heavy analysis re-processing Simulation,Regional support Well-managed disk storage Simulation End-user analysis ~10k PCs ~2k PCs ~500 PCs

9 P. Capiluppi - II Workshop Atlas-CMS - Napoli Ottobre 2004 Gerarchia di Processi (MONARC) (Esperimento, Gruppi di Analisi, Individui) ReconstructionSelection Analysis Re-processing 3 per year Iterative selection Once per month Different Physics cuts and MC comparison ~1 time per day ExperimentActivity (10 9 events) ~20 Group Activity ( events) ~25 Individual per Group Activity (10 6 –10 8 events) New detector calibrations Or understanding Trigger based and Physics based refinements Algorithms applied to data to get results Monte Carlo Batch Analysis Interactive & Batch Analysis

10 P. Capiluppi - II Workshop Atlas-CMS - Napoli Ottobre 2004 Lorganizzazione dellInfrastruttura u Tiers e loro dipendenza (quali, quanti, chi fa cosa, quante risorse etc.) Dedicati allesperimento? Comuni? u Servizi necessari (databases, supporto sistemistico e agli utenti, accesso e localizzazione dei dati, prestazioni, etc.): SLAs (service level agreements) Personale Priorità/politiche di accesso-autorizzazione u Software (di ricostruzione, di analisi, di framework, di controllo, di accounting, di autorizzazione, di accesso, etc.) u Cosa e comune e cosa no: LCG (contiene le applicazioni=software!) Grid(s) Sistema dinamico! Sistema dinamico!

11 P. Capiluppi - II Workshop Atlas-CMS - Napoli Ottobre 2004 Data Challenges u Test dei Computing Model u Preparazione alla Analisi u Verifica progressiva della maturita di: Software Infrastruttura u Physics o Data Challenges? Entrambi! per tutti gli esperimenti LHC, in tempi e modalita diverse I challenges correnti (tutti ne hanno gia fatti negli anni scorsi) : è ATLAS: DC2 (2004) è CMS: DC04 ( ) è ALICE: PDC04 (2004) è LHCb: DC04 (2004)

12 P. Capiluppi - II Workshop Atlas-CMS - Napoli Ottobre 2004 Argomenti comuni nei Test dei Computing Models: DCs u Move a copy of the raw data away from CERN in real-time Second secure copy è 1 copy at CERN è 1 copy spread over N sites Flexibility. è Serve raw data even if Tier-0 saturated with DAQ Ability to run even primary reconstruction offsite u Streaming online and offline (Maybe not a common theme yet) u Simulation at T2 centers Except LHCb, if simulation load remains high, use Tier-1 u ESD Distributed n copies over N Tier-1 sites Tier-2 centers run complex selections at Tier-1, download skims u AOD Distributed to all (?) Tier-2 centers Maybe not a common theme. è How useful is AOD, how early in LHC? è Some Run II experience indicating long term usage of raw data u Horizontal Streaming RAW, ESD, AOD,TAG u Vertical Streaming Trigger streams, Physics Streams, Analysis Skims

13 P. Capiluppi - II Workshop Atlas-CMS - Napoli Ottobre 2004 ATLAS DC2 u Consider DC2 as a three-part operation: part I: production of simulated data (July-September 2004) è running on Grid è Worldwide part II: test of Tier-0 operation (November 2004) è Do in 10 days what should be done in 1 day when real data-taking start è Input is Raw Data like è output (ESD+AOD) will be distributed to Tier-1s in real time for analysis part III: test of distributed analysis on the Grid è access to event and non-event data from anywhere in the world both in organized and chaotic ways u Requests ~30 Physics channels ( 10 Millions of events) Several millions of events for calibration (single particles and physics samples)

14 P. Capiluppi - II Workshop Atlas-CMS - Napoli Ottobre 2004 New ATLAS DC2 Production System LCGNGGrid3PBS/LSF LCG exe NG exe G3 exe PBS/LSF exe super ProdDB Data Man. System RLS jabber soap jabber DonQuijote Windmill Lexor AMI Capone Dulcinea INFN

15 P. Capiluppi - II Workshop Atlas-CMS - Napoli Ottobre 2004 ATLAS DC2 Supervisor -Executors Windmill numJobsWanted executeJobs getExecutorData getStatus fixJob killJob Jabber communication pathway executors Don Quijote (file catalog) Prod DB (jobs database) execution sites (grid) 1. lexor 2. dulcinea 3. capone 4. legacy supervisors execution sites (grid)

16 P. Capiluppi - II Workshop Atlas-CMS - Napoli Ottobre sites, multi-VO shared resources ~2000 CPUs dynamic – roll in/out ATLAS Grid3 DC2 Sites

17 P. Capiluppi - II Workshop Atlas-CMS - Napoli Ottobre 2004 ATLAS DC2 NorduGrid & Co. Resources u u 7 countries: u u Sites for ATLAS: 22 Dedicated: 3, the rest is shared u u CPUs for ATLAS: ~3280 Effectively available: ~800 u u Storage Elements for ATLAS: 10 Capacity: ~14 TB, all shared

18 P. Capiluppi - II Workshop Atlas-CMS - Napoli Ottobre 2004 ATLAS DC2 LCG-2 sites: 7/9/04 73 Sites 7700 CPU 26 sites at 2_2_0 33 sites at 2_1_1 others at ?? 29 pass all tests

19 P. Capiluppi - II Workshop Atlas-CMS - Napoli Ottobre 2004 ATLAS DC2 status (CPU usage for simulation)

20 P. Capiluppi - II Workshop Atlas-CMS - Napoli Ottobre 2004 Jobs distribution on LCG for ATLAS DC2 Preliminary

21 P. Capiluppi - II Workshop Atlas-CMS - Napoli Ottobre 2004 ATLAS DC2 Production Jobs Total LCG NorduGrid Grid3 # of jobs Date

22 P. Capiluppi - II Workshop Atlas-CMS - Napoli Ottobre 2004 ATLAS DC2: Statistiche e problemi LCG u 8 M eventi prodotti con Geant4 100 k jobs da 24 ore circa 30TB di output e 1470 kSpI2k*months u LCG Sommario quantitativo dei problemi trovati da 1-8 a jobs falliti per misconfigurazione siti (E1) 1985 per WLMS e servizi collegati (E2) 4350 per Data Man. e servizi collegati (E3) Jobs finiti bene nello stesso periodo (OK) 81% u Efficienza LCG = OK/(OK+E1+E2+E3)= 81% Ma lefficienza globale è più bassa, ci sono stati problemi anche nella parte ATLAS (circa 7000 non molto diverso da LCG) e circa 5000 di difficile assegnazione 62% u Efficienza DC2(parte LCG)=OK/(OK+FAILED)= 62%

23 P. Capiluppi - II Workshop Atlas-CMS - Napoli Ottobre 2004 Atlas DC2 sommario u Major efforts in the past few months Redesign of the ATLAS Event Data Model and Detector Description Integration of the LCG components (G4; POOL; …) Introduction of the Production System è Interfaced with 3 Grid flavors (and legacy systems) u Delays in all activities have affected the schedule of DC2 Note that Combined Test Beam is ATLAS 1st priority And DC2 schedule was revisited è To wait for the readiness of the software and of the Production system u DC2 3 flavors coherently About 80% of the Geant4 simulation foreseen for Phase I has been completed using only Grid and using the 3 flavors coherently; The 3 Grids have been proven to be usable for a real production u BUT Phase I progressing slower than expected and all the involved elements need improvements: è Grid middleware; Production System; deployment and monitoring tools over the sites It is a key goal of the Data Challenges to identify these problems as early as possible.

24 P. Capiluppi - II Workshop Atlas-CMS - Napoli Ottobre 2004 Scopo del Data Challenge 04 di CMS Aim of DC04: Reach a sustained 25Hz reconstruction rate in the Tier-0 farm (25% of the target conditions for LHC startup) Register data and metadata to a catalogue Transfer the reconstructed data to all Tier-1 centers Analyze the reconstructed data at the Tier-1s as they arrive Publicize to the community the data produced at Tier-1s Monitor and archive of performance criteria of the ensemble of activities for debugging and post-mortem analysis Not a CPU challenge, but a full chain demonstration! Pre-challenge production in 2003/04 70M Monte Carlo events (30M with Geant-4) produced Classic and grid (CMS/LCG-0, LCG-1, Grid3) productions Era un challenge, e ogni volta che si e trovato un limite di scalabilita di una componente, e stato un Successo!

25 P. Capiluppi - II Workshop Atlas-CMS - Napoli Ottobre 2004 T1 FNAL Chicago T2 Florida PIC Barcelona FZK Karlsruhe CNAF Bologna RAL Oxford IN2P3 Lyon T1 T0 T1 T2 Legnaro T2 CIEMAT Madrid T2 IC London CMS DC04 Data Challenge Focused on organized (CMS-managed) data flow/access u u T0 at CERN in DC04 25 Hz Reconstruction Events filtered into streams Record raw data and DST Distribute raw data and DST to T1s u u T1 centres in DC04 Pull data from T0 to T1 and store Make data available to PRS Demonstrate quasi- realtime analysis of DSTs u u T2 centres in DC04 Pre-challenge production at > 30 sites Tests of DST analysis

26 P. Capiluppi - II Workshop Atlas-CMS - Napoli Ottobre 2004 CMS Data Challenge 04: numbers u Pre Challenge Production (PCP04) [Jul03-Feb04] Eventi simulati : 75 M events [750k jobs, ~800k files, 5000 KSI2000 months, 100 TB of data ] (~30 M Geant4) Eventi digitizzati (raw): 35 M events [35k jobs, 105k files] Dove: INFN, USA, CERN, … In Italia: ~ M events (~20%) Per cosa (Physics and Reconstruction Software Groups): Muons, B-tau, e-gamma, Higgs u Data Challenge 04 [Mar04-Apr04] Eventi ricostruiti (DST) al Tier0 del CERN: ~25 M events [~25k jobs, ~400k files, 150 KSI2000 months, 6 TB of data ] Eventi distribuiti al Tier1-CNAF e Tier2-LNL: gli stessi ~25 M events e files Eventi analizzati al Tier1-CNAF e Tier2-LNL: > 10 M events [~15 k jobs, ognuno di ~ 30min CPU ]

27 P. Capiluppi - II Workshop Atlas-CMS - Napoli Ottobre 2004 CMS Data Challenge 04: layout Tier-2 Physicist T2storage ORCA Local Job Tier-2 Physicist T2storage ORCA Local Job Tier-1 Tier-1 agent T1storage ORCA Analysis Job MSS ORCA Grid Job Tier-1 Tier-1 agent T1storage ORCA Analysis Job MSS ORCA Grid Job Tier-0 Castor IB fake on-line process RefDB POOL RLS catalogue TMDB ORCA RECO Job GDB Tier-0 data distribution agents EB LCG-2 Services Tier-2 Physicist T2storage ORCA Local Job Tier-1 Tier-1 agent T1storage ORCA Analysis Job MSS ORCA Grid Job Full chain (but the Tier-0 reconstruction) done in LCG-2, but only for INFN and PIC Not without pain… INFN INFN INFN INFN INFN INFN

28 P. Capiluppi - II Workshop Atlas-CMS - Napoli Ottobre 2004 CMS Data Challenge 04 Processing Rate Processed about 30M events But DST errors make this pass not useful for analysis Post-DC04 3rd version ready for production in next weeks Generally kept up at T1s in CNAF, FNAL, PIC Got above 25Hz on many short occasions But only one full day above 25Hz with full system RLS, Castor, overloaded control systems, T1 Storage Elements, T1 MSS, …

29 P. Capiluppi - II Workshop Atlas-CMS - Napoli Ottobre 2004 CERN RAL (UK) FZK (Germany) IN2P3 (France) FNAL (USA) CNAF (Italy) Legnaro PIC (Spain) CIEMATUFLCaltech LCG-2 chain SRM chain SRB chain Tier-2s Tier-1s Tier-0 Hierarchy of Tiers in CMS DC04 and data distribution chains

30 P. Capiluppi - II Workshop Atlas-CMS - Napoli Ottobre 2004 CMS Data Challenge 04: data transfer from CERN to INFN exercise with big files CNAF - Tier1 >500k~6 TB A total of >500k files and ~6 TB of data transferred CERN T0 CNAF T max nb.files per day is ~45000 on March 31 st, 400 GB700 GB max size per day is ~400 GB on March 13 th (>700 GB considering the Zips) ~340 Mbps (>42 MB/s) sustained for ~5 hours (max was Mbps Mbps) Global CNAF network May 2 nd May 1 st GARR Network use 30 Mar 04 – Rates from GDB to EBs RAL, IN2P3, FZK FNAL INFN, PIC

31 P. Capiluppi - II Workshop Atlas-CMS - Napoli Ottobre 2004 Maximum rate of analysis jobs: 194 jobs/hour Maximum rate of analysed events: 26 Hz Total of ~15000 analysis jobs via Grid tools in ~2 weeks (95-99% efficiency) 20 min latency from delivery by Tier0 to start of Analysis Job at the Tier1/2 Datasets examples: B 0 S J/ Bkg: mu03_tt2mu, mu03_DY2mu tTH, H bbbar t Wb W l T Wb W had. Bkg: bt03_ttbb_tth Bkg: bt03_qcd170_tth Bkg: mu03_W1mu H WW 2 2 Bkg: mu03_tt2mu, mu03_DY2mu CMS DC04 Real-time Analysis on LCG

32 P. Capiluppi - II Workshop Atlas-CMS - Napoli Ottobre 2004 CMS Data Challenge 04: componenti MW e SW, un esempio u CMS specific Transfer Agents per trasferire i files di DST (al CERN, ai Tier1) RefDb, Database delle richieste e assignment di datasets (al CERN) Cobra, framework del software di CMS (CMS wide) ORCA, OSCAR (Geant4), ricostruzione e simulazione di CMS (CMS wide) McRunJob, sistema per preparazione dei job (CMS wide) BOSS, sistema per il job tracking (CMS wide) SRB, sistema di replicazione e catalogo di files (al CERN, a RAL, Lyon e FZK) MySQL-POOL, backend di POOL sul database MySQL (a FNAL) u US specific Monte carlo distributed prod system (MOP) (a FNAL, Wisconsin, Florida, …) MonaLisa, sistema di monitoring (CMS wide) Custom McRunJob, sistema di preparazione dei job (a FNAL e…forse Florida) u LCG common User Interfaces including Replica Manager (al CNAF, Padova, LNL, Bari, PIC) Storage Elements (al CNAF, LNL, PIC) Computing Elements (al CNAF, a LNL e a PIC) Replica Location Service (al CERN e al Tier1-CNAF) Resource Broker (al CERN e al CNAF-Tier1-Grid-it) Storage Replica Manager (al CERN e a FNAL) Berkley Database Information Index (al CERN) Virtual Organization Management System (al CERN) GridICE, sistema di monitoring (sui CE, SE, WN, …) POOL, catalogo per la persistenza (in CERN RLS) Mass Storage Systems su nastro (Castor, Enstore, etc.) (al CERN ai Tier1) ORACLE database (al CERN e al Tier1-INFN)

33 P. Capiluppi - II Workshop Atlas-CMS - Napoli Ottobre 2004 CMS DC04 Sommario u Concentrated on the Organized, Collaboration-Managed, aspects of Data Flow and Access Functional DST with streams for Physics and Calibration è DST size OK; further development now underway Tier-0 farm reconstruction è 500 CPU. Ran at 25Hz. Reconstruction time within estimates. Tier-0 Buffer Management and Distribution to Tier-1s è TMDB- CMS built Agent system OK Tier-2 Managed Import of Selected Data from Tier-1 è Meta-data based selection OK. Real-Time analysis access at Tier-1 and Tier-2 è Achieved 20 minute latency from T0 reconstruction to job launch at T1/T2 Catalog Services, Replica Management è Significant performance problems found and being addressed?! u Demonstrated that the system can work for well controlled data flow and analysis, and for a few expert users Next challenge is to make this useable by average physicists and demonstrate that the performance scales acceptably u BUT: Physics TDR requires physicist access to DC04 data ! Re-reconstruction passes Alignment studies Luminosity effects è Estimate 10M events/month throughput required u Therefore use requirements of Physics TDR to build understanding of analysis model, while doing the analysis Make it work for Physics TDR

34 P. Capiluppi - II Workshop Atlas-CMS - Napoli Ottobre 2004 Cosa manca? u Organizzazione! u Definire le attivita di Computing dei primi 100 giorni Calibrazioni/allineamenti Trigger rate e suo uso Etc. u Dimostrare la scalabilita del SISTEMA u Valutare limpatto dellAnalisi e delle calibrazioni Incluso il Condition database u In fin dei conti: Manca un (sia pur preliminare) Computing Model completo che possa essere misurato Nelle prestazioni Scalabilita Affidabilita Facilita di uso nellaccesso ai dati (Il software e il middleware NON sono il problema)

35 P. Capiluppi - II Workshop Atlas-CMS - Napoli Ottobre 2004 Conclusioni u Ma non siamo messi cosi male Sia ATLAS che CMS hanno misurato alcune delle componenti essenziali (alcune purtroppo ancora mancano) sistema continuo di produzione ed analisi Sia ATLAS che CMS stanno andando verso un sistema continuo di produzione ed analisi Entro il 2005 avremo i Computing TDR (e quindi un Computing Model) Da questultimi nasceranno (stanno nascendo…) i Computing MoUs u I prossimi Data Challenges saranno quelli finali prima della presa dati reali: DC3-ATLAS, DC06-CMS, entrambi nel 2006 Quelli successivi saranno sui dati veri !