La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

13-15 Ottobre 2004 P. Capiluppi - II Workshop Atlas-CMS - Napoli Data Challenging Paolo Capiluppi Dipartimento di Fisica e INFN, Bologna.

Presentazioni simili


Presentazione sul tema: "13-15 Ottobre 2004 P. Capiluppi - II Workshop Atlas-CMS - Napoli Data Challenging Paolo Capiluppi Dipartimento di Fisica e INFN, Bologna."— Transcript della presentazione:

1 13-15 Ottobre 2004 P. Capiluppi - II Workshop Atlas-CMS - Napoli Data Challenging Paolo Capiluppi Dipartimento di Fisica e INFN, Bologna

2 2 P. Capiluppi - II Workshop Atlas-CMS - Napoli 13-15 Ottobre 2004 Sommario u Perche? Definire un Computing Model Preparare lAnalisi [ presentazioni in questo WS] Simulare il comportamento dei detector, trigger compreso [ idem] Definire lorganizzazione dellInfrastruttura, risorse e persone u Come? Attraverso i Data Challenges Componenti specifiche di Esperimento Componenti comuni: LCG e/o Grid u Dove siamo? Data Challenges di ATLAS e CMS u Cosa manca? Dimostrare quale scalabilita Misurare il carico dellanalisi Definire meglio è lorganizzazione è cosa e comune tra gli esperimenti (I Data Challenges futuri)

3 3 P. Capiluppi - II Workshop Atlas-CMS - Napoli 13-15 Ottobre 2004 Dimensioni del Calcolo ad LHC (~2008) u CERN T0/T1 Disk Space [PB]5 Mass Storage Space [ PB]20 Processing Power [MSI2K]20 WAN [10Gb/s]~5? u Tier-1s (Sum of ~10) Disk Space [PB]20 Mass Storage Space [ PB]20 Processing Power [MSI2K]45 WAN [10Gb/s/Tier-1]~1? u Tier-2s (Sum of ~40) Disk Space [PB]12 Mass Storage Space [ PB] 5 Processing Power [MSI2K]40 WAN [10Gb/s/Tier-2]~.2? u Cost Sharing 30% At CERN, 40% T1s, 30% T2s CERN T0/T1 Cost Sharing T1 Cost Sharing T2 Cost Sharing

4 4 P. Capiluppi - II Workshop Atlas-CMS - Napoli 13-15 Ottobre 2004 The Goal is the Physics, not the Computing… u Motivation: at L 0 =10 33 cm -2 s -1, 1 fill (6hrs) ~ 13 pb -1 1 day ~ 30 pb -1 1 month ~ 1 fb -1 1 year ~ 10 fb -1 u Most of Standard-Model Higgs can be probed within a few months Ditto for SUSY u Turn-on for Detector(s) + Computing and Software will be crucial

5 5 P. Capiluppi - II Workshop Atlas-CMS - Napoli 13-15 Ottobre 2004 Computing Model 1 (CM1) Computing Model 2 (CM2) Perché un Computing Model? u Ogni Esperimento ne ha uno ! u Occorre garantire ad ogni partecipante laccesso ai dati Per produrre risultati di Fisica sfruttando le capacità di ogni individuo u Occorre garantire il mantenimento dei dati E la consistenza di questi u Occorre garantire le priorità e le scelte dellEsperimento Salvaguardando lautonomia di ognuno (e delle Istituzioni) u Occorre sfruttare al meglio le risorse Di hardware ed umane Organizzazione dei dati e del loro accesso Organizzazione dei dati e del loro accesso

6 6 P. Capiluppi - II Workshop Atlas-CMS - Napoli 13-15 Ottobre 2004 Elementi di un Computing Model u Componenti Data Model è Event data sizes, formats, streaming è Data Tiers (DST/ESD/AOD etc) è Roles, accessibility, distribution,… è Calibration/Conditions data è Flow, latencies, update freq è Simulation. Sizes, distribution è File size Analysis Model è Canonical group needs in terms of data, streams, re- processing, calibrations è Data Movement, Job Movement, Priority management è Interactive analysis u Metodologie di implementazione Computing Strategy and Deployment è Roles of Computing Tiers è Data Distribution between Tiers è Data Management Architecture è Databases è Masters, Updates, Hierarchy è Active/Passive Experiment Policy Computing Specifications è Profiles (Tier N & Time) Processors, Storage, Network (Wide/Local), DataBase services, Specialized servers è Middleware requirements

7 7 P. Capiluppi - II Workshop Atlas-CMS - Napoli 13-15 Ottobre 2004 Valutazione del CM2 di BaBar CM2 compared to CM1

8 8 P. Capiluppi - II Workshop Atlas-CMS - Napoli 13-15 Ottobre 2004 Un Modello Gerarchico (MONARC) Tier 1 Tier2 Center Online System CERN Center PBs of Disk; Tape Robot FNAL Center IN2P3 Center INFN Center RAL Center Institute Workstations ~100-1500 MBytes/sec 2.5-10 Gbps 0.1 to 10 Gbps Tens of Petabytes by 2007-8 An Exabyte ~5-7 Years later Physics data cache ~PByte/sec ~2.5-10 Gbps Tier2 Center ~2.5-10 Gbps Tier 0 +1 Tier 3 Tier 4 Tier2 Center Tier 2 Experiment CERN/Outside Resource Ratio ~1:2 Tier0/( Tier1)/( Tier2) ~1:1:1 Filter raw data Data Reconstruction Data Recording Distribution to Tier-1 Permanent data storage and management Data-heavy analysis re-processing Simulation,Regional support Well-managed disk storage Simulation End-user analysis ~10k PCs ~2k PCs ~500 PCs

9 9 P. Capiluppi - II Workshop Atlas-CMS - Napoli 13-15 Ottobre 2004 Gerarchia di Processi (MONARC) (Esperimento, Gruppi di Analisi, Individui) ReconstructionSelection Analysis Re-processing 3 per year Iterative selection Once per month Different Physics cuts and MC comparison ~1 time per day ExperimentActivity (10 9 events) ~20 Group Activity (10 9 10 7 events) ~25 Individual per Group Activity (10 6 –10 8 events) New detector calibrations Or understanding Trigger based and Physics based refinements Algorithms applied to data to get results Monte Carlo Batch Analysis Interactive & Batch Analysis

10 10 P. Capiluppi - II Workshop Atlas-CMS - Napoli 13-15 Ottobre 2004 Lorganizzazione dellInfrastruttura u Tiers e loro dipendenza (quali, quanti, chi fa cosa, quante risorse etc.) Dedicati allesperimento? Comuni? u Servizi necessari (databases, supporto sistemistico e agli utenti, accesso e localizzazione dei dati, prestazioni, etc.): SLAs (service level agreements) Personale Priorità/politiche di accesso-autorizzazione u Software (di ricostruzione, di analisi, di framework, di controllo, di accounting, di autorizzazione, di accesso, etc.) u Cosa e comune e cosa no: LCG (contiene le applicazioni=software!) Grid(s) Sistema dinamico! Sistema dinamico!

11 11 P. Capiluppi - II Workshop Atlas-CMS - Napoli 13-15 Ottobre 2004 Data Challenges u Test dei Computing Model u Preparazione alla Analisi u Verifica progressiva della maturita di: Software Infrastruttura u Physics o Data Challenges? Entrambi! per tutti gli esperimenti LHC, in tempi e modalita diverse I challenges correnti (tutti ne hanno gia fatti negli anni scorsi) : è ATLAS: DC2 (2004) è CMS: DC04 (2003-2004) è ALICE: PDC04 (2004) è LHCb: DC04 (2004)

12 12 P. Capiluppi - II Workshop Atlas-CMS - Napoli 13-15 Ottobre 2004 Argomenti comuni nei Test dei Computing Models: DCs u Move a copy of the raw data away from CERN in real-time Second secure copy è 1 copy at CERN è 1 copy spread over N sites Flexibility. è Serve raw data even if Tier-0 saturated with DAQ Ability to run even primary reconstruction offsite u Streaming online and offline (Maybe not a common theme yet) u Simulation at T2 centers Except LHCb, if simulation load remains high, use Tier-1 u ESD Distributed n copies over N Tier-1 sites Tier-2 centers run complex selections at Tier-1, download skims u AOD Distributed to all (?) Tier-2 centers Maybe not a common theme. è How useful is AOD, how early in LHC? è Some Run II experience indicating long term usage of raw data u Horizontal Streaming RAW, ESD, AOD,TAG u Vertical Streaming Trigger streams, Physics Streams, Analysis Skims

13 13 P. Capiluppi - II Workshop Atlas-CMS - Napoli 13-15 Ottobre 2004 ATLAS DC2 u Consider DC2 as a three-part operation: part I: production of simulated data (July-September 2004) è running on Grid è Worldwide part II: test of Tier-0 operation (November 2004) è Do in 10 days what should be done in 1 day when real data-taking start è Input is Raw Data like è output (ESD+AOD) will be distributed to Tier-1s in real time for analysis part III: test of distributed analysis on the Grid è access to event and non-event data from anywhere in the world both in organized and chaotic ways u Requests ~30 Physics channels ( 10 Millions of events) Several millions of events for calibration (single particles and physics samples)

14 14 P. Capiluppi - II Workshop Atlas-CMS - Napoli 13-15 Ottobre 2004 New ATLAS DC2 Production System LCGNGGrid3PBS/LSF LCG exe NG exe G3 exe PBS/LSF exe super ProdDB Data Man. System RLS jabber soap jabber DonQuijote Windmill Lexor AMI Capone Dulcinea INFN

15 15 P. Capiluppi - II Workshop Atlas-CMS - Napoli 13-15 Ottobre 2004 ATLAS DC2 Supervisor -Executors Windmill numJobsWanted executeJobs getExecutorData getStatus fixJob killJob Jabber communication pathway executors Don Quijote (file catalog) Prod DB (jobs database) execution sites (grid) 1. lexor 2. dulcinea 3. capone 4. legacy supervisors execution sites (grid)

16 16 P. Capiluppi - II Workshop Atlas-CMS - Napoli 13-15 Ottobre 2004 28 sites, multi-VO shared resources ~2000 CPUs dynamic – roll in/out ATLAS Grid3 DC2 Sites

17 17 P. Capiluppi - II Workshop Atlas-CMS - Napoli 13-15 Ottobre 2004 ATLAS DC2 NorduGrid & Co. Resources u u 7 countries: u u Sites for ATLAS: 22 Dedicated: 3, the rest is shared u u CPUs for ATLAS: ~3280 Effectively available: ~800 u u Storage Elements for ATLAS: 10 Capacity: ~14 TB, all shared

18 18 P. Capiluppi - II Workshop Atlas-CMS - Napoli 13-15 Ottobre 2004 ATLAS DC2 LCG-2 sites: 7/9/04 73 Sites 7700 CPU 26 sites at 2_2_0 33 sites at 2_1_1 others at ?? 29 pass all tests

19 19 P. Capiluppi - II Workshop Atlas-CMS - Napoli 13-15 Ottobre 2004 ATLAS DC2 status (CPU usage for simulation)

20 20 P. Capiluppi - II Workshop Atlas-CMS - Napoli 13-15 Ottobre 2004 Jobs distribution on LCG for ATLAS DC2 Preliminary

21 21 P. Capiluppi - II Workshop Atlas-CMS - Napoli 13-15 Ottobre 2004 ATLAS DC2 Production Jobs Total LCG NorduGrid Grid3 # of jobs Date

22 22 P. Capiluppi - II Workshop Atlas-CMS - Napoli 13-15 Ottobre 2004 ATLAS DC2: Statistiche e problemi LCG u 8 M eventi prodotti con Geant4 100 k jobs da 24 ore circa 30TB di output e 1470 kSpI2k*months u LCG Sommario quantitativo dei problemi trovati da 1-8 a 7-9 2004 750 jobs falliti per misconfigurazione siti (E1) 1985 per WLMS e servizi collegati (E2) 4350 per Data Man. e servizi collegati (E3) Jobs finiti bene nello stesso periodo 29303 (OK) 81% u Efficienza LCG = OK/(OK+E1+E2+E3)= 81% Ma lefficienza globale è più bassa, ci sono stati problemi anche nella parte ATLAS (circa 7000 non molto diverso da LCG) e circa 5000 di difficile assegnazione 62% u Efficienza DC2(parte LCG)=OK/(OK+FAILED)= 62%

23 23 P. Capiluppi - II Workshop Atlas-CMS - Napoli 13-15 Ottobre 2004 Atlas DC2 sommario u Major efforts in the past few months Redesign of the ATLAS Event Data Model and Detector Description Integration of the LCG components (G4; POOL; …) Introduction of the Production System è Interfaced with 3 Grid flavors (and legacy systems) u Delays in all activities have affected the schedule of DC2 Note that Combined Test Beam is ATLAS 1st priority And DC2 schedule was revisited è To wait for the readiness of the software and of the Production system u DC2 3 flavors coherently About 80% of the Geant4 simulation foreseen for Phase I has been completed using only Grid and using the 3 flavors coherently; The 3 Grids have been proven to be usable for a real production u BUT Phase I progressing slower than expected and all the involved elements need improvements: è Grid middleware; Production System; deployment and monitoring tools over the sites It is a key goal of the Data Challenges to identify these problems as early as possible.

24 24 P. Capiluppi - II Workshop Atlas-CMS - Napoli 13-15 Ottobre 2004 Scopo del Data Challenge 04 di CMS Aim of DC04: Reach a sustained 25Hz reconstruction rate in the Tier-0 farm (25% of the target conditions for LHC startup) Register data and metadata to a catalogue Transfer the reconstructed data to all Tier-1 centers Analyze the reconstructed data at the Tier-1s as they arrive Publicize to the community the data produced at Tier-1s Monitor and archive of performance criteria of the ensemble of activities for debugging and post-mortem analysis Not a CPU challenge, but a full chain demonstration! Pre-challenge production in 2003/04 70M Monte Carlo events (30M with Geant-4) produced Classic and grid (CMS/LCG-0, LCG-1, Grid3) productions Era un challenge, e ogni volta che si e trovato un limite di scalabilita di una componente, e stato un Successo!

25 25 P. Capiluppi - II Workshop Atlas-CMS - Napoli 13-15 Ottobre 2004 T1 FNAL Chicago T2 Florida PIC Barcelona FZK Karlsruhe CNAF Bologna RAL Oxford IN2P3 Lyon T1 T0 T1 T2 Legnaro T2 CIEMAT Madrid T2 IC London CMS DC04 Data Challenge Focused on organized (CMS-managed) data flow/access u u T0 at CERN in DC04 25 Hz Reconstruction Events filtered into streams Record raw data and DST Distribute raw data and DST to T1s u u T1 centres in DC04 Pull data from T0 to T1 and store Make data available to PRS Demonstrate quasi- realtime analysis of DSTs u u T2 centres in DC04 Pre-challenge production at > 30 sites Tests of DST analysis

26 26 P. Capiluppi - II Workshop Atlas-CMS - Napoli 13-15 Ottobre 2004 CMS Data Challenge 04: numbers u Pre Challenge Production (PCP04) [Jul03-Feb04] Eventi simulati : 75 M events [750k jobs, ~800k files, 5000 KSI2000 months, 100 TB of data ] (~30 M Geant4) Eventi digitizzati (raw): 35 M events [35k jobs, 105k files] Dove: INFN, USA, CERN, … In Italia: ~ 10-15 M events (~20%) Per cosa (Physics and Reconstruction Software Groups): Muons, B-tau, e-gamma, Higgs u Data Challenge 04 [Mar04-Apr04] Eventi ricostruiti (DST) al Tier0 del CERN: ~25 M events [~25k jobs, ~400k files, 150 KSI2000 months, 6 TB of data ] Eventi distribuiti al Tier1-CNAF e Tier2-LNL: gli stessi ~25 M events e files Eventi analizzati al Tier1-CNAF e Tier2-LNL: > 10 M events [~15 k jobs, ognuno di ~ 30min CPU ]

27 27 P. Capiluppi - II Workshop Atlas-CMS - Napoli 13-15 Ottobre 2004 CMS Data Challenge 04: layout Tier-2 Physicist T2storage ORCA Local Job Tier-2 Physicist T2storage ORCA Local Job Tier-1 Tier-1 agent T1storage ORCA Analysis Job MSS ORCA Grid Job Tier-1 Tier-1 agent T1storage ORCA Analysis Job MSS ORCA Grid Job Tier-0 Castor IB fake on-line process RefDB POOL RLS catalogue TMDB ORCA RECO Job GDB Tier-0 data distribution agents EB LCG-2 Services Tier-2 Physicist T2storage ORCA Local Job Tier-1 Tier-1 agent T1storage ORCA Analysis Job MSS ORCA Grid Job Full chain (but the Tier-0 reconstruction) done in LCG-2, but only for INFN and PIC Not without pain… INFN INFN INFN INFN INFN INFN

28 28 P. Capiluppi - II Workshop Atlas-CMS - Napoli 13-15 Ottobre 2004 CMS Data Challenge 04 Processing Rate Processed about 30M events But DST errors make this pass not useful for analysis Post-DC04 3rd version ready for production in next weeks Generally kept up at T1s in CNAF, FNAL, PIC Got above 25Hz on many short occasions But only one full day above 25Hz with full system RLS, Castor, overloaded control systems, T1 Storage Elements, T1 MSS, …

29 29 P. Capiluppi - II Workshop Atlas-CMS - Napoli 13-15 Ottobre 2004 CERN RAL (UK) FZK (Germany) IN2P3 (France) FNAL (USA) CNAF (Italy) Legnaro PIC (Spain) CIEMATUFLCaltech LCG-2 chain SRM chain SRB chain Tier-2s Tier-1s Tier-0 Hierarchy of Tiers in CMS DC04 and data distribution chains

30 30 P. Capiluppi - II Workshop Atlas-CMS - Napoli 13-15 Ottobre 2004 CMS Data Challenge 04: data transfer from CERN to INFN exercise with big files CNAF - Tier1 >500k~6 TB A total of >500k files and ~6 TB of data transferred CERN T0 CNAF T1 45000 max nb.files per day is ~45000 on March 31 st, 400 GB700 GB max size per day is ~400 GB on March 13 th (>700 GB considering the Zips) ~340 Mbps (>42 MB/s) sustained for ~5 hours (max was 383.8 Mbps 383.8 Mbps) Global CNAF network May 2 nd May 1 st GARR Network use 30 Mar 04 – Rates from GDB to EBs RAL, IN2P3, FZK FNAL INFN, PIC

31 31 P. Capiluppi - II Workshop Atlas-CMS - Napoli 13-15 Ottobre 2004 Maximum rate of analysis jobs: 194 jobs/hour Maximum rate of analysed events: 26 Hz Total of ~15000 analysis jobs via Grid tools in ~2 weeks (95-99% efficiency) 20 min latency from delivery by Tier0 to start of Analysis Job at the Tier1/2 Datasets examples: B 0 S J/ Bkg: mu03_tt2mu, mu03_DY2mu tTH, H bbbar t Wb W l T Wb W had. Bkg: bt03_ttbb_tth Bkg: bt03_qcd170_tth Bkg: mu03_W1mu H WW 2 2 Bkg: mu03_tt2mu, mu03_DY2mu CMS DC04 Real-time Analysis on LCG

32 32 P. Capiluppi - II Workshop Atlas-CMS - Napoli 13-15 Ottobre 2004 CMS Data Challenge 04: componenti MW e SW, un esempio u CMS specific Transfer Agents per trasferire i files di DST (al CERN, ai Tier1) RefDb, Database delle richieste e assignment di datasets (al CERN) Cobra, framework del software di CMS (CMS wide) ORCA, OSCAR (Geant4), ricostruzione e simulazione di CMS (CMS wide) McRunJob, sistema per preparazione dei job (CMS wide) BOSS, sistema per il job tracking (CMS wide) SRB, sistema di replicazione e catalogo di files (al CERN, a RAL, Lyon e FZK) MySQL-POOL, backend di POOL sul database MySQL (a FNAL) u US specific Monte carlo distributed prod system (MOP) (a FNAL, Wisconsin, Florida, …) MonaLisa, sistema di monitoring (CMS wide) Custom McRunJob, sistema di preparazione dei job (a FNAL e…forse Florida) u LCG common User Interfaces including Replica Manager (al CNAF, Padova, LNL, Bari, PIC) Storage Elements (al CNAF, LNL, PIC) Computing Elements (al CNAF, a LNL e a PIC) Replica Location Service (al CERN e al Tier1-CNAF) Resource Broker (al CERN e al CNAF-Tier1-Grid-it) Storage Replica Manager (al CERN e a FNAL) Berkley Database Information Index (al CERN) Virtual Organization Management System (al CERN) GridICE, sistema di monitoring (sui CE, SE, WN, …) POOL, catalogo per la persistenza (in CERN RLS) Mass Storage Systems su nastro (Castor, Enstore, etc.) (al CERN ai Tier1) ORACLE database (al CERN e al Tier1-INFN)

33 33 P. Capiluppi - II Workshop Atlas-CMS - Napoli 13-15 Ottobre 2004 CMS DC04 Sommario u Concentrated on the Organized, Collaboration-Managed, aspects of Data Flow and Access Functional DST with streams for Physics and Calibration è DST size OK; further development now underway Tier-0 farm reconstruction è 500 CPU. Ran at 25Hz. Reconstruction time within estimates. Tier-0 Buffer Management and Distribution to Tier-1s è TMDB- CMS built Agent system OK Tier-2 Managed Import of Selected Data from Tier-1 è Meta-data based selection OK. Real-Time analysis access at Tier-1 and Tier-2 è Achieved 20 minute latency from T0 reconstruction to job launch at T1/T2 Catalog Services, Replica Management è Significant performance problems found and being addressed?! u Demonstrated that the system can work for well controlled data flow and analysis, and for a few expert users Next challenge is to make this useable by average physicists and demonstrate that the performance scales acceptably u BUT: Physics TDR requires physicist access to DC04 data ! Re-reconstruction passes Alignment studies Luminosity effects è Estimate 10M events/month throughput required u Therefore use requirements of Physics TDR to build understanding of analysis model, while doing the analysis Make it work for Physics TDR

34 34 P. Capiluppi - II Workshop Atlas-CMS - Napoli 13-15 Ottobre 2004 Cosa manca? u Organizzazione! u Definire le attivita di Computing dei primi 100 giorni Calibrazioni/allineamenti Trigger rate e suo uso Etc. u Dimostrare la scalabilita del SISTEMA u Valutare limpatto dellAnalisi e delle calibrazioni Incluso il Condition database u In fin dei conti: Manca un (sia pur preliminare) Computing Model completo che possa essere misurato Nelle prestazioni Scalabilita Affidabilita Facilita di uso nellaccesso ai dati (Il software e il middleware NON sono il problema)

35 35 P. Capiluppi - II Workshop Atlas-CMS - Napoli 13-15 Ottobre 2004 Conclusioni u Ma non siamo messi cosi male Sia ATLAS che CMS hanno misurato alcune delle componenti essenziali (alcune purtroppo ancora mancano) sistema continuo di produzione ed analisi Sia ATLAS che CMS stanno andando verso un sistema continuo di produzione ed analisi Entro il 2005 avremo i Computing TDR (e quindi un Computing Model) Da questultimi nasceranno (stanno nascendo…) i Computing MoUs u I prossimi Data Challenges saranno quelli finali prima della presa dati reali: DC3-ATLAS, DC06-CMS, entrambi nel 2006 Quelli successivi saranno sui dati veri !


Scaricare ppt "13-15 Ottobre 2004 P. Capiluppi - II Workshop Atlas-CMS - Napoli Data Challenging Paolo Capiluppi Dipartimento di Fisica e INFN, Bologna."

Presentazioni simili


Annunci Google