Claudio Grandi INFN Bologna Workshop Commissione Calcolo 12 giugno 2003 Evoluzione dei modelli di calcolo distribuito nell’esperimento CMS Claudio Grandi.

Slides:



Advertisements
Presentazioni simili
P.CapiluppiPadova Luglio 1999 Il Computing di CMS ad LHC Paolo Capiluppi CMS - Dip. di Fisica & INFN, Bologna I termini del problema Attivita (e persone.
Advertisements

23/01/01Alberto Masoni – GR1 - Roma1 I MODELLI DI CENTRI REGIONALI POSIZIONE DI ALICE ITALIA CENTRO ITALIANO: CPU 450 KSI95, DISCO 400 TB (INSIEME TIER-1.
L. Perini CSN1 -Roma 23 Gen Centri Regionali per il calcolo di ATLAS in Italia Tier-1 e Tiers-N : funzioni, localizzazione, necessita di h/w, personale.
L'uso attuale di Grid negli esperimenti LHC e realizzazione di HEPCAL
Distributed Object Computing
P. Capiluppi Organizzazione del Software & Computing CMS Italia I Workshop CMS Italia del Computing & Software Roma Novembre 2001.
Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
Proposta di integrazione e consolidamento delle risorse presenti nellinfrastruttura Grid dellItalia Meridionale (L. Merola, )
per la fisica delle alte energie
Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
Workshop CNAF – Bologna 8 Luglio 2011 FARO Accesso Web a risorse e servizi remoti in ambiente Grid/Cloud A. Rocchi, C. Sciò, G. Bracco, S. Migliori, F.
Grid Computing Sergio Andreozzi. Chi è interessato ad analizzare i dati generati da LHC? Circa 5,000 scienziati –distribuiti nel mondo –appartenenti ad.
Tier1 - cpu KSI2k days ATLAS KSI2k days CMS. Tier1 - storage CASTOR disk space CMS requires: T1D0, T0D1 ATLAS requires: T1D0, T0D1 and T1D1.
1 Riunione Testbed - 17 gennaio Agenda - stato del testbed di INFN-GRID (L. Gaido) - le risorse del CNAF (A. Italiano) - report sullo stress test.
Il calcolo distribuito in ATLAS
Conclusioni M. Paganoni workshop CMS Italia, Napoli 13-14/2/07.
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
1 M. Biasotto – Legnaro, 22 Dicembre 2005 Prototipo Tier 2 di Legnaro-Padova INFN Legnaro.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
* * Data Challenge 04 Stato dei centri di produzione in Italia.
Sommario: il testbed CMS/LCG0 e la configurazione della farm di Bari sviluppo software/tool di produzione per CMS e GRID. eventi in produzione per il.
Claudio Grandi INFN Bologna IFAE Torino 15 Aprile 2004 Uso di griglie computazionali per il calcolo degli esperimenti LHC Claudio Grandi INFN -
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
CSN1 – 7 febbraio 2006 Francesco Forti, INFN-Pisa per il gruppo di referaggio.
ATLAS Distributed Analysis Lamberto Luminari CSN1 – Roma, 16 Maggio 2006.
FESR Consorzio COMETA Pier Paolo CORSO Giuseppe CASTGLIA Marco CIPOLLA Industry Day Catania, 30 Giugno 2011 Commercial applications.
Analysis unibo una proposta. Work flow di una tipica analisi 1.Simulazione di piccoli campioni di eventi per studio segnale 2.Generazione in grande.
CNAF 18/11/2004 Federica Fanzago INFN Padova a/grape... BAT... BATMAN...o? M.Corvo, F.Fanzago, N.Smirnov (INFN Padova) + tutte le persone che fanno i test.
Test Storage Resource Manager per SC4 Giacinto Donvito Vincenzo Spinoso.
16 Maggio CSN1 Computing-Software-Analysis CMS-INFN TEAM Analisi in CMS: stato e prospettive del supporto italiano.
Extreme Cluster Administration Toolkit Alberto Crescente, INFN Sez. Padova.
Computing Model ATLAS & CMS
News da LHC… *** Discussion title: CMS Commissioning Notes from 09:00 meeting Current fill (1182) has now been in stable beams for >12 hours. Delivered.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
23 Giugno CSN1 P. Capiluppi CMS Computing 2003 e oltre u Stato e richieste u LCG e CMS u Modello di Calcolo CMS.
CSN Maggio 2005 P. Capiluppi Il Computing Model (LHC) nella realta’ italiana u I Computing models degli esperimenti LHC gia’ presentati a Gennaio.
LNF Farm E. V. 9/8/2006. Hardware CE, LCFG, HLR, 3 WN: DL 360 1U; SE: DL 380 2U 5 WN: BL 25 P In totale 25 jobs general purpuse (coda Atlas) + una coda.
Attivita' Grid in BaBar Workshop sulle Problematiche di Calcolo e Reti nell'INFN Maggio 2004.
1 LHCb Computing Angelo Carbone, INFN-CNAF CSN1, 21/9/06 Aggiornamento richieste Tier Richiesta Tier-2 al CNAF Stato e risultati DC06.
Layered Grid Architecture. Application Fabric “Controlling elements locally”: Access to, & control of, resources Connectivity “Talking to Grid elements”:
Il calcolo LHC in Italia: commenti Gruppo di referaggio Forti (chair), Belforte  Bossi, Menasce, Simone, Taiuti, Ferrari, Morandin, Zoccoli.
11/11/2002 P. Capiluppi - CSN1 Perugia CMS Computing Paolo Capiluppi Dept. of Physics and INFN Bologna.
Halina Bilokon ATLAS Software di fisica DC1 – DC2 DC1 aprile fine 2003 (versioni di software  3.x.x – 7.x.x)  Validation del Software  Aggiornamento.
CMS 1 M. Biasotto – Bologna 20/01/2005 Infrastruttura di calcolo per CMS-Italia M.Biasotto – INFN Legnaro e i gestori dei centri CMS Italia.
I testbed ed il loro uso 1 I testbed ed il loro uso L. Gaido, A.Ghiselli CSN1, Perugia novembre 2002.
ATLAS Computing Model Lamberto Luminari CSN Gennaio, 2005.
Storage (ieri, oggi e domani) Luca dell’Agnello INFN-CNAF.
BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015.
Gaetano Maron, Presentazione T2 LNL-Padova, Legnaro 22 dicembre Il Servizio Tecnologie Informatiche ed Elettroniche dei LNL Gaetano Maron.
Atlas Italia - Milano, 17/11/2009 G. Carlino – News dal Computing 1 1 News dal computing Gianpaolo Carlino INFN Napoli Atlas Italia, Milano, 17/11/09 Nuovo.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
17-18 Dicembre 2014 Second Belle II italian collaboration meeting – Dicembre 2014 Networking e calcolo di Belle II a Napoli - Recas Silvio Pardi.
Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 1 ATLAS Attività di TeV Attività di computing Attività di computing.
Claudio Grandi Workshop CCR 2015 Claudio Grandi INFN Bologna.
Overview del middleware gLite Guido Cuscela INFN-Bari II Corso di formazione INFN su aspetti pratici dell'integrazione.
Calcolo a LHC Concezio Bozzi, INFN Ferrara per il gruppo di referaggio: F. Bossi, CB, R. Ferrari, D. Lucchesi, D. Martello, [M. Morandin], S. Pirrone,
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
The INFN Tier-1: progetto di ampliamento Cristina Vistoli – INFN CNAF Referee Meeting Sep
10 Ottobre CSN1 P. Capiluppi Tier2 CMS Italia 3Bari  In comune con Alice 3Legnaro  In comune con Alice 3Pisa 3Roma1  In comune con Atlas Sedi.
ATLAS Italia – Sestri Levante, 15 Giugno 2010 G. Carlino – Richieste Run Efficiency = time for physics / total time LHC Efficiency = time with colliding.
FESR Trinacria Grid Virtual Laboratory Workload Management System (WMS) Muoio Annamaria INFN - Catania Primo Workshop TriGrid VL Catania,
L’infrastruttura del progetto ReCaS Paolo Lo Re on behalf of ReCaS collaboration.
L.Perini Milano: 10 Gennaio Ex-ATLAS-Grid (Tier2 incluso) l Ruolo dei Tiers in ATLAS e grid l Le persone di Milano e le attività l Le infrastrutture.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Domenico Elia1 Calcolo ALICE: stato e richieste finanziarie (aggiornamenti) Domenico Elia Riunione Referee Calcolo LHC / Bologna, Riunione con.
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
Analisi dei dati dell’Esperimento ALICE
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
Transcript della presentazione:

Claudio Grandi INFN Bologna Workshop Commissione Calcolo 12 giugno 2003 Evoluzione dei modelli di calcolo distribuito nell’esperimento CMS Claudio Grandi (INFN Bologna)

Claudio Grandi INFN Bologna 12 giugno 2003 Workshop Commissione Calcolo 2 Outline Il Computing Model di CMS nel 1999 –MONARC! Combiamenti nel Computing Model di CMS –L’utilizzo di meddleware grid –Il progetto LCG del CERN Data Challenges di CMS

Claudio Grandi INFN Bologna 12 giugno 2003 Workshop Commissione Calcolo 3 CMS Computing Model ~1999 Software applicativo: –Migrazione a linguaggi Object Oriented (C++) –OODBMS per il data management  Objectivity/DB Data model e analysis model –MONARC (vedi oltre) Architettura –MONARC (vedi oltre)

Claudio Grandi INFN Bologna 12 giugno 2003 Workshop Commissione Calcolo 4 Monarc Data Model Raw Data Slow control Calibration data Trigger Tag Simulation Data Reconstruction ESD/Rec.Obj. Data Tag Data Selection Anal.Obj. Data AOD (2 steps) Data 1 PB/Year PB/Year? + ~0.5 PB/Year? Input of  Analysis Local DB and/or Histograms Input of  Input of  1.1 PB/Year GB/Year or 0.1 PB/Year GB/year  CMS  ATLAS Off-Line Farm (and “other” resources for Simulation) RCs (including CERN) 0.2 TB/Year x 2 using TAG  CMS 20 TB/Year x 2 using TAG 2 TB/Year x 2 using TAG  ATLAS pass1  ATLAS pass2 RC (including CERN) and/or Desktops Huge amount of Data! But negligible for Users (if DB is out of Global Objy DB) By P.Capiluppi Jul 1999

Claudio Grandi INFN Bologna 12 giugno 2003 Workshop Commissione Calcolo 5 Monarc analysis process DAQ Raw Slow C Calibration Reconstruction ESD/Rec. Obj +TAG DB Selection AOD/Anal. Obj Selection AOD/Anal. Obj Analysis Selected AOD/Anal. Obj & TAG DB Analysis Selected AOD/Anal. Obj & TAG DB Trigger Info x n WG x n Users in the WG 1st time at CERN (then at RC? ==> Parameters? Different WG at different site? ==> Parameters? RC or Desktop? ==> Parameters? 4 times per Year? (per Exp.) Once per Month? (per WG) 4 times per Day? (per User) Raw Data : On Tape, at CERN and at RC ESD/Rec.Obj : On Tape at CERN, on Disk at RC (Including CERN RC) for the samples needed by analysis at a given RC AOD/Anal. Obj : On Disk Selected AOD/Anal. Obj : On Disk TAG DB : On Disk By P.Capiluppi, Jul 1999

Claudio Grandi INFN Bologna 12 giugno 2003 Workshop Commissione Calcolo 6 Modello di computing: Monarc –Il Modello di Computing e’ basato su due pilastri: Le risorse hardware (incluso il Network), software e “programming” non possono essere basate solo e principalmente al CERN. Distributed ComputingLa dispersione dei partecipanti agli Esperimenti richiede una organizzazione di “collaboration at a distance”, implicando (anche politicamente) un Distributed Computing di portata e complessita’ senza precedenti (anche per gli “Informatici”). commodity[Terzo pilastro!: occorre fare uso il piu’ possibile della realta’ della commodity (budget and availability)] By P.Capiluppi, Jul 1999

Claudio Grandi INFN Bologna 12 giugno 2003 Workshop Commissione Calcolo 7 Monarc: computing model Tier2 Centre ~1 TIPS Online System Offline Processor Farm ~20 TIPS CERN Computer Centre FermiLab ~4 TIPS France Regional Centre Italy Regional Centre Germany Regional Centre Institute Institute ~0.25TIPS Physicist workstations ~100 MBytes/sec ~622 Mbits/sec ~1 MBytes/sec There is a “bunch crossing” every 25 nsecs. There are 100 “triggers” per second Each triggered event is ~1 MByte in size Physicists work on analysis “channels”. Each institute will have ~10 physicists working on one or more channels; data for these channels should be cached by the institute server Physics data cache ~PBytes/sec ~622 Mbits/sec or Air Freight (deprecated) Tier2 Centre ~1 TIPS Caltech ~1 TIPS ~622 Mbits/sec Tier 0 Tier 1 Tier 2 Tier 4 1 TIPS is approximately 25,000 SpecInt95 equivalents By H.Newman

Claudio Grandi INFN Bologna 12 giugno 2003 Workshop Commissione Calcolo 8 Monarc: architettura –Definizione in termini di servizi –Servizi di dati: produzione MC reprocessing eventi produzione ESD/AOD/tags accesso a ESD/AOD/tags bookkeeping –Servizi Tecnici: Database maintenance tools for data services storage management CPU-DB-I/O usage monitoring/policing Documentation By L.Barone, oct 1999

Claudio Grandi INFN Bologna 12 giugno 2003 Workshop Commissione Calcolo 9 Definizione di Tier-1 e Tier-2 –Un centro regionale tier-1 fornisce tutti i servizi tecnici, tutti i servizi dati per l’analisi ed è in grado di fornire almeno un’altra classe di servizi dati –Un RC tier-1 è dimensionato in rapporto al CERN –Dimensioni iniziali tra il 10 e il 20 % del CERN (singolo esperimento) –100,000 SI95, boxes, 100 TB di disco, PB su nastro –Evoluzione nel tempo –Tutti gli ESD/AOD/Tags –Tutte le calibrazioni –Bookkeeping aggiornato –Parte dei Raw Data ??? –Accesso trasparente per gli utenti –Datasets mossi preferibilmente via rete By L.Barone, oct 1999

Claudio Grandi INFN Bologna 12 giugno 2003 Workshop Commissione Calcolo 10 Definizione di Tier-1 e Tier-2 –Un centro tier-2 è simile a un tier-1 ma su scala minore, fino al 25% di un tier-1 –Dedicato solo all’analisi (tutti gli AOD/tags, frazione degli ESD) –Scambia dati con un tier-1 piuttosto che con il CERN, per ottimizzare il traffico di rete By L.Barone, oct 1999

Claudio Grandi INFN Bologna 12 giugno 2003 Workshop Commissione Calcolo 11 Definizione del Computing Model

Claudio Grandi INFN Bologna 12 giugno 2003 Workshop Commissione Calcolo 12 CMS Computing Model ~2003 Software applicativo: –Migrazione a OO quasi completato Geant-4 è la componente “difficile” –Uso di OO-streaming library su flat files o RDBMS Soluzione quasi comune agli esperimenti LHC Data model e analysis model –Non sono fondamentalmente cambiati. Sono in fase di definizione i dettagli (ad es. dimensione dei dati) Architettura –MONARC, ma con il middleware di grid –Si ricercano soluzioni comuni (LCG)

Claudio Grandi INFN Bologna 12 giugno 2003 Workshop Commissione Calcolo 13 Uso di grid Dove i tools di grid aiutano nell’implementazione del modello di calcolo: –Meccanismi di autenticazione e autorizzazione comuni –Interfaccia comune a diversis Local Resource Manager Systems –Interfaccia comune a diversi Mass Storage Systems –Unico entry-point verso le risorse –Unico entry-point verso i dati Per l’utente finale, cioè il fisico: –semplificato l’accesso ai dati e alle risorse di calcolo Per il production manager: –accesso diretto ad un maggior quantitativo di risorse (cioè è necessario un numero minore di production managers!) Per il system manager: –maggiore libertà nella scelta delle politiche locali di accesso –maggiore libertà nella scelta di LRSM e MSS (in prospettiva!)

Claudio Grandi INFN Bologna 12 giugno 2003 Workshop Commissione Calcolo 14 Uso di grid Attenzione a non cadere in facili semplificazioni: –L’utente finale (il fisico) può beneficiare di un maggior livello di incapsulazione (dettagli, quali la locazione delle risorse e dei dati possono essere nascosti) Però: –Per garantire uno sfruttamento efficiente delle risorse, la dislocazione di risorse e di dati deve essere oculata. Utenti selezionati (production managers) devono poter agire direttamente sulle risorse! –Il nostro non è un vero modello provider-client: le founding agencies (INFN!) pagano sia le risorse e la loro gestione, sia i fisici che fanno analisi! Spesso le persone che gestiscono e utilizzano le risorse sono le stesse. –Un modello gerarchico di servizi rimane la chiave per il successo del sistema

Claudio Grandi INFN Bologna 12 giugno 2003 Workshop Commissione Calcolo 15 Produzioni grid con MOP (VDT) MOP is a system for packaging production processing jobs into DAGMAN format Mop_submitter wraps Impala jobs in DAG format at the “MOP master” site DAGMAN runs DAG jobs through remote sites’ Globus JobManagers through Condor-G Results are returned using GridFTP. Though the results are also returned to the MOP master site in the current IGT running, this does not have to be the case. Master Site Remote Site 1 IMPALAmop_submitter DAGMan Condor-G GridFTP Batch Queue GridFTP Remote Site N Batch Queue GridFTP UW Madison is the MOP master for the USCMS Grid Testbed FNAL is the MOP master for the IGT and the Production Grid

Claudio Grandi INFN Bologna 12 giugno 2003 Workshop Commissione Calcolo 16 SE CE CMS software Produzioni grid con EUDataGrid BOSS DB Workload Management System JDL RefDB parameters data registration Job output filtering Runtime monitoring input data location Push data or info Pull info UI IMPALA/BOSS Replica Manager CE CMS software CE CMS software CE WN SE CE CMS software SE

Claudio Grandi INFN Bologna 12 giugno 2003 Workshop Commissione Calcolo 17 LHC Computing Grid Project The job of the LHC Computing Grid Project – LCG – is to prepare the computing infrastructure for the simulation, processing and analysis of LHC data for all four of the LHC collaborations.

Claudio Grandi INFN Bologna 12 giugno 2003 Workshop Commissione Calcolo 18 The appliccation area Gli esperimenti contribuiscono a LCG con un considerevole numero di persone (circa 4 FTE da CMS…) Total of 49 FTE’s

Claudio Grandi INFN Bologna 12 giugno 2003 Workshop Commissione Calcolo 19 CMS Data Challenges Average slope =x2.5/year DC04 Physics TDR DC05 LCG TDR DC06 Readiness LHC 2E33 LHC 1E34 DAQTDR 1999: 1TB – 1 month – 1 person : 27 TB – 12 months – 30 persons 2002: 20 TB – 2 months – 30 persons 2003: 175 TB – 6 months – <30 persons By V.Lefebure Sep 2002

Claudio Grandi INFN Bologna 12 giugno 2003 Workshop Commissione Calcolo 20 DC04 e pre-production (PCP03) Simulazione del processo di ricostruzione e analisi del primo anno di running di LHC ad una scala pari al 25% delle dimensioni reali (5% delle dimensioni finali). –Un mese: febbraio 2004 –Processamento dati a 25 Hz (50 MB/s) al CERN –Distribuzione dei dati ai Tier-1 e Tier-2 e analisi con grid –50 milioni di eventi in input Pre-produzione da luglio a dicembre 2003 –simulazione e digitizzazione dei 50 milioni di eventi –circa 1M SpecInt2000, 175 TB di dati –75 TB di dati da trasferire al CERN in 2 mesi (~125 Mbit/s) –In Italia circa il 20% della pre-produzione ~200 KSpecInt2000 per 6 mesi, 34 TB di dati prodotti e archiviati ~25 Mbit/s bandwidth CNAF  CERN (nov-dic 03) ~20 Mbit/s bandwidth Tier-2’s  CNAF (lug-dic 03)

Claudio Grandi INFN Bologna 12 giugno 2003 Workshop Commissione Calcolo 21 Tools per PCP03 MCRunJob Site Manager starts an assignment RefDB Phys.Group asks for an official dataset User starts a private production Production Manager defines assignments DAG job JDL shell scripts DAGMan (MOP) Local Batch Manager EDG Scheduler Computer farm LCG-1 testbe d User’s Site Resources Chimera VDL Virtual Data Catalogue Planner

Claudio Grandi INFN Bologna 12 giugno 2003 Workshop Commissione Calcolo 22 Conclusioni Utilizzo di tecnologia OO confermato. Sviluppo di soluzioni home-made per la gestione dei dati Data model e analysis model confermati. Organizzazione gerarchica delle risorse a-la- MONARC. I tools di grid semplificano alcuni aspetti della gestione ma non modificano l’architettura. La migrazione di manpower esperto in computing dagli esperimenti ai progetti grid e a LCG obbliga gli esperimenti alla ricerca di soluzioni comuni (e quindi a compromessi!) Data Challenges di dimensioni e complessità crescenti tentano di utilizzare tools di grid