L'uso attuale di Grid negli esperimenti LHC e realizzazione di HEPCAL

Slides:



Advertisements
Presentazioni simili
Introduzione al prototipo Grid-SCoPE
Advertisements

STATO DEL PROTOTIPO DI SCoPE E DELL’INTEGRAZIONE TRA I 4 PON
Fisica Subnucleare – Esperimento ATLAS
E835 & Hera-B Concezio Pisa, 21/12/2004. E835 (aka Jet-FNAL) timeline dell'esperimento –Presa dati conclusa nel Alcune analisi tuttora in corso.
23/01/01Alberto Masoni – GR1 - Roma1 I MODELLI DI CENTRI REGIONALI POSIZIONE DI ALICE ITALIA CENTRO ITALIANO: CPU 450 KSI95, DISCO 400 TB (INSIEME TIER-1.
September 2000 Paolo Capiluppi CMS Computing 2001 Paolo Capiluppi, Bologna.
L. Perini CSN1 -Roma 23 Gen Centri Regionali per il calcolo di ATLAS in Italia Tier-1 e Tiers-N : funzioni, localizzazione, necessita di h/w, personale.
Architettura Three Tier
ALICE-Italia: IL CALCOLO
P.Capiluppi I Workshop CMS Italia del Computing & Software Roma Novembre 2001 Scopo del Workshop u Fare il punto sulle attivita italiane.
P.Capiluppi I Workshop CMS Italia del Computing & Software Roma Novembre 2001 Qualche conclusione e pianificazione per il prossimo futuro.
P. Capiluppi Organizzazione del Software & Computing CMS Italia I Workshop CMS Italia del Computing & Software Roma Novembre 2001.
Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
Proposta di integrazione e consolidamento delle risorse presenti nellinfrastruttura Grid dellItalia Meridionale (L. Merola, )
per la fisica delle alte energie
Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
CAPITOLO 2 INTRODUZIONE AL LINGUAGGIO JAVA E ALL'AMBIENTE HOTJAVA.
WP 14 Grid Applications for Geophysics Istituto Nazionale di Geofisica e Vulcanologia INGV Progetto FIRB Grid.it Documento di rimodulazione.
Workshop CNAF – Bologna 8 Luglio 2011 FARO Accesso Web a risorse e servizi remoti in ambiente Grid/Cloud A. Rocchi, C. Sciò, G. Bracco, S. Migliori, F.
La facility nazionale Egrid: stato dell'arte Egrid-Team Trieste, 9 ottobre 2004.
SP-Grid - setup Implementazione dei servizi per la produzione al CNAF: –Integrazione tra i tool di produzione standard di BaBar (ProdTools) e gli strumenti.
Tier1 - cpu KSI2k days ATLAS KSI2k days CMS. Tier1 - storage CASTOR disk space CMS requires: T1D0, T0D1 ATLAS requires: T1D0, T0D1 and T1D1.
Gruppo Directory Services Rapporto dell'attivita' svolta - Marzo 2000.
Alessandro Italiano INFN - CNAF Grid.it 14 Febbraio 2003 Servizi Generali: RB, UI, RC Information System Alessandro Italiano Grid.it 16 febbraio 2003.
1 Riunione Testbed - 17 gennaio Agenda - stato del testbed di INFN-GRID (L. Gaido) - le risorse del CNAF (A. Italiano) - report sullo stress test.
Il Tutorial INFN-GRID/EDG di Torino Testbed INFN-GRID.
LNL M.Biasotto, Bologna, 13 dicembre Installazione automatica Massimo Biasotto – INFN LNL.
1 Il testbed di LCG Riunione Testbed – CNAF, 17 gennaio 2003 L. Gaido.
Il calcolo distribuito in ATLAS
M.Biasotto, Padova, 18 gennaio Sviluppo futuro di LCFG per la Release 2 di Datagrid Massimo Biasotto - LNL.
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
1 M. Biasotto – Legnaro, 22 Dicembre 2005 Prototipo Tier 2 di Legnaro-Padova INFN Legnaro.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
Scheda Ente Ente Privato Ente Pubblico. 2ROL - Richieste On Line.
Servizi Grid ed agenti mobili : un ambiente di sviluppo e delivering
Alessia Tricomi Università & INFN Catania
* * Data Challenge 04 Stato dei centri di produzione in Italia.
Sommario: il testbed CMS/LCG0 e la configurazione della farm di Bari sviluppo software/tool di produzione per CMS e GRID. eventi in produzione per il.
C. Aiftimiei 1, S. Andreozzi 2, S. Dal Pra 1, G. Donvito 3, S. Fantinel 4, E. Fattibene 2, G. Cuscela 3, G. P. Maggi 3, G. Misurelli 2, A. Pierro 3 1 INFN-Padova.
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
LNL GM, CNAF, 18 ottobre INFN-Farm Management Toolkit 1.Fabric Management per DataGrid e INFNGrid 2.Definizione dei requisiti degli esperimenti.
Analysis unibo una proposta. Work flow di una tipica analisi 1.Simulazione di piccoli campioni di eventi per studio segnale 2.Generazione in grande.
CNAF 18/11/2004 Federica Fanzago INFN Padova a/grape... BAT... BATMAN...o? M.Corvo, F.Fanzago, N.Smirnov (INFN Padova) + tutte le persone che fanno i test.
CCR 14-15/03/2006 Status Report Gruppo Storage CCR.
Test Storage Resource Manager per SC4 Giacinto Donvito Vincenzo Spinoso.
16 Maggio CSN1 Computing-Software-Analysis CMS-INFN TEAM Analisi in CMS: stato e prospettive del supporto italiano.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
Condor standard. Sistema Batch. Tool di installazione D. Bortolotti,P.Mazzanti,F.Semeria Workshop Calcolo Paestum 9-12 Giugno 2003.
LNF Farm E. V. 9/8/2006. Hardware CE, LCFG, HLR, 3 WN: DL 360 1U; SE: DL 380 2U 5 WN: BL 25 P In totale 25 jobs general purpuse (coda Atlas) + una coda.
Attivita' Grid in BaBar Workshop sulle Problematiche di Calcolo e Reti nell'INFN Maggio 2004.
1 LHCb Computing Angelo Carbone, INFN-CNAF CSN1, 21/9/06 Aggiornamento richieste Tier Richiesta Tier-2 al CNAF Stato e risultati DC06.
Halina Bilokon ATLAS Software di fisica DC1 – DC2 DC1 aprile fine 2003 (versioni di software  3.x.x – 7.x.x)  Validation del Software  Aggiornamento.
CMS 1 M. Biasotto – Bologna 20/01/2005 Infrastruttura di calcolo per CMS-Italia M.Biasotto – INFN Legnaro e i gestori dei centri CMS Italia.
I testbed ed il loro uso 1 I testbed ed il loro uso L. Gaido, A.Ghiselli CSN1, Perugia novembre 2002.
BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015.
Atlas Italia - Milano, 17/11/2009 G. Carlino – News dal Computing 1 1 News dal computing Gianpaolo Carlino INFN Napoli Atlas Italia, Milano, 17/11/09 Nuovo.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 1 ATLAS Attività di TeV Attività di computing Attività di computing.
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
FESR Trinacria Grid Virtual Laboratory PROGETTO “MAMMO” Sviluppo e ottimizzazione di algoritmi adattativi, specificatamente di Artificial.
Overview del middleware gLite Guido Cuscela INFN-Bari II Corso di formazione INFN su aspetti pratici dell'integrazione.
1 ALICE I ITER2 DI ALICE IN ITALIA Bologna, 6 marzo 2007 M. Masera
Il calcolo per l’esperimento GERDA Luciano Pandola INFN, Laboratori del Gran Sasso Riunione della CSN2, LNF Frascati, 29 Novembre 2011.
FESR Trinacria Grid Virtual Laboratory Workload Management System (WMS) Muoio Annamaria INFN - Catania Primo Workshop TriGrid VL Catania,
L.Perini Milano: 10 Gennaio Ex-ATLAS-Grid (Tier2 incluso) l Ruolo dei Tiers in ATLAS e grid l Le persone di Milano e le attività l Le infrastrutture.
Offline Report Finale Grid! I Corso di formazione INFN su aspetti pratici dell'integrazione di applicazioni in GRID Domenico D’Urso Roberto.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Transcript della presentazione:

L'uso attuale di Grid negli esperimenti LHC e realizzazione di HEPCAL Mario Reale (INFN CNAF - Bologna) mario.reale@cnaf.infn.it

Indice 1.Computing di oggi negli esp.LHC nelle produzioni MC Catena s/w di produzione Modelli attuale di produzione distribuita e loro limiti 2.Uso attuale,consolidato di GRID 3.Programmi in corso per l’integrazione di GRID 4.Elementi comuni nel lavoro di gridificazione 5.HEPcal ed idee realizzative

1.Computing (oggi) negli esperimenti LHC Massiccie produzioni MC di evt. simulati Diversificazione dei siti di produzione Gestione db di riferimento per la produzione, sia centralizzati che locali (farm) Persistenza : -Root -Objectivity -Pool (futuro)

Modello di flusso dei dati in HEP Detector Monte Carlo Analysis Cycle DAQ system Event Tags ESD Physics Generator Calibration System Group Analysis Generator Data L2/L3 Trigger Analysis Object Data(AOD) Group Analysis Tags Detector Simulation Raw Data Calibration Data Trigger Tags Raw Data Calibration Data Physics Analysis Simulated Raw Data Event Tags Reconstruction Ntuples Analysis Workstation Event Summary Data (ESD) Event Tags Physics results

ATLAS : catena di produzione MC gen data cards Generatore: Pythia ASCII HepMC (O-O) detect geom gen files Gen files Root ASCII ATLSIM (dice) Simulazione: GEANT3 RAW EVTS files (hits,digits) RZ Zebra (Athena) (Ricostruzione,Conversione) AODs Objectivity db (Root)

CMS : catena di produzione MC gen data cards Pythia Generatore: Pythia ASCII detect geom Ntuples (gen files) Gen files Hbook Zebra ASCII-db SIM cards CMSIM Simulazione: GEANT3 Zebra FZ-files Ricost/digitizzazione- Copia sui db di Objectivity ORCA-COBRA ooHits ooDigi ObjectivityDB

LHCb : catena di produzione MC gen data cards detect geom ASCII ASCII Generatore: Pythia Simulazione:GEANT3 SICBMC/Gauss RAWH files RZ Zebra Brunel Ricostruzione OODSTs Root

Alice : catena di produzione MC Config.C Generatori via interfaccia astratta : - Hijing - Herwig - Pythia ASCII detect geom Aliroot codice in c++ root db Simulazione: GEANT3 GEANT4 FLUKA (tra poco) root files Root Aliroot Ricostruzione Analisi : root root files Root

Limiti dei workflow di produzione attuali “Baby sitting” delle farm Coordinamento “manuale” degli amministratori locali delle farm nella pianificazione delle produzioni Frammentazione dei dominii : Steering manuale delle produzioni replicato in ogni sito Mancanza di flessibilita’ nello sfruttamento delle risorse Difficolta’ di controllo centralizzato

2.Uso attuale di GRID Validazione congiunta dei 4 esp. dei testbed 0,1,2 di EDG Grid Data Challenge 1 su EDG release 1.2.2 (ATLAS) ( 1% di tot DC1) Stress test su EDG release 1.3.0 (CMS) : in griglia di partenza Inclusione inter-operativa delle risorse testbed EDG nel modello di comp.distribuito Alien (ALICE) PDC, CDC in corso per LHCb

Atlas Data Challenge 1 su EDG Atlas-EDG task force Scopo originario: Realizzazione dell’ 1% di Data Challenge 1 sul testbed distribuito di EDG GRID Verifica della production quality fornita dal testbed EDG e della portabilita’ del s/w ATLAS su GRID Totale Produzione pianificata: 100 partizioni in input – 500 000 evts simulati Siti coinvolti : CERN, NIKHEF, RAL, CNAF, KARLSRUHE, LYON Esecuzione prevista originariamente: 2 fasi Fase preparatoria – Trasferimento e registrazione dei dati in input Fase di esecuzione job e recupero dell’ output

Atlas Data Challenge 1 su EDG Atlas-EDG task force Piano originario: 1 – fase preparatoria Trasferimento di files (gen) in input dal Mass Storage CASTOR @ CERN al GRID storage element (SE) del CERN Trasferimento di files dal GRID storage element (SE) del CERN agli storage element dei 5 siti distribuiti Registrazione dei files in ingresso nel Replica Catalog di ATLAS 2 – fase di esecuzione e gestione output Sottomissione di Job per la produzione su GRID Esecuzione e recupero dell’ output Registrazione dei files in output nel RC di ATLAS

Atlas Data Challenge 1 su EDG Atlas-EDG task force In dettaglio – Risultato : testati con successo: Trasferimento dei dati in input da CASTOR al CERN SE ( 5 files di ROOT del dataset 2000, ognuno da circa 1.7 GB each ) con RFIO Registrazione nel Replica Catalog Sottomissione dei Job e recupero dell’ output sul sito del CERN

SE SE SE Atlas Data Challenge 1 su EDG Atlas-EDG task force jdl Sottomisisone dei Job : testata con successo jdl NFS CE RB SE UI (ldap) NFS CE RC SE CASTOR NFS JDL: … ReplicaCatalog=“ldap://grid011g.cnaf.infn.it:9011/ATLAS Testbed1 Replica Catalog…”; InputData={LF:”dc1.002000.evgen.0001.hlt.pythia_jet_17.root”}; DataAccessProtocol= “file”; ... CE Input file SE lxshare0399.cern.ch G.Negri/S.Resconi/ATLAS

SE SE SE Atlas Data Challenge 1 su EDG Atlas-EDG task force Recupero dell’ output : testato con successo output sandbox CE SE UI RB output sandbox CE RC SE CASTOR ZEBRA CE SE registration of ZEBRA file in the RC NFS GDMP G.Negri/S.Resconi/ATLAS

Atlas Data Challage 1 su EDG Atlas-EDG task force : riepilogo Successo Parziale : Interfacciamento di base tra s/w ATLAS di produzione ed EDG : OK Sottomissione dei Job, recupero dell’ output utilizzando s/w ATLAS sul tb produzione EDG : OK - Coinvolgimento di siti distribuiti : parziale, dovuto a problemi di trasferimento di files estesi legato alla release utilizzata EDG 1.2.2 e diponibilita’ complessiva dei servizi G.Negri/S.Resconi/ATLAS

Stress Test CMS - GRID Scopo: Test CMS prod-ready per EDG Test flessibilita’ CMS per GRID 10 % della “summer” production in 4 settimane: 1 Milione di eventi da generare Siti Coinvolti Siti di EDG GRID testbed + farm CMS Legnaro + siti CMS UK, F Macchine “allocate” a CMS Tier 1 italia (CNAF) 1 SE dedicato al CERN e 1 a Legnaro

3.Programmi di integrazione di GRID ATLAS: integrazione di Athena/Gaudi con Grid CMS: integrazione di Impala/BOSS con Grid Alice : integrazione di Alien con EDG LHCb: integrazione di Gaudi con Grid

ATLAS : integrazione Grid Athena/Gaudi da integrare con GRID Integrazione in studio, in parallelo a ulteriori sviluppi di Athena/Gaudi, basata su Python come software bus Sviluppo comune a LHCb (GANGA)

CMS : integrazione Grid Installato s/w CMS (IMPALA, BOSS) sulla user interface (EDG UI) Unificazione del database di BOSS Impala scrive un file di descrizione del job da eseguire (JDL) - indipendente dalla locazione - e lo sottomette automaticamente al Broker di EDG I job possono essere eseguiti su qualsiasi risorsa di GRID disponibile. (non c’e’ bisgno di configurazione locale della farm)

Physics Data Production CMS Grid overview per DC04(2003-04) Reference DB  Physics Data Production & Analysis Portal Planner (uses CMS production SW) Data Management components (Catalogues) job  EDG User Interface job Computing Element Storage Element  Local analysis tools with plugin to access remote data

LHCb : integrazione Grid - Interfacciati nel framework (Java) per la gestione delle produzioni MC tutti I comandi di EDG / WMS ( grid-proxy-init, dg-job-submit, dg-job-status…) Dimostrata l’ inter-operativita’ LHCb-EDG/testbed 1 durante la review di EDG (marzo 2002) - sottomissione dei Job, monitor, recupero output - basic data management con GDMP Sviluppata e proposta una architettura di integrazione tra GRID e Athena/Gaudi/GANGA

LHCb : integrazione Grid architettura Internet GRID Athena\GAUDI Local user GaudiPython Remote user HTML page Job Configuration DB Bookkeeping Production GUI Java Module OS Module EDG API PythonROOT PYTHON SW BUS GAUDI client Workspaces

Alice : integrazione Grid Realizzato interfacciamento ad EDG : accessibile come un sito AliEn Punti rilevanti emersi nel lavoro attuale : Autenticazione all’ Alien Catalog per i job eseguiti sui WNs EDG Interfaccia Alien - EGD SE ( richiede API EDG SE )

Alice: integrazione AliEn-EDG EDG RB Server EDG CE EDG UI Installation JDL translation Certificates AliEn CE EDG SE Alice SE on EDG nodes Alice Data Catalogue access by EDG nodes EDG UI AliEn SE Data Catalogue WNs (Cerello, Barbera,Buncic Saiz,et al.)

Alice: integrazione AliEn-EDG sviluppi Valutazione dello stato del testbed: script per sottomettere periodicamente jobs AliRoot su tutto il testbed EDG utilizzando tutti I brokers (RB) EDG Sito Web di monitor e statistiche Interoperabilita’ AliEn/EDG: Porting di EDG UI a RH7.2 e Solaris Porting di EDG/CE e EDG/SE a RH7.2 Test del comportamento EDG/RC (per un eventuale uso in parallelo con AliEn/RC) (P.Cerello/ALICE)

4.Elementi comuni nel lavoro di gridificazione Tutti gli esperimenti hanno esigenze simili anche se non identiche: interfacciare il loro modello attuale di computing distribuito con il middleware EDG Sheduling dei jobs (sia esso “pulled” o “pushed”) Sistemi di Logging e Bookkeeping Data Management su GRID (RM,GDMP, RFIO, MSS) Gli esperimenti hanno definito assieme un certo numero di use cases comuni nell’ uso di GRID Verranno usati come riferimento per ulteriori sviluppi del middleware di GRID Verranno interfacciati in maniera specifica al Computing System dei diversi esperimenti Interoperabilita’ USA-EU

5. HEPCAL ed idee realizzative costituzione di un gruppo di utenti grid rappresentanti degli esperimenti (proposta di HEPCAL, GAG == Grid Application Group) interazione con i progetti di middleware (gia’ iniziata con iVDGL e EDG) “test cases” (indipendenti dall’esperimento) per testare l’implementazione di HEPCAL proposta da parte dei progetti di middleware di “esempi” di implementazione di HEPCAL, frammenti di codice o comandi “regression test suite” basata su HEPCAL da girare su LCG-1

HEPCAL : proseguimento Continuazione possibile di HEPCAL Prioritizzazione degli use case Quantificazione (quanti files, di che dimensioni, quanti utenti, quante richieste al secondo etc.) Collezione delle esigenze per il calcolo interattivo

Dominii Architetturali del s/w per le applicazioni LHC

Conclusioni GRID (EDG in particolare) ha dimostrato in concreto l’interoperabilita’ con il software di produzione degli esperimenti LHC I processi di integrazione con GRID sono ancora in corso, tuttavia esistono gia’ progetti complessivamente abbastanza definiti di ulteriore inclusione di GRID sia nelle produzioni che nelle analisi dati In futuro una quantita’ crescente di produzioni verra’ portata su GRID

Ringraziamenti P.Mato,E. Van Herwijnen,V.Vagnoni,F.Harris (LHCb) S.Resconi, G.Negri, L.Perini (ATLAS) F.Carminati,P.G.Cerello,P.Buncic,P.Saiz(Alice) A.Fanfani,C.Grandi,P.Capiluppi,A.Sciaba’ (CMS)