Il calcolo distribuito in ATLAS

Slides:



Advertisements
Presentazioni simili
STATO DEL PROTOTIPO DI SCoPE E DELL’INTEGRAZIONE TRA I 4 PON
Advertisements

Fisica Subnucleare – Esperimento ATLAS
E835 & Hera-B Concezio Pisa, 21/12/2004. E835 (aka Jet-FNAL) timeline dell'esperimento –Presa dati conclusa nel Alcune analisi tuttora in corso.
Run I Distribuzione inclusive di Min Bias (Mult. Carica, Pt). Correlazioni dello stato finale ( -Mult) + mini-jet (soft hard physics). Campioni utilizzati:
23/01/01Alberto Masoni – GR1 - Roma1 I MODELLI DI CENTRI REGIONALI POSIZIONE DI ALICE ITALIA CENTRO ITALIANO: CPU 450 KSI95, DISCO 400 TB (INSIEME TIER-1.
L. Perini CSN1 -Roma 23 Gen Centri Regionali per il calcolo di ATLAS in Italia Tier-1 e Tiers-N : funzioni, localizzazione, necessita di h/w, personale.
L'uso attuale di Grid negli esperimenti LHC e realizzazione di HEPCAL
ALICE-Italia: IL CALCOLO
Progetto Speciale Prototipo Tier1 F. Ruggieri INFN – CNAF I Workshop CMS Italia del SW e Computing Roma 22 Novembre 2001.
Alessandra Doria III Workshop Software e Calcolo Moderno Martina Franca Ottobre 1999 La presentazione degli istogrammi nel sistema di Monitoring.
Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
Workshop su GRID computing e calcolo avanzato Napoli, 6 maggio 2003
Proposta di integrazione e consolidamento delle risorse presenti nellinfrastruttura Grid dellItalia Meridionale (L. Merola, )
Aspetti critici rete LAN e WAN per i Tier-2
Stato del Tier2 di Atlas a Napoli Il ruolo dei Tier2 in Atlas La Federazione Italiana dei Tier2 Il Tier2 di Napoli Napoli, 21 Dicembre 2006 – A.Doria.
Proposta di integrazione e consolidamento delle risorse presenti nellinfrastruttura Grid dellItalia Meridionale (L. Merola, )
PON SCoPE Riunione PON SCoPE - 29 marzo 2007 Lesperienza dellINFN per linfrastruttura GRID nazionale ed europea nazionale ed europea Lorganizzazione del.
Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
La facility nazionale Egrid: stato dell'arte Egrid-Team Trieste, 9 ottobre 2004.
Grid Computing Sergio Andreozzi (INFN-CNAF). A chi interessano i dati prodotti da LHC? Circa 5,000 scienziati –sparsi nel mondo –appartenenti ad istituzioni/università
Grid Computing Sergio Andreozzi. Chi è interessato ad analizzare i dati generati da LHC? Circa 5,000 scienziati –distribuiti nel mondo –appartenenti ad.
Tier1 - cpu KSI2k days ATLAS KSI2k days CMS. Tier1 - storage CASTOR disk space CMS requires: T1D0, T0D1 ATLAS requires: T1D0, T0D1 and T1D1.
Gruppo Directory Services Rapporto dell'attivita' svolta - Marzo 2000.
Alessandro Italiano INFN - CNAF Grid.it 14 Febbraio 2003 Servizi Generali: RB, UI, RC Information System Alessandro Italiano Grid.it 16 febbraio 2003.
Michele Michelotto INFN-Padova
1 Riunione Testbed - 17 gennaio Agenda - stato del testbed di INFN-GRID (L. Gaido) - le risorse del CNAF (A. Italiano) - report sullo stress test.
Il Tutorial INFN-GRID/EDG di Torino Testbed INFN-GRID.
LNL M.Biasotto, Bologna, 13 dicembre Installazione automatica Massimo Biasotto – INFN LNL.
1 Il testbed di LCG Riunione Testbed – CNAF, 17 gennaio 2003 L. Gaido.
GridICE attività in corso e sviluppi futuri Gennaro Tortone Bologna, 4 marzo Technical Board INFNGRID
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
1 M. Biasotto – Legnaro, 22 Dicembre 2005 Prototipo Tier 2 di Legnaro-Padova INFN Legnaro.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
Alessia Tricomi Università & INFN Catania
* * Data Challenge 04 Stato dei centri di produzione in Italia.
Sommario: il testbed CMS/LCG0 e la configurazione della farm di Bari sviluppo software/tool di produzione per CMS e GRID. eventi in produzione per il.
C. Aiftimiei 1, S. Andreozzi 2, S. Dal Pra 1, G. Donvito 3, S. Fantinel 4, E. Fattibene 2, G. Cuscela 3, G. P. Maggi 3, G. Misurelli 2, A. Pierro 3 1 INFN-Padova.
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
Analysis unibo una proposta. Work flow di una tipica analisi 1.Simulazione di piccoli campioni di eventi per studio segnale 2.Generazione in grande.
CNAF 18/11/2004 Federica Fanzago INFN Padova a/grape... BAT... BATMAN...o? M.Corvo, F.Fanzago, N.Smirnov (INFN Padova) + tutte le persone che fanno i test.
CCR 14-15/03/2006 Status Report Gruppo Storage CCR.
Ricostruzione dei muoni: Stato e piani futuri. Roma, 13 settembre 2001 Gruppo Moore Gruppo 1 Premesse Nel panorama della ricostruzione dei muoni il package.
Workshop sulle problematiche di calcolo e reti nell’INFN Paestum,9-12 giugno 2003 Report sull’ultimo HEPiX e proposte per le prossime edizioni Roberto.
Test Storage Resource Manager per SC4 Giacinto Donvito Vincenzo Spinoso.
16 Maggio CSN1 Computing-Software-Analysis CMS-INFN TEAM Analisi in CMS: stato e prospettive del supporto italiano.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
LNF Farm E. V. 9/8/2006. Hardware CE, LCFG, HLR, 3 WN: DL 360 1U; SE: DL 380 2U 5 WN: BL 25 P In totale 25 jobs general purpuse (coda Atlas) + una coda.
Attivita' Grid in BaBar Workshop sulle Problematiche di Calcolo e Reti nell'INFN Maggio 2004.
1 LHCb Computing Angelo Carbone, INFN-CNAF CSN1, 21/9/06 Aggiornamento richieste Tier Richiesta Tier-2 al CNAF Stato e risultati DC06.
Grid nelle sezioni: Milano Luca Vaccarossa INFN – Sezione di Milano Workshop sulle Problematiche di Calcolo e Reti nell'INFN.
Calcolo esperimenti LHC 2004 F. Ferroni, P. Lubrano, A. Martin, M. Morandin, M. Sozzi.
Report HEPiX Spring meeting 2002 Workshop sulle problematiche di calcolo e reti nell'INFN 6-9 Maggio 2002 La Biodola - Isola d'Elba Silvia Arezzini.
CMS 1 M. Biasotto – Bologna 20/01/2005 Infrastruttura di calcolo per CMS-Italia M.Biasotto – INFN Legnaro e i gestori dei centri CMS Italia.
La Farm di Alice a Torino Workshop sulle problematiche di calcolo e reti Isola d’Elba 6-9 maggio 2002 Mario Sitta (Università del Piemonte Orientale e.
I testbed ed il loro uso 1 I testbed ed il loro uso L. Gaido, A.Ghiselli CSN1, Perugia novembre 2002.
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015.
D. Martello Dip. Fisica - Lecce Sintesi piani esperimenti CSN2 CNAF 7-marzo-2007.
Atlas Italia - Milano, 17/11/2009 G. Carlino – News dal Computing 1 1 News dal computing Gianpaolo Carlino INFN Napoli Atlas Italia, Milano, 17/11/09 Nuovo.
FESR Trinacria Grid Virtual Laboratory PROGETTO “MAMMO” Sviluppo e ottimizzazione di algoritmi adattativi, specificatamente di Artificial.
Overview del middleware gLite Guido Cuscela INFN-Bari II Corso di formazione INFN su aspetti pratici dell'integrazione.
1 ALICE I ITER2 DI ALICE IN ITALIA Bologna, 6 marzo 2007 M. Masera
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
1 Le macchine di questo pool fanno parte di una lan privata (la 125 illustrata a pag.2), di cui t2cmcondor è il gateway. Sono presenti 3 macchine su rete.
L.Perini Milano: 10 Gennaio Ex-ATLAS-Grid (Tier2 incluso) l Ruolo dei Tiers in ATLAS e grid l Le persone di Milano e le attività l Le infrastrutture.
Offline Report Finale Grid! I Corso di formazione INFN su aspetti pratici dell'integrazione di applicazioni in GRID Domenico D’Urso Roberto.
Attività Gruppo Virtualizzazione Andrea Chierici CNAF Riunione CCR
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Transcript della presentazione:

Il calcolo distribuito in ATLAS Alessandra Doria INFN Sezione di Napoli Workshop CCR2003 Paestum 12 Giugno 2003

Argomenti Modello di calcolo a Tier Il sw offline di ATLAS ATLAS Data Challenges Progetti GRID coinvolti nei DC di ATLAS Grid Tools utilizzati Piani per i futuri sviluppi

Il modello di calcolo a Tier Il modello generale di calcolo per l’offline e l’analisi di ATLAS è quello gerarchico multi-tier adottato dagli esperimenti LHC. Il Tier0 risiede al CERN, dove i dati vengono prodotti. Tier1 e Tier2 hanno carattere rispettivamente Regionale e Nazionale (dove per Regione si intende una comunità transnazionale) mentre i Tier3 sono locali, a livello di dipartimento o di istituto.

Il modello di calcolo a Tier Distinzione tra Tier di livello diverso: nei servizi offerti all’utenza Nella visibilità dall’esterno nel tipo di dati da mantenere localmente. Si stima che per l’analisi, nel 2007-2008, le risorse al CERN dovranno soddisfare: CPU 0.4 MSpInt95 Tape 6.7 PB Disk 0.5 PB Le risorse aggregate di tutti i Tier1 (in ATLAS tra 5 e 10) dovranno essere comparabili a quelle CERN. Un Tier2 avrà risorse tra il 5% e il 25% del Tier1.

CERN Tier 0/1 CNAF RAL Lyon Tipo di dati da produrre e conservare: RAW DATA: 2 MB/evento MC RAW DATA: 2 MB/evento ESD, Event Summary Data, output ricostruzione: 500 KB/evento AOD, Analysis Object Data, formato "pubblico" di analisi: 10 KB/evento (MC simulation, Physics Analysis) DPD, Derived Physics Data, formato “privato” di analisi: 1 KB/evento (Physics Analysis) CERN Tier 0/1 CNAF RAL Lyon Tier 1 Regional Centers RM1 NA Tier2 Regional/National Centers MI   Tier3 Departments  Desktop PHYSICS ANALYSIS

Il sw offline di ATLAS Tipi diversi di tasks: Simulazione MonteCarlo: CPU intensive Pile-up(sovrapposizione fondo): data intensive Ricostruzione: data intensive, multiple passes Analisi: interattivo, accesso ai dati e carico di lavoro poco prevedibili. Atlsim, Dice: applicazioni Fortran/Geant3 Athena/Gaudi (in collaborazione con Lhcb) : framework OO che fornisce una infrastruttura comune per applicazioni di simulazione, ricostruzione, analisi Atlas ha scelto di sviluppare e mantenere il sw di esperimento indipendente da GRID Diversi tools fanno da interfaccia verso la griglia

Scopo dei Data Challenges Test della catena di sw specifico dell’esperimento. Produzione di un campione di 107 eventi simulati per studi di High Level Trigger. Integrazione progressiva del sw di esperimento con il middleware di Grid. Validazione generale del modello di calcolo adottato.

Fasi dei DC DC0 - primi mesi 2002 - al CERN. Test della catena di sw (non OO), produzione di piccoli campioni di eventi. DC1 - Apr 2002-Maggio 2003 - lavoro distribuito . Simulazioni ancora Fortran/Geant3, sovrapposizione pileup, ricostruzione in Athena. DC2 - Luglio 2003-Luglio 2004 - Validazione dell’ Event data model e di Geant4, POOL, Simulazioni in Athena, ricostruzione completa, uso di LCG-1 as much as possible. Richiesta 2-3 volte la CPU utilizzata nel DC1.

Risorse utilizzate nel DC1 Simulazione: 39 istituti in 18 paesi, con 3200 CPU (110 KSpecInt95) 107 eventi completi e 3*107 particelle singole , 30 TB output, 71000 CPU days (PIII, 500MHz) Pileup: 56 istituti in 21 paesi 3*106 eventi, 25 TB , 10000 CPU days Ricostruzione: solo nei centri con ~100 CPU ricostruiti 106 eventi.

Il DC1 in Italia Alle simulazioni hanno preso parte il CNAF (40 CPU) e le sezioni di Roma1(46), Milano (20), Napoli (16) e Frascati(10) (+ contributi di Genova e Pisa) . Il contributo italiano è circa il 5% del totale. Tutti i dati simulati e con pileup sono raccolti al Tier1 al CNAF, 2*106 eventi completi, 5 TB Per la ricostruzione al CNAF sono state usate 70 CPU.

Data Challange e progetti GRID Le produzioni del DC1 sono state fatte in parte con metodi “tradizionali” (sottomissione tramite script con sistema batch PBS) ATLAS ha già usato diverse Grid nella produzione, sia per la fase di simulazione che di ricostruzione : NorduGrid US Grid EDG Atlas intende utilizzare LCG-1 il pù possibile, appena sarà disponibile, senza tuttavia abbandonare subito l’uso delle altre Grid.

Nordugrid Progetto di 9 università e istituti dei paesi del Nord Europa 4 cluster di test dedicati (3-4 CPU) alcuni cluster universitari (20-60 CPU) 2 grandi cluster in Svezia (200-300 CPU) Tutti i servizi sono presi da Globus o scritti usando librerie e API di Globus Topologia mesh (a maglia), senza Resource Broker centralizzato, ogni sito ha un gatekeeper I tools ed il middleware si sono dimostrati molto affidabili, per il DC1 non sono state usate risorse esterne a Nordugrid.

US ATLAS grid testbed Topologia mesh 8 di siti US nel grid testbed. I principali sono: BNL - U.S. Tier 1, 2000 nodes, 5% ATLAS (100), 10 TB LBNL - PDSF cluster, 400 nodes, 5% ATLAS (20) , 1 TB Boston U. - prototype Tier 2, 64 nodes Indiana U. - prototype Tier 2, 32 nodes Topologia mesh Parte del DC1 eseguito a Brookhaven in modo tradizionale Incontrati molti failure nelle produzioni con Grid (tuttavia 80% efficienza) Utilizzati in produzione GRAT, GRAPPA, Chimera…

Data Challenge in EDG In Aprile già fatti dei test con CNAF, RAL, Lione, in EDG 1.4.8 con la vecchia versione del SW di ATLAS su RH 6.2. In questo momento sta terminando la ricostruzione in EDG di campioni a bassa priorità per il DC1/EDG. Non più test, ma vere produzioni (resp. Guido Negri, CNAF). Utilizzata la nuova versione sw 6.0.3 che richiede RH 7.3 sui WN. Siti coinvolti: CNAF, MI, Roma1,Cambridge, Lyon (Resource Broker del CNAF) Informazioni in https://classis01.roma1.infn.it/grid/

SE SE SE CE CE CE jdl job query RB RC UI file / RFIO file / RFIO

SE SE SE CE CE CE RB RC UI ntuples Output Sandbox file / RFIO

DC1 in EDG Creati i profili LCFGng per installare WN con RH7.3 Copiati input files (125000 eventi, 250 input files) da Castor al CERN (senza grid tools, scp-ftp) agli SE dei siti. Registrati input files nel Replica Catalogue Creati script di sottomissione dei job (site independent). Qualche problema dall’ Information System (MDS) Tutto dovrebbe essere terminato per questa settimana.

DC1 Bookkeeping: AMI Atlas Metadata Interface In termini di grid  application meta data base Registra le informazioni che descrivono i contenuti logici dei data files. Query su criteri fisici. Implementato in java e basato su database relazionale. C++ APIs per Athena, GUI, Web interface L’interfaccia web è collegata a Magda per ottenere la locazione effettiva dei dati a partire dai logical file names. Per DC1 sono stati registrati 60000 files (500 dataset) Attualmente 31 MB, previsto 1.2 GB nei prossimi 3 anni AMI non gestisce locazioni fisiche e repliche

DC1 Bookkeeping: MAGDA Manager for Grid-based Data Storage di dati su siti distribuiti e replicazione verso host su cui girano le applicazioni. Risolve un logical file name in una istanza fisica del file Replicazione possibile tra tipi diversi di data stores (es. disco-disco, Castor-disco, Castor-HPSS …) Core del sistema DB MySql + infrastruttura di gestione perl, trasferimento files gridftp, bbftp, scp Processi spider tengono aggiornato il catalogo. Interfaccia web, command line, C++ e Java APIs Atlas Magda server per DC1 a BNL, registrati 45000 files, 35 TB + repliche. In termini grid replica catalogue e trasferimento files grid based

Ganga Gaudi/Athena and Grid Alliance GUI o script: l’utente interagisce solo con GANGA, a tutti i livelli dell’analisi (sottomissione, monitoring, risultati) Funzionalità già implementate con EDG 1.4 Dovrebbe collaborare con LCG per la Physicist Interface Athena/GAUDI GANGA GUI JobOptions Algorithms Collective & Resource Grid Services Histograms Monitoring Results Progetto Atlas/LHCb Interfaccia a LSF, non ancora PBS

CHIMERA Catalogo virtuale per dati derivati (non raw), associati alle procedure di derivazione. VDL “Linguaggio virtuale dei dati” per descrivere la “ricetta” per produrre un dataset (provenienza, parametri di produzione, geometrie…) Accoppiato ai servizi GRID permette di ritrovare dati già prodotti o di effettuarne la produzione in base alle “ricetta”. Interfaccia verso Condor. Può generare DAG.

Distribuzione del sw Il sw di ATLAS è accessibile sotto AFS al CERN. Per il DC1 è stato realizzato un kit di RPM per installare la distribuzione completa nei siti remoti (sia manualmente che con LCFG). EDG si basa su LCFGng per la configurazione dei nodi di calcolo, compreso sw di esperimento. US ATLAS grid utilizza PACMAN per la distribuzione del sw.

Prossimi sviluppi del calcolo di ATLAS Grid ATLAS ha incoraggiato lo sviluppo ed il test tools diversi, in ambienti Grid diversi. Il sistema generale di produzione è stato mantenuto più semplice possibile. si sono evitate dipendenze di Athena da particolari middleware si è evitato di “rincorrere” mw in rapida evoluzione con compicate interfaccie La pianificazione finale del sistema di produzione ed analisi sarà fatta nel framework di LCG Poco interesse per soluzioni ad interim Tutti gli sforzi devono andare verso EDG V2

Piani per il DC2 Luglio 2003-Luglio 2004 (simulazione distribuita da Aprile 2004) Stessa quantità di eventi (107) del DC1, maggiore utilizzo di CPU (Geant4) Sedi coinvolte per la produzione CNAF, Milano, Roma, Napoli, per l’analisi tutte. Non si prevedono massicci trasferimenti di dati, non sono necessari incrementi di rete.