1 Attività della Sezione INFN Napoli per il Calcolo distribuito e Grid L. Merola – 02/11/ :Connettività in rete LAN Ethernet e rete WAN INFNET : Costituzione del polo GARR di Napoli : Realizzazione del primo sito WEB ufficiale dell’Italia meridionale :Messa in opera del Nodo dell’infrastruttura INFN-GRID. Un pò di storia …
: Centro di produzioni MC esp. L3 (Farm Apollo, HP) Feb.1997 : Primo workshop INFN su Software e Calcolo moderno > : Condor Pool, AFS > : INFN-GRID > :UE (V PQ): Data Grid, DataTag UE (VI PQ): EGEE1-2 LCG – Tier2 esp.ATLAS > MIUR Firb “Grid.it” (CNR, INFN et al.) apr > Prog. Locale “Campus Grid” (Enti di ricerca + Unina) ott > PON Campus Grid (INFN) ott > PON S.CO.PE (UNINA) Attività e progetti :
3 WP4: Fabric Linux Farms, Mosix, etc. (A.Doria, R. Esposito) WP6: Testbed (F. Taurino) Network Management and Monitoring WP7: Network Management and Monitoring e.g. Grid-ftp, etc. (P. Lo Re, P. Mastroserio, G. Tortone) WP8: HEP Applications e.g. ATLAS, CMS, VIRGO, PAMELA, ecc. (L. Merola et al.) WP4: Network Management and Monitoring (G. Tortone) e.g. Nagios package, ecc.(G. Tortone) FirbGrid.it WP3,5: Grid deployment and operation for the scientific community e.g. HEP Applications (L. Merola), Information service, monitoring, ecc. (P. Mastroserio; N. De Bortoli, R. Esposito, F. Taurino, G. Tortone) Alcuni contributi specifici di Napoli LCG: Atlas Tier2 VO production and support (L. Merola, G.P. Carlino, A. Doria, G. Tortone, F. Taurino) SA1: Infrastructure operation and support e.g. Production, monitoring, ecc. (N. De Bortoli, G. Tortone) LCG
4 L'INFN, con un suo progetto partito nel 1997, ha provato la funzionalità del sistema CONDOR (1985, Un. Wisconsin) su rete geografica. Non basato su standards riconosciuti a livello internazionale. GARR-B 155 Mbps ATM based Network access points (PoP) main transport nodes Default CKPT Cnaf CKPT domain # hosts Oltre 300 macchine INFNCONDORPool TORINO PADOVA BARI PALERMO FIRENZE PAVIA MILANO GENOVA NAPOLI CAGLIARI TRIESTE ROMA PISA L’AQUILA CATANIA BOLOGNA UDINE TRENTO PERUGIA LNF LNGS SASSARI LECCE LNS LNL USA 155Mbps T3 SALERNO COSENZA S.Piero FERRARA PARMA CNAF Central Manager ROMA INFNCONDORPool Il progetto pilota CONDOR pool
5 LECCE ASI Applications of Earth Observation PISA NAPOLI COSENZA PERUGIA PADOVA GENOVA MILANO PALERMO ROMA TORINO MATERA BARI BOLOGNA CAGLIARI CNIT Technologies for high-performance communication, Optical technologies, … L’AQUILA INFN, University Grid (INFN-Grid, DataGrid, DataTag), e-science applications, … VENEZIA CNR, University HPC, Grid, Platforms, Programming environments, Knowledge Discovery in Data Bases, Tools, Libraries, Applications, … Ma settori scientifici hanno aderito grazie anche a fondi specifici MIUR (e.g. progetto SPACI: UniNA, UniLE, UniCS) Il progetto MIUR Firb Grid.it PIATTAFORME ABILITANTI PER GRIGLIE COMPUTAZIONALI A ELEVATE PRESTAZIONI ORIENTATE A ORGANIZZAZIONI VIRTUALI SCALABILI.
6 Mappa dei siti italiani Grid.it e INFNGrid (in continuo aggiornamento)
7 STRUTTURA DI CALCOLO AVANZATO PER LA RICERCA E L’INNOVAZIONE TECNOLOGICA BASATA SU GRIGLIE COMPUTAZIONALI Campus Grid - Finalità e Partners - DSF – Dipartimento di Scienze Fisiche INFN-Napoli – Istituto Nazionale di Fisica Nucleare INFM-Napoli – Istituto Nazionale di Fisica della Materia DICHI – Dipartimento di Chimica INSTM-Napoli – Consorzio Interuniversitario Nazionale per la Scienza e Tecnologia dei Materiali DMA – Dipartimento di Matematica e Applicazioni CNR-SPACI – Consiglio Nazionale delle Ricerche Coordinamento scientifico: Dip. Scienze Fisiche Coordinamento tecnico-tecnologico: Sezione INFN
8 DSF: Locale 1G01 (sede infrastruttura principale del Campus Grid) DSF : Locale 1M16 DMA Campus Grid - Locali e LAN, WAN - DiChi DSF C.S.I. GARR Collegamento con CSI ok Collegamenti in fibra fra DSF, Chim. e Mat. in corso.
9 INFN-GRID (e FIRB) –13 biprocessori Xeon 2,4 GHz, RAM 1 GB (12 WN e 1 CE) –6 biprocessori Xeon 2,8 GHz, RAM 2 GB TIER-2 ATLAS Prototipo TIER-2 ATLAS –7 biprocessori Xeon 2,8 GHz, RAM 2 GB (6 WN e 1 CE) -2 TB disco in comune (1 SE) Software Esperimento ATLAS (LHC-CERN) in produzione Studio e simulazione degli algoritmi del trigger muonico di I livello e analisi delle relative prestazioni Ricostruzione di tracce di muoni Test prestazioni software del Data Challenge Campus Grid - INFN-GRID e Tier-2 ATLAS -
10 INFN-GRID.ITINTEL19 bi-proc2.81 TBRH7.3 SciLinux PBS GT2 LCG INFN-ATLASINTEL7 bi-proc + 16 in arrivo 2.82 TB INFN-AstroParticleINTEL8 bi-proc2.8 INFN-BABAR-CMSINTEL1 bi-proc + 9 in arrivo 2.8 ASTROAMD9 bi-proc TBGentoo SciLinux PBS AMRAAMD99 bi-proc TBSlackware SciLinux PBS DSF-INFMAlphaEV716 bi-proc1,2140 GBTrue-64 LSF DiChi-BioteknetAlphaEV6810 quad-proc1,41 TBTrue-64 LSF DiChi-LSDMAlphaDS204 bi-proc INSTMOpteron12 bi-proc2,4 CNR-SPACIItanium268 bi-proc1,51.2 TBLinux-HP LSF ProgettoProc.N. proc.GHzStorageS.O. s/w m/w grid Campus Grid - Hardware installato luglio Localizzato tutto a Fisica tranne hw DiChi e INSTM
11 (303 kEuro = 260 MIUR + 43 Sezione INFN) Realizzazione di un Campus Grid per la ricerca scientifica fisica, chimica e matematica nel Complesso Universitario di Monte Sant’Angelo in Napoli 1.Progettazione, direzione e collaudo lavori 2.Lavori di edilizia, impianti elettrici e impianti di condizionamento 3.Infrastruttura di rete (dorsale di Campus e collegamento al Garr) 4.Realizzazione “Sala dell’infrastruttura principale del Campus GRID” 5.Nodi bi-processori per i servizi di Grid e sistema di back-up FaseDescrizione Approfondimento del progetto 2Procedure di appalto 3Installazione hardware 4Installazione software 5Test di funzionamento struttura 6 Presentazione e formazione del Campus Grid 7Messa in esercizio e produzione Progetto PON INFN “Campus Grid” (Resp. L. Merola)
12 Progetto PON Univ. Napoli “Sistema Cooperativo Distribuito ad alte Prestazioni per Elaborazioni Scientifiche Multidisciplinari (S.CO.P.E.)” € (6,75 MIUR, 2,25 Univ. Napoli) Attrezzature 3.6 ME, Assegni e contratti biennali 1.6 ME Obiettivo finale del progetto è la realizzazione di un Sistema di Calcolo ad Alte Prestazioni, orientato ad applicazioni scientifiche multidisciplinari, che operi anche secondo il paradigma GRID, dedicato alla modellistica computazionale ed alla gestione di grosse banche dati, per ricerche nelle aree applicative (workpackages) di interesse del progetto, ovvero: Scienze del Microcosmo e del Macrocosmo, Scienze della Vita, Scienze dei Materiali e dell’Ambiente. + workpackage tecnologico: Middleware
13 Prof MARRUCCI GiuseppeResponsabile Scientifico Progetto Prof MEROLA LeonardoResp. Area Scienze del Microcosmo e del Macrocosmo Prof SALVATORE FrancescoResp. Area Scienze della Vita Prof FRANCESCHETTI GiorgioResp. Area Scienze dei Materiali e dell’Ambiente Prof MURLI AlmericoResp. Area Middleware Prof VENTRE GiorgioResp. Area Middleware Comitato Direttivo Prof RUSSO GuidoResponsabile Tecnico Progetto Prof. MAZZOCCA NicolaResponsabile Operativo Progetto Nota: SottoArea Microcosmo (resp. L. Merola) Esp. ATLAS all’LHC (resp. L. Merola) SottoArea Macrocosmo (resp. G. Longo) VLT Survey Telescope - Onde gravitazionali (resp. G. Longo)
14 Sala infrastruttura Principale Campus Grid Sala Tier-2 ATLAS Campus Grid FIS CHIM MAT
15 32/64 70/200
16 RAW DATA – Size: 1.6 MB – Dati in uscita dall’Event Filter (terzo livello di trigger) in fomato “byte-stream” (come sono forniti dai rivelatori). Output rate: 200 Hz. Archiviati nel Tier0 e nei Tier1 ESD DATA – Size: 400 kB – Dati prodotti dalla ricostruzione in formato OO. Tutte le versioni sono replicate e risiedono in almeno 2 Tier1 e, in campioni, nei Tier2. AOD DATA – Size: 100 kB – Rappresentazione ridotta degli ESD per l’analisi. Replicati in ogni Tier1 e in frazioni, in base agli stream inclusivi ed esclusivi, nei Tier2 TAG DATA – Size: 1 kB – Formato dei dati con informazione esclusiva della lista di eventi appartenenti ad un particolare stream per una veloce selezione. Archiviati in database relazionali. Replicati in tutti i Tier1 e Tier2 DPD DATA – Formato ntuple-like per l’analisi dei dati batch e interattiva. Repliche nei Tier1, 2 e 3 SIM DATA – Eventi Simulati a vari livelli: generatore, hit, digi Parametri vari: Tempo per la ricostruzione: 15 kSI2k-sec per evento CPU richiesta per la ricostruzione: 3000 kSI2k ( 15 kSI2k-sec/evento per 200 eventi/sec) Tempo per la simulazione: 100 kSI2k-sec per evento Tempo per l’analisi: 0.5 kSI2k-sec per evento Link di input all’EF: (10 x) 10 GB/s Link di output dall’EF (al Tier0): 320 MB/s Tempi di processamento dei dati (dall’on-line (EF) all’off-off-line (Tier0)): 50% in 8 ore e 90% in 24 ore Eventi raccolti al giorno: 10 7 Eventi per anno (dal 2008): 2 10 9 Eventi per anno, Size: O (10 PB) ATLAS Computing Model – Struttura Dati
17 Necessità di calcolo (HW) e Costi fino al 2010 (totale dei 4 Tier-2 di ATLAS) Tier2 INFN Tot. K€ CPU (kSI2K) (new) 200 (tot) K€ Dischi (TB) (new) 50 (tot) K€ Tot. K€
CPU kSI2k/box CPU €/kSI2k Disk TB/disk Disk €/GB , Profilo Capacità e Costi di CPU e Storage fin al 2010
19 NOTA: La potenza elettrica è calcolata stimando un consumo costante di 0.5 kW per box e di 1.5 kW per server di disco (unità 5U con 24 dischi). Nel 2010 si prevede di ospitare circa 4-5 rack per le CPU e 4-5 rack per i dischi CPU (tot) kSI2k Box CPU (new) kSI2k Box Dischi (tot) TB Server Dischi (new) TB Server Potenza (kW) Profilo acquisizione HW calcolo e potenza elettrica (solo Tier-2 ATLAS Napoli)
20 Progetto INFN di Centro Tier-2 ATLAS Napoli Gruppo di lavoro: ATLASSCRSTG G.P. Carlino, L. Merola (ATLAS), A. Doria, P. Lo Re, P. Mastroserio (SCR), G. Passeggio (STG) 1.Sede: Ex deposito SCR – 40 mq -, espandibile in locali adiacenti SCR. 2.Funzionalità: - Calibrazioni RPC, Calibrazioni Trigger muonico, Studi di performance su identificazione e ricostruzione dei muoni, Analisi dati, Ricerca Supersimmetria, Simulazioni connesse a quanto sopra. - Storage di 1/3 AOD, tutti i TAG, i DPD, campioni di RAW e ESD. Centro di riferimento per i Tier-3 del Centro-Sud. - 8 h/day, 5 gg./settimana attended (Fisici di Atlas + SCR), il resto unattended. 3.Infrastruttura di rete: WAN: GARR 1 Gbps nel 2007 (ora 64 Mbps). LAN: Campus Grid in fibra ottica 10 Gbps nel 2007 (ora 1 Gbps). 4.Impianti 4.Impianti (si tratta di potenziamento/modifiche di impianti già esistenti): Potenza elettrica: 120 kW nel UPS + Gruppo elettrogeno. Sistema di raffreddamento: 40 kW per i gruppi frigoriferi nel Sistema antincendio, incluso sistema di allarme.
21 5.Risorse umane: - Responsabilità tecniche generali: P. Mastroserio (I Tecnol. INFN - SCR), G. Passeggio (CTER INFN - STG). - Responsabilità connettività in rete: P. Lo Re (I Tecnol. INFN - SCR). - Responsabilità gestionale e di coordinamento Tier-2: G.P. Carlino (Ric. INFN - resp. calcolo e analisi gruppo Atlas). - Responsabilità operative Tier-2: A. Doria (Tecnol. INFN -Atlas e SCR), 1 FTE - Personale tecnico: 1.5 FTE (supporto del SCR staff: G.Tortone (CTER INFN – SCR), F.M.Taurino (CTER INFM), R.Esposito (CTER INFN – SCR), CTER INFN (ex M. D’Amico, concorso in stand-by) - Contratti t.d.: N. De Bortoli (a.2222 Firb), O. Laurino (CoCoCo DSF), E.Cacopardo (borsa INFN)) 6.Personale in formazione: - 2 assegni ricerca e 1 contratto tecnico biennali (da deliberare su PON S.CO.PE) - Laureandi in Informatica (2 nell’ultimo anno + 2 in corso) - Dottorandi in Scienze Computazionali (2 in corso) 7. Help Desk: Gara in corso di espletamento: ca. 4 h/day
22 8. Milestones: -09/2006: completamento locali e impianti (elettrico, condizionamento, antincendio). (entro fine 2005 la maggior parte degli ordini). -11/ /2006: installazione dei rack e di WN, DS 2006 previsti in Tabella -12/ /2006: verifica di operatività: produzioni MC e accesso ai dati da parte delle Sezioni afferenti -01/ /2007: avvio delle procedure di gara per l’acquisizione dell’HW /2007: installazione dell’HW /2007: Tier-2 operativo per il Pilot Run -01/2008: avvio delle procedure di gara per l’acquisizione dell’HW /2008: installazione dell’HW 2008 e piena operatività del Tier-2
23 9. Piano finanziario ( ) e sorgenti di finanziamento: 1.HW calcolo (CPU, dischi): ca 1 MEuro INFN (per Tier-2 Atlas), PON SCOPE UNINA (per VO Campus Grid e Ateneo Fed II). 2. Infrastruttura rete WAN: INFN - Commissione Calcolo Nazionale. 3.Infrastruttura rete locale e servizi Grid: 120 kEuro PON INFN Campus Grid. 4. Impianti elettrici (inclusi potenziamento cabina, UPS,gruppo elettrogeno): 150 kEuro PON INFN Campus Grid (90), Sezione INFN (60 nel ). 5. Impianto di condizionamento: 50 kEuro Enti Campus Grid, Dip. Scienze Fisiche. 6.Impianto antincendio e sistema di allarme: 15 kEuro : PON INFN Campus Grid, Dip. Scienze Fisiche.