PON SCoPE Riunione PON SCoPE - 29 marzo 2007 Lesperienza dellINFN per linfrastruttura GRID nazionale ed europea nazionale ed europea Lorganizzazione del progetto in work packages Il prototipo presso il Dipartimento di Scienze Fisiche Il prototipo presso il Dipartimento di Scienze Fisiche L. Merola
Lesperienza dellINFN per linfrastruttura GRID nazionale ed europea nazionale ed europea Lorganizzazione del progetto in work packages Il prototipo presso il Dipartimento di Scienze Fisiche Il prototipo presso il Dipartimento di Scienze Fisiche
Progetti nazionali: INFN-GRID - INFN-GRID [dal 2000] Grid.IT - Grid.IT, finanziato dal MIUR/FIRB [ ] - BioinfoGrid, LIBI, LITBIO, Cyclops Progetti europei: - DataGrid (EDG) [V PQ UE [ ] - DataTAG [V PQ UE ] LCG - LHC Computing Grid (LCG), progetto CERN [dal 2002] EGEE - EGEE [VI PQ UE ] EGEE-II - EGEE-II [VI PQ UE ] - EELA, EUChinaGrid, EuIndiaGrid, EUMedGrid, OMII, ETICS, CoreGRID, GRIDCC [VI PQ UE] EGEE-III VII PQ UE (EGEE-III, NMR, OGF, …) Da testbed a infrastruttura Grid di produzione verso la costituzione di Italian Grid Infrastructure Association e di una European Grid Initiative.
LCG INFN Comm. Scient. Naz. I progetti INFN sulle Grid sono gestiti da un INFN Executive Board (presieduto da M. Mazzucato; L.M. ne è componente)
EGEE 40 nazioni 200 siti > 100 VO 37 k CPU 7 PB storage
INFN PON FIRB
Middleware INFNGRID Servizi core (presenti in ciascun sito) Repository pacchetti del middleware (YAIM - INFNGRID Scientific Linux CERN 3.x - Istallazione e aggiornamenti automatici via PXE – Framework Globus 2.x) Servizi di computing (Computing Element gestione dei Worker Node – Servizi Globus: globus- gatekeeper, globus-gridftp, GRIS – Batch system: PBS, Torque, LSF) Servizi di storage (Storage Element gestione dello storage – Servizi Globus: globus-gridftp, GRIS) User Interface (sottomissione di job, visualizzazione stato di un job, cancellazione di un job, recupero dell'output di un job, via remota SSH o web GENIUS) Piena compatibilità con il m/w EGEE (gLite/LCG) con release e aggiornamenti frequenti e controllati centralmente.
Servizi collective (gestiti centralmente) Servizi di autenticazione/autorizzazione (VOMS - Virtual Organization Membership Service) Servizi di allocazione dei job (Resource Broker – allocazione job via matchmaking con le risorse) Servizi informativi (GRIS Grid Resource Information Service Information Index Cataloghi di file / repliche (LFC LCG File Catalog localizzazione dei dati, copia dei dati, gestione e replica dei dati, gestione dei meta-dati, MySQL) User interface
Servizi aggiuntivi di supporto e gestione dellinfrastruttura Certification Authority (Certificati personali e server di una Registration Authority locale) Servizi di Monitoring (GridIce monitoring delle risorse, SAM Service Availability Monitoring monitoring dei servizi) Servizi di Accounting (DGAS - Distributed Grid Accounting: le informazioni sono raccolte in un database Home Location Register) Servizi di Ticketing per la risoluzione di problemi (Gestione dei trouble ticket)
SE WN CE YAIM UI GRID UI DGAS TS SAM MS LFC II VOMS RB Grid Service Center Grid Site
No jobs Running/Waiting jobs
Il laboratorio GILDA Il portale GENIUS DISSEMINATION
Esempio di applicazione Scienze del Microcosmo – Fisica delle Alte Energie Hierarchical model Data Server CPU Server desktop CPU Server desktop CERN Tier 0 CPU Server Tier 2 (Regional Centers) Tier-2 Esp.Atlas: RM1, NA Tier 3-4 (Dip. e Institute) Tier 1 (Regional naz. and internaz. Center) Esperimento ATLAS
Tier-0 (CERN) Tier-0 (CERN) Archivio dei RAW data ricevuti dallEF e distribuzione ai Tier1 Prompt Reconstruction Distribuzione output ricostruzione (ESD,AOD,TAG) ai Tier-1 Il modello generale di calcolo per loffline e lanalisi dati di un esperimento di Fisica delle Alte Energie (es. Esp.ATLAS, CMS, ALICE, LHC-b) è quello gerarchico multi-Tier. Tier-1 (10) Tier-1 (10) Accesso a lungo termine e archivio di un subset di RAW data Copia dei RAW data di un altro Tier-1 Reprocessing della ricostruzione dei propri RAW data con parametri di calibrazioni e allineamenti finali e distribuzione AOD ai Tier-2 Archivio dati simulati MC prodotti nei Tier-2 Tier-2 Tier-2 Simulazione Monte Carlo Analisi dei dati ~50 Mb/s ~3-4/T1 Event Builder Event Filter Tier3 10 GB/s 320 MB/s ~ 150 MB/s ~10 ~PB/s Tier2 Tier0 Tier1
Esempio di uso del Tier-2 di Napoli in termini di CPU time e Wall Time ATLAS Altre VO
Lesperienza dellINFN per linfrastruttura GRID nazionale ed europea nazionale ed europea Lorganizzazione del progetto in work packages Il prototipo presso il Dipartimento di Scienze Fisiche Il prototipo presso il Dipartimento di Scienze Fisiche
Resp. Scientifico G. MARRUCCI Resp. Amministr. E. CESARO Comitato Direttivo G. MARRUCCI V. BARONE G. FRANCESCHETTI N. MAZZOCCA L. MEROLA A. MURLI G. RUSSO F. SALVATORE G. VENTRE MiddlewareA&B (30 prof. + ric.) Scienze del Microcosmo e del Macrocosmo (19 prof. + ric.) Scienze dei Materiali e dellAmbiente (37 prof. + ric.)Scienze della Vita (42 prof. + ric.) Aree scientifiche WP1 PROGETTAZIONE, REALIZZAZIONE E TEST DELL'INFRASTRUTTURA DI CALCOLO E GRID ( 1 contr. ) Work Packages WP2IMPLEMENTAZIONE DEL MIDDLEWARE DI BASE DELLA PIATTAFORMA GRID ( 3 contr. ) WP3 REALIZZAZIONE E GESTIONE DELLA VO E DELLE RISORSE E SUPPORTO AGLI UTENTI ( 2 contr. ) WP4 PROGETTAZIONE E SVILUPPO DI MIDDLEWARE APPLICATIVO E SVILUPPO DELLE APPLICAZIONI SCIENTIFICHE ( 34 contr. ) WP5 INTEGRAZIONE DELLA GRID SCOPE NELL'INFRASTRUTTURA NAZIONALE ED INTERNAZIONALE ( 1 contr. ) WP6 DIFFUSIONE DEI RISULTATI E TRAINING AGLI UTENTI ( 0 contr. )
Argomenti di ricerca
Lesperienza dellINFN per linfrastruttura GRID nazionale ed europea nazionale ed europea Lorganizzazione del progetto in work packages Il prototipo presso il Dipartimento di Scienze Fisiche Il prototipo presso il Dipartimento di Scienze Fisiche
Liv.1 ed G Centro Centro PON S.CO.P.E. Dipartimento di Scienze Fisiche INFN Edificio G Cabina elettrica G.E. 1 MW Tier2–ATLAS Prototipo SCoPE CAMPUS GRID MSA DMA DiChi DSF INFN C.S.I. GARR Fibra ottica PON PONS.CO.P.E.
14 marzo marzo 2007
Risorse di calcolo e di storage previste nel PON Da integrare nellinfrastruttura grid nazionale ed internazionale (Grid.It, INFN-Grid, EGEE) Scientific Linux 3.x, 4.x LCG/EGEE m/w
Sala infrastruttura Principale Campus Grid Sala Tier-2 ATLAS Prototipo SCoPE
Tier-2 ATLAS e Prototipo SCoPE PC1 Monitoraggio ambientale (T, HV, UPS) PC3 HW Monitoring (Operating Systems) PC2 SW Monitoring (servers, storage) PC4 GRID Monitoring (infrastruttura, servizi) Backup system UPS INFN 60 kVA LOCALE TIER-2 ATLAS CHILLER Locali o spazi esterni SIST. ANTINCENDIO PRESENTER 42 Campus Grid Network 1 Gb/s 8 biproc. dual core Unità di raffreddamento switch Rack UNIV. FED II SE + 9 TB Servers servizi GRUPPO ELETTRO GENO UniNA Locali PON SCoPE 7 biproc. dual core Rack-2 TIER-2 ATLAS switch Unità di raffreddamento 17 biproc. UPS INFN 400 kVA SE + 25 TB Rack-1 TIER-2 ATLAS switch Unità di raffreddamento CISCO Gb/s
Unità di raffreddamento A T L A S SCOPESCOPE Servers per servizi Computing element Storage element Worker Nodes PC monitoring
Le Connessioni di Rete LAN INFN 1 Gbps 2 x1Gbps 100/200 Mbps 10 Gbps 1 Gbps 10 Gbps 1 Gbps N x1 Gbps 2.5 Gbps Campus Grid GARR MAN UNINA Siti Campus Grid Tier 2 Pon UniNA
CPU1 YAIM Repository pacchetti e profili di GRID CPU2-CPU2 VOMS CPU3-CPU3 RB - II CPU4 LFC CPU5 CE CPU6 WN CPU7 SE CPU8 UI CPU9 GridICE CPU10 SAM CPU11 GENIUS CPU12 Ticketing PON SCoPE INFRASTRUTTURA e SERVIZI GRID Registration Authority Federico II COLLECTIVECORE Man power allo startup del Prototipo SCOPE Man power a regime nel Centro SCoPE N. 4 persone intercambiabili e specializzate a 2 a 2: 2 per VOMS e LFC 2 per RB e II N. 4 persone intercambiabili e specializzate a 2 a 2: 2 per VOMS e LFC 2 per RB e II N. 2 personeN. 4 persone N. 2 persone Totale man power startup prototipo: n. 8 persone Totale man power a regime: n. 10 persone wp2wp2/wp3
Tempistica e Conclusioni I Fase: I Fase: Costruzione dellEdificio e realizzazione degli Impianti. Realizzazione della GRID (e della VO) dAteneo integrando le preesistenze e costruendo i servizi Grid collective e core. Uso delle APPLICAZIONI II Fase: II Fase: Acquisizione e messa in produzione delle risorse di calcolo/storage. Integrazione delle infrastrutture GRID dei 4 PON. Uso delle APPLICAZIONI III Fase: III Fase:Operatività a regime del Centro ScoPE. Integrazione nella GRID nazionale ed europea LCG/EGEE Uso delle APPLICAZIONI Obiettivi Intermedi (OR) OR1:Specifiche generali OR2:Modellizzazione OR3:Logistica e sistemi OR4:Middleware di base OR5:Attivazione del sistema OR6:Middleware applicativo OR7:Sviluppo algoritmi e prime applicazioni OR8:Sviluppo Applicazioni Integrate OR9:Potenziamento di reti di collaborazione scientifica OR10:Diffusione dei risultati