Scaricare la presentazione
La presentazione è in caricamento. Aspetta per favore
PubblicatoLeo Fabiani Modificato 8 anni fa
1
Gianpaolo Carlino INFN Napoli On behalf del gruppo RECAS Pisa, 3 Maggio 2013
2
Finanziamento totale: 13.7 Meuro (su 44 richiesti) (sono stati approvati 47 progetti su 83 presentati) Decreto Direttoriale n. 957/Ric. – 11 Novembre 2011 G. Carlino – Il PON RECAS e LHC 2
3
Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 3 Realizzazione di una e-infrastruttura distribuita di calcolo e storage nel Mezzogiorno d’Italia che colleghi i 4 Data Center dei partner di progetto: Bari (sezione INFN e UNIBA) Napoli (sezione INFN e UNINA) Catania (sezione INFN) Cosenza (gruppo collegato INFN) Supportare su tale infrastruttura: la comunità del progetto-bandiera INFN SuperB altre comunità scientifiche e applicative, con particolare riguardo alla Fisica e all’Ingegneria, alla Medicina, alle Biotecnologie, all‘Ambiente. Imprese e Pubblica Amministrazione Nel contesto dell’ Italian Grid Infrastructure (IGI)
4
Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 4 NON INCIDE La chiusura del progetto bandiera SuperB NON INCIDE sulle finalità e sugli obiettivi fondamentali del progetto. CAMBIA ovviamente l’utente di riferimento principale scientifico. Collaborazioni / Esperimenti L H C Collaborazioni / Esperimenti L H C ReCaS costituirà l’infrastruttura di calcolo di supporto agli esperimenti LHC alle applicazioni scientifiche dei tre enti (INFN, UniNA e UniBA) ad altre applicazioni per le Imprese e la Pubblica amministrazione ad altre applicazioni per le Imprese e la Pubblica amministrazione, in collaborazione con gli enti/organismi nazionali (GARR et al.)che si occuperanno di calcolo scientifico, avanzato, parallelo HPC, distribuito grid/cloud. Nota: I consorzi CILEA (MI) e CASPUR (RM) già accorpati al CINECA (BO). Il nuovo GARR ha un nuovo Dipartimento: CALCOLO SCIENTIFICO che si affianca al Dipartimento RETI. Una National Grid Infrastructure è RICHIESTA dall’UE come parte dell’EGI.
5
Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 5 Responsabile Progetto Potenziamento: Leonardo Merola (UNINA) Responsabile Progetto Formazione: Roberto Bellotti (UNIBA) Responsabile Rapporti istruttori:Guido Russo (UNINA) Referente amministrativo INFN:Fausta Candiglioti Referente amministrativo UniNA:Elena Cesaro Referente amministrativo UniBA:Cesarea Rutigliano Leonardo Merola (presidente), Comitato di gestione Potenziamento: Leonardo Merola (presidente), Guido Russo, Guglielmo De Nardo, Giuliano Laccetti, Lucia Silvestris, Roberto Bellotti, Giorgio Maggi, Giuseppe Andronico, Enrico Tassi ben 21 riunioni nel periodo gen 2012 – mar 2013 (di cui 7 “de visu”) Roberto Bellotti (presidente), Comitato direttivo Formazione: Roberto Bellotti (presidente), Giuseppe Andronico, Roberto Barbera, Lucia Silvestris, Enrico Tassi, Guido Russo, Guglielmo De Nardo. G. Laccetti Coordinatore Master I livello (UniNA): G. Laccetti R. Bellotti Coordinatore Master II livello (UniBA): R. Bellotti Giuseppe Andronico (INFN-CT, cordinatore), Gruppo tecnico: Giuseppe Andronico (INFN-CT, cordinatore), rappresentanti delle sedi. ( sulla base di un Accordo di collaborazione INFN-UniNA-UniBA )
6
Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 6 Nel progetto e nella rimodulazione è stato previsto che si realizzino strumenti e servizi di "alto livello", in modo da rendere possibile l'integrazione delle risorse fornite dai 4 centri di calcolo nelle infrastrutture di Grid/Cloud nazionale ed internazionale. Le attività si possono così riassumere: Portali di accesso alle risorse Integrazione di servizi Grid e Cloud in un’unica soluzione open Semplificazione dell’accesso e dell’utilizzo delle risorse ( Science Gateways ) Offerta di servizi di calcolo e storage virtualizzato e gestione di cataloghi e archivi integrati Realizzazione di un sistema di monitoring e di telecontrollo degli impianti centralizzato verso una postazione di management in ogni sede operativa di RECAS Sperimentazione su acceleratori GPU e su File system paralleli e distribuiti Attualmente è in produzione un prototipo dell'infrastruttura nelle more dell'espletamento delle gare di acquisizione delle forniture hardware.
7
Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 7 In tutte le sedi verranno realizzate: una rete locale in tecnologia 10 GbE per il trasporto dati ed una rete locale in tecnologia 1 GbE per il monitoring, il telecontrollo, la gestione La rete GARR-X del Consortium GARR sarà usata per l’interconnessione delle sedi dei Data Center.
8
Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 8 Calcolo: L’aggregato di potenza elaborativa minima che il progetto programmava inizialmente (lug 2011) di acquisire è di 33 kHepSpec. Grazie all’incremento di core/CPU è prevedibile che a parità di costi si potranno raggiungere almeno 100- 150 kHepSpec06.. (Valori a lug 2011) Storage: Inizialmente si prevedeva di mettere in linea 5.5PByte. E’ prevedibile che si possa almeno duplicare la quantità di storage.
9
Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 9 Dopo la prima rimodulazione gennaio 2012 (solo scambi tra Pot. e Form.) Durata del Progetto: 1 ottobre 2011 – 30 settembre 2014 % su Potenziamento: 40% calcolo e storage 10 % reti 30 % impianti 15% personale
10
Pisa, 3 Maggio 2013 Budget Potenziamento INFN: € 6.288.344 G. Carlino – Il PON RECAS e LHC 10 Potenziamento delle strutture preesistenti o realizzazione nuovi CED Parte delle attrezzature (dal budget “gare uniche”) saranno disponibili per LHC. Budget “locale” per le altre attività previste dal progetto La decisione è stata assunta dal comitato di gestione ReCaS nella riunione dell’8 marzo a Bari nel rispetto delle finalità e dei vincoli del progetto. Le scelte tecniche – ora allo studio del gruppo tecnico RECAS - dovranno essere concordate con i responsabili del calcolo degli esperimenti LHC e esposte ai referee GARE DA AVVIARE ENTRO GIUGNO. IN OGNI CASO LE SCELTE VANNO ACCETTATE DAI MONITORI MIUR PER LA RENDICONTAZIONE.
11
Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 11
12
Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 12 Gara impianti tecnologici nella sede INFN nel Dip. di Fisica (euro 309.500 circa, più IVA) aggiudicata, lavori in avvio maggio 2013 Data Center SCOPE
13
Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 13 Costruzione di un edificio industriale a struttura prefabbricata disposto su due livelli, con copertura piana, dedicato e sufficiente ad ospitare tutti gli apparati e le apparecchiature previste a servizio del data center per il calcolo e per il grid computing. Può ospitare in una prima fase fino a 40 rack da 15 kW di potenza IT Il piano terra prevede una zona destinata ad ospitare le apparecchiature informatiche ed una zona destinata ad accogliere le infrastrutture di supporto; il primo piano, parzialmente coperto, è adibito a control-room, mentre sulla parte scoperta saranno allocate i generatori elettrici. Il sistema di raffreddamento è localizzato sul solaio della zona adibitata a control – room Gara UniBa in corso di definizione
14
Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 14 Il nuovo layout che dovrebbe assumere la sala grid, che attualmente ospita il locale Tier2 di Alice ed altre risorse grid, con il potenziamento oggetto del presente progetto Progetto in fase di realizzazione
15
Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 15 La sala di oltre 70 m 2, posta al primo piano del Laboratorio di Alte Energie del Dipartimento di Fisica, dove sarà realizzato il DataCenter di Cosenza. Realizzazione dell’impianto elettrico e di raffreddamento. Capitolato inviato all’INFN per la delibera della GE. Base di gara 380 kE.
16
Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 16
17
Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 17 WNkHSk€ NA13130 BA20.5205 CT21210 CS32.9329 StoragePBk€ NA0.720252 BA0.720252 CT0.720252 CS0.360126 RetePorte 10K€ NA96100 BA384200 CT96100 CS96100 sintesiWN k€Stor. k€Rete k€Tot k€Comunelocale NA130252100482336146 BA205252200657457200 CT210252100562 0 CS329126100555 0 tot2.2141910346 Stime assolutamente preliminari: CPU e disco leggermente sottostimate, Rete da definire con attenzione l’ammontare delle risorse potrà cambiare entro la scadenza di metà maggio Costi CPU10 €/HS06 Disco350 €/TB
18
3 Lotti: CPU, Disco, Rete con aggiudicazioni indipendenti Tempistica: è necessari che la GE deliberi a giugno per obblighi di rendicontazione del PON – Capitolato da inviare a frascati entro il 25 maggio – Stiamo in corso di definizione precisa dei costi di finalizzazione della tipologia delle risorse Manutenzione: sembra che si possa chiedere solo 3 anni di manutenzione – come coprire i 2 anni aggiuntivi per lo storage? – L’INFN (CSN1) può coprire i successivi 2 anni? Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 18
19
Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 19 Si assume che le risorse RECAS vengano utilizzate per coprire, nei limiti del possibile, l’aumento di risorse pledged previsto per le attività LHC e le dismissioni dei Tier2 dei siti RECAS nel 2014 e 2015 La dislocazione delle risorse pledged dovrà avvenire nei limiti di sostenibilità che ciascuna sede è in grado di affrontare Presenza dell’esperimento in sede Sito già Tier2 WLCG Le risorse non pledged saranno a disposizione di tutti gli esperimenti
20
Risorse necessarie per LHC in ITALIA nel 2014 e 2015 L’RRB ha definito le risorse necessarie per gli esperimenti LHC nel 2014. Il 2015 verrà discusso in autunno (RBB ottobre) Le risorse necessarie in Italia sono determinate degli share MoU (numero autori) Bisogna tenere in conto le dismissioni nei siti RECAS – Storage tipicamente 5 anni – CPU tipicamente 3 anni Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 20
21
Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 21 Pledges 2013Costi Extra risorse BariExtra risorse Catania KE/PB o kHSDeltakEDeltakE CPU3020%10,00,0 Disco2,420%350,00,0000,00,0000,0 ALICEALICE ITALIADismissioni BariDismissioni Catania 2014 DeltakEDeltakEDeltakE CPU19037,057,0570,57,4274,22,0420,4 Disco12,82,500,1033,600,09232,20,0000,0 LHCDismissioniExtra risorseTotalekE CPU7,059,450,0016,50165,0 Disco0,000,0920 32,2 2015 DeltakEDeltakEDeltakE CPU200391,9519,51,5715,71,0810,8 Disco16,13,1400,644225,230,300105,00,0000,0 LHCDismissioniExtra risorseTotalekE CPU1,952,640,004,5945,9 Disco0,6440,3000,944330,2 TOTALE573,365 CPU21,09210,9 Disco1,036362,4
22
Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 22 Pledges 2013 Costi Extra risorse Napoli KE/PB o kHSDeltakE CPU339%10,01,212,0 Disco3,57%350,00,0000,0 ATLASATLAS ITALIADismissioni Napoli 2014 DeltakEDeltakE CPU39035,12,121,05,353,1 Disco493,43-0,07-24,50,18464,4 LHCDismissioniExtra risorseTotalekE CPU2,15,311,206,2162,1 Disco00,1840 64,4 2015 DeltakEDeltakE CPU52246,9811,88118,83,434,2 Disco654,551,12392,00,18063,0 LHCDismissioniExtra risorseTotalekE CPU11,883,420,0015,30153,0 Disco1,120,18001,300455,0 TOTALE659,2 CPU21,51139,8 Disco1,484519,4
23
Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 23 Pledges 2013Costi Extra risorse Bari KE/PB o kHSDeltakE CPU45,513%10,00,0 Disco3,513%350,00,0000,0 CMSCMS ITALIADismissioni Bari 2014 DeltakEDeltakE CPU39050,75,252,07,575,0 Disco273,510,013,50,14049,0 LHCDismissioniExtra risorseTotalekE CPU5,27,500,0012,70127,0 Disco0,0100,14000,15052,5 2015 DeltakEDeltakE CPU5006514,3143,02,727,0 Disco31,44,0820,572200,20,300105,0 LHCDismissioniExtra risorseTotalekE CPU14,32,700,0017,00170,0 Disco0,5720,30000,872305,2 TOTALE654,7 CPU29,70297 Disco1,022357,7
24
Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 24 ALICEATLASCMS CPUDiscoCPUDiscoCPUDisco Bari 7,420.092--12.700.150 Catania 9.090---- Cosenza ------ Napoli --6.210.184-- Considero Delta LHC 2014 (per Alice a Catania, Atlas a Napoli e CMS a Bari) e dismissioni 2014 Risparmi per Commissioni Scientifiche CPUDiscok€ CSN1 18.90,334306 CSN3 16.50,092197 RECAS copre completamente i pledges per il 2014 e le dismissioni dei siti RECAS
25
E’ prematuro parlare di pledges e dislocazioni nei siti L’ RRB deciderà solo in autunno le risorse previste per le attività degli esperimenti LHC e quindi le risorse necessarie nei Tier2 italiani Non è ancora partita la gara per le risorse RECAS, i costi dell’ HW non sono ancora precisi per cui non sappiamo veramente quante risorse acquisiremo. A breve idee più chiare Presto conosceremo la sorte del PON Pegasus sulla Long Term Data Preservation che potrebbe fornire risorse ai siti RECAS di Bari, Catania e Napoli I pledges 2015 vanno comunicati nel settembre 2014, abbiamo quindi molto tempo per ridiscuterne quando avremo numeri più precisi. Possiamo comunque anticipare le risorse disponibili nei siti Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 25
26
Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 26 Risorse disponibili per il 2015 CPUDisco Bari 0.40.48 Catania 11.90.72 Cosenza 32.90.36 Napoli 6.790.54 Risorse residue nei siti RECAS che permetteranno risparmi per la commissioni nel 2015 Prima di far partire la gara è probabilmente necessario valutare se sia opportuna un’ottimizzazione CPU-Disco, anche alla luce dei costi effettivi Al momento opportuno e con numeri precisi tutte gli attori (CdG RECAS, Esperimenti e Referee Calcolo) discuteranno e si accorderanno sull’utilizzo migliore delle risorse 2015
27
Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 27
28
PEGASUS M. Maggi INFN Bari
29
Preserving and Ensuring an open Government for a smart Access to Scientific and cUltural Sources coordinatore: Riccardo Pozzo (CNR/DSU) PON R&C 2007-2013 regioni Convergenza su Long Term Digital Preservation per la ricerca Open Access
30
Proposta Progettuale Piattaforma di Digital Library che poggia Infrastruttura di Storage Distribuita e che utilizza alcune periferiche per l’acquisizione di record digitali per i beni culturali Le linee scientifiche hanno già i loro record digitali
31
Info Progetto CNR (Ba-Cs-Ct- Na) ENEA (Portici) INFN (Ba-Ct-Na) INAF (Ct) CINECA(Cs) UNIBA UNICAL UNICT UNINA Presentazione proposta: 3-Apr-2013 Budget: 10 M€ Completamento Attività: 30-Mar-2015 Rendicontazione Finale: 30-Giu-2015 Spese Ammissibili: Ferro…
32
Status Progetto Attesa risposta inizio Giugno Altre proposte: 1)Medical Images Database and visual memory engine. CEINGE, Biot. Avanzate S.C., UNINA, UNICatanzaro, Ist.Naz.Tumori 2)Costituzione di una infrastruttura per la raccolta e condivisione dei risultati della ricerca e attivazione di percorsi clinici integrati. Ist. Centro Neurolesi Bonino Pulejo, UniMediterranea, UNISA 3)Digital Saving System finalizzato all’armonizzazione di una Rete di Biobanche delle regioni di Convergenza. Fond. Cutino Onlus, Ist. Tumori Giov.PaoloII, Fond RiMed, UNIPA 4)Informazione multimediali per Oggetti Territoriali. UNINA, UNI OrsolaBenincasa, UNI Parthenope, POLIBA, UNINAII, UNIPA, UNISA
33
Budget Splitting -1 Calabria: 2,695,000 € Campania: 2,517,260 € Puglia: 2,108,840 € Sicilia: 2,678,900 € Potenziamento: 9,145,750 € Formazione: 854,250 €
34
Budget Splitting -2 CNR1,903,910 € (comprensivi costi progetto) INFN1,850,000 € UNIBA1,016,840 € CINECA1,000,000 € ENEA 950,000 € INAF 770,000 € UNICAL 725,000 € UNINA 465,000 € UNICT 465,000 €
35
Budget Splitting -3 INFN1,850,000 € Bari 650,000 € ~12 PB tape Catania 750,000 € ~2 PB disco Napoli 450,000 € ~1 PB disco HEP Physics: 2,880,000 € per LTDP LHC storage 1)Attività iniziate e da farsi riconoscere da exp 2)Risorse pledge-abili 3)Liberare risorse al CNAF HEP Physics: 2,880,000 € per LTDP LHC storage 1)Attività iniziate e da farsi riconoscere da exp 2)Risorse pledge-abili 3)Liberare risorse al CNAF
36
Attività 1 Digital Library: CINECA ha soluzione fatta con La Sapienza CNR ha progetto MIUR finanziato per Biblioteca Digitale per la Scienza e Tecnologia HEP ha INVENIO su cui si basa INSPIRE, e che integra HepData e Rivet Ingestion Processing Digital Dissemination Preservation Curation
37
Attività 2 HEP LTDP Creazione di un’infrastruttura Tier1-like Tape Library con > 12 PB (Ba) Disk Storage >4 PB (Ct-Na) + Richieste “Ancillari” Fondamentale la connessione (100 Gbps) tra i siti e verso il CNAF per operare il sistema centralmente Logistica ReCaS già finanziata e in avvio
38
Implicazioni Se approvato Pegasus offre l’opportunità all’ente di fornirsi di un’infrastruttura che gli esperimenti vogliono usare Il progetto premiale PIDES prevedeva esperimenti di Gruppo II, Tevatron e LEP, quindi PEGASUS punta su LHC Questo pone un problema di gestione per un sistema di storage e calcolo
Presentazioni simili
© 2024 SlidePlayer.it Inc.
All rights reserved.