Gianpaolo Carlino INFN Napoli On behalf del gruppo RECAS Pisa, 3 Maggio 2013.

Slides:



Advertisements
Presentazioni simili
Rete di Calcolo per SuperB e altre applicazioni
Advertisements

Progetto "ReCaS" Rete di Calcolo per SuperB e altre applicazioni PON R&C Avviso 254/Ric 1 Workshop CCR/GARR – Napoli, 16 maggio 2012 L. Merola.
PON a3_00052 "ReCaS" Rete di Calcolo per SuperB e altre applicazioni G. Andronico 24/10/
PON a3_00052 "ReCaS" Rete di Calcolo per SuperB e altre applicazioni L. Merola riunione di gruppo I Napoli 21/12/2012 Sito e dominio web del progetto:
Aggiornamento su ReCaS e Tier-2 Atlas Leonardo Merola Riunione Gr. 1 Napoli – 7 gennaio Riunione Gr. 1 Napoli – 7 gennaio 2015 – L. Merola.
Progetto ReCaS status update Giuseppe Andronico WS CCR, Catania 28 Maggio 2014.
L’infrastruttura del progetto ReCaS Paolo Lo Re on behalf of ReCaS collaboration.
Gruppo Netarch Incontro di lavoro della CCR Napoli gennaio 2010 Connessioni Tier1/Tier2 a GARR-X 1 GM, Incontro di lavoro della CCR – Napoli
IL blueprint e le esigenze per il progetti internazionali (EMI e EGI- InSPIRE) L. Gaido, INFN Torino Riunione del Comitato di Coordinamento IGI Roma, 12.
Sistema Informativo. Mansioni Gestione della piattaforma hardware e sistemistica del sistema informativo INFN In realta’ il mansionario e’ in continua.
Stato Costruzione/Integrazione P. Migliozzi 7/12/2012.
Il Calcolo non LHC in CSN1 G. Carlino, INFN Napoli CSN1 – Firenze 20 Luglio 2015.
+ Call di Big Data (EINFRA- 1). + La call … + + Cosa abbiamo in mano (come INFN) 1. L’infrastruttura 1 Tier Tier2 O(25000) cores O(20) PB di Disco.
Riunione CSN1, Roma, Maggio 2012F. Bedeschi, INFN-Pisa 1 Riunione CSN1  Comunicazioni  Presentazione agenda F. Bedeschi Presidenza INFN Aprile 2012 Sommario.
Riunione CSN1, Roma, Dicembre 2012F. Bedeschi, INFN-Pisa 1 Riunione CSN1  Comunicazioni  Avanzi 2012  Premiale LHC  Stato premio Conversi  Stato assegnazioni.
Informativa sull’adempimento degli obblighi di e-cohesion di cui all’art. 122, comma 3 del reg. (UE) 1303/2013 Programma Competitività regionale 2007/13.
Utilizzo e Richieste infrastrutture di calcolo esperimenti LHC & non LHC G. Carlino, INFN Napoli CSN1 – Roma 7 Luglio 2016.
Alessandro De Salvo Status dei Tier2 di ATLAS Alessandro De Salvo
Domenico Elia1 Calcolo ALICE: stato e richieste finanziarie (aggiornamenti) Domenico Elia Riunione Referee Calcolo LHC / Bologna, Riunione con.
Torino, Andrea Dainese 1 Andrea Dainese (INFN – LNL) Stato del Tier-2 ALICE a Legnaro.
Stato dell’infrastruttura INFN CNAF, Stato dell’infrastruttura Impianti tecnologici Gli impianti di base stanno funzionando, ma sono urgenti.
Acquisti TIER T2 team e Pistoni per la consulenza sull’hardware.
LA RICERCA AL CENTRO DEL PAESE Conferenza stampa per la presentazione del nuovo Bando per la Ricerca Edizione novembre 2016.
Workshop CCR/GARR – Napoli, 16 maggio 2012
Valutazione proposte di corsi di formazione S. Arezzini, L
Relazione utilizzo rete, proposte per banda e collegamenti extra GARR
Riunione ALICE Italia - Referee stato e richieste finanziarie
Status Report Gruppo Storage CCR CCR 14-15/03/2006.
D. Martello, F. Ricci, F. Ruggieri
Con i bambini 7 dicembre 2016.
Claudia Battista Tempi e Modi di GARR-X Claudia Battista
I costi del Calcolo LHC un update –
Rete di Calcolo per SuperB e altre applicazioni
Comput-ER l'infrastruttura di calcolo distribuito in Emilia Romagna
l’organizzazione di IGI
G. Carlino, D. Lucchesi, V. Vagnoni
Contributi dei PON a LHC
Visita al sito di Catania RECAS
Richieste di upgrade dei link di accesso alla rete Geografica
Nuovo sito della Commissione Calcolo e Reti
Michele Punturo INFN Perugia
Attivita’ e compiti del Servizio Impianti Calcolo e Reti
PRIN Roma1 – status Luciano Barone, Alessandro De Salvo
Richieste preliminari calcolo non LHC
Stato Acquisti Switch/Router T2
L’INFN per il Collaborative esteso e distribuito Alessandro De Salvo
QUADRO CALCOLO IN COMMISSIONE III
ALICE CALCOLO richieste finanziarie e proposte di assegnazione 2017
Comunicazioni Pisa- Settembre 2008.
Aggiornamento sullo stato del Tier-2 di Catania
Nell’ambito di un processo di revisione dei meccanismi di programmazione scientifica, la CSN5 decide di adottare, a partire dai preventivi di esperimento.
Sommario Riunione CSN1 Comunicazioni F. Bedeschi Roma, Luglio 2013
Report Calcolo Commisione III
Agenda CE IGI
Riunione CSN1: comunicazioni Roma 19 settembre 2016
Massimo Masera Catania, 20 dicembre 2012
Sommario Riunione CSN1 Bilancio 2011 Bilancio 2012 Questioni aperte
Gianpaolo Carlino (coord)
IGI e l’impatto sui servizi calcolo
La richiesta si basa sulle seguenti considerazioni:
Comitato Paritetico Strategia Nazionale Biodiversità
Giunta Regionale d’Abruzzo
LUIGI PICARDI – UTAPRAD ENEA Frascati
Il Comitato OT11-OT2 e le Aree di Lavoro Comune
Innovazione Ecosistema Cultura
NA62: Possibile nuovo esperimento
ReCaS Catania Progetti
Trasformazione digitale
L’applicazione dei Criteri Ambientali Minimi (CAM) nella progettazione di interventi di efficientamento energetico degli edifici pubblici Dott. Giuseppe.
Commissione Calcolo e Reti
Transcript della presentazione:

Gianpaolo Carlino INFN Napoli On behalf del gruppo RECAS Pisa, 3 Maggio 2013

Finanziamento totale: 13.7 Meuro (su 44 richiesti) (sono stati approvati 47 progetti su 83 presentati) Decreto Direttoriale n. 957/Ric. – 11 Novembre 2011 G. Carlino – Il PON RECAS e LHC 2

Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 3  Realizzazione di una e-infrastruttura distribuita di calcolo e storage nel Mezzogiorno d’Italia che colleghi i 4 Data Center dei partner di progetto:  Bari (sezione INFN e UNIBA)  Napoli (sezione INFN e UNINA)  Catania (sezione INFN)  Cosenza (gruppo collegato INFN)  Supportare su tale infrastruttura:  la comunità del progetto-bandiera INFN SuperB  altre comunità scientifiche e applicative, con particolare riguardo alla Fisica e all’Ingegneria, alla Medicina, alle Biotecnologie, all‘Ambiente.  Imprese e Pubblica Amministrazione Nel contesto dell’ Italian Grid Infrastructure (IGI)

Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 4 NON INCIDE  La chiusura del progetto bandiera SuperB NON INCIDE sulle finalità e sugli obiettivi fondamentali del progetto.  CAMBIA ovviamente l’utente di riferimento principale scientifico.  Collaborazioni / Esperimenti L H C  Collaborazioni / Esperimenti L H C  ReCaS costituirà l’infrastruttura di calcolo di supporto  agli esperimenti LHC  alle applicazioni scientifiche dei tre enti (INFN, UniNA e UniBA)  ad altre applicazioni per le Imprese e la Pubblica amministrazione  ad altre applicazioni per le Imprese e la Pubblica amministrazione, in collaborazione con gli enti/organismi nazionali (GARR et al.)che si occuperanno di calcolo scientifico, avanzato, parallelo HPC, distribuito grid/cloud. Nota: I consorzi CILEA (MI) e CASPUR (RM) già accorpati al CINECA (BO). Il nuovo GARR ha un nuovo Dipartimento: CALCOLO SCIENTIFICO che si affianca al Dipartimento RETI. Una National Grid Infrastructure è RICHIESTA dall’UE come parte dell’EGI.

Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 5 Responsabile Progetto Potenziamento: Leonardo Merola (UNINA) Responsabile Progetto Formazione: Roberto Bellotti (UNIBA) Responsabile Rapporti istruttori:Guido Russo (UNINA) Referente amministrativo INFN:Fausta Candiglioti Referente amministrativo UniNA:Elena Cesaro Referente amministrativo UniBA:Cesarea Rutigliano Leonardo Merola (presidente), Comitato di gestione Potenziamento: Leonardo Merola (presidente), Guido Russo, Guglielmo De Nardo, Giuliano Laccetti, Lucia Silvestris, Roberto Bellotti, Giorgio Maggi, Giuseppe Andronico, Enrico Tassi  ben 21 riunioni nel periodo gen 2012 – mar 2013 (di cui 7 “de visu”) Roberto Bellotti (presidente), Comitato direttivo Formazione: Roberto Bellotti (presidente), Giuseppe Andronico, Roberto Barbera, Lucia Silvestris, Enrico Tassi, Guido Russo, Guglielmo De Nardo. G. Laccetti Coordinatore Master I livello (UniNA): G. Laccetti R. Bellotti Coordinatore Master II livello (UniBA): R. Bellotti Giuseppe Andronico (INFN-CT, cordinatore), Gruppo tecnico: Giuseppe Andronico (INFN-CT, cordinatore), rappresentanti delle sedi. ( sulla base di un Accordo di collaborazione INFN-UniNA-UniBA )

Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 6 Nel progetto e nella rimodulazione è stato previsto che si realizzino strumenti e servizi di "alto livello", in modo da rendere possibile l'integrazione delle risorse fornite dai 4 centri di calcolo nelle infrastrutture di Grid/Cloud nazionale ed internazionale. Le attività si possono così riassumere:  Portali di accesso alle risorse  Integrazione di servizi Grid e Cloud in un’unica soluzione open  Semplificazione dell’accesso e dell’utilizzo delle risorse ( Science Gateways )  Offerta di servizi di calcolo e storage virtualizzato e gestione di cataloghi e archivi integrati  Realizzazione di un sistema di monitoring e di telecontrollo degli impianti centralizzato verso una postazione di management in ogni sede operativa di RECAS  Sperimentazione su acceleratori GPU e su File system paralleli e distribuiti Attualmente è in produzione un prototipo dell'infrastruttura nelle more dell'espletamento delle gare di acquisizione delle forniture hardware.

Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 7  In tutte le sedi verranno realizzate:  una rete locale in tecnologia 10 GbE per il trasporto dati ed  una rete locale in tecnologia 1 GbE per il monitoring, il telecontrollo, la gestione  La rete GARR-X del Consortium GARR sarà usata per l’interconnessione delle sedi dei Data Center.

Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 8 Calcolo:  L’aggregato di potenza elaborativa minima che il progetto programmava inizialmente (lug 2011) di acquisire è di 33 kHepSpec. Grazie all’incremento di core/CPU è prevedibile che a parità di costi si potranno raggiungere almeno kHepSpec06.. (Valori a lug 2011) Storage:  Inizialmente si prevedeva di mettere in linea 5.5PByte. E’ prevedibile che si possa almeno duplicare la quantità di storage.

Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 9 Dopo la prima rimodulazione gennaio 2012 (solo scambi tra Pot. e Form.) Durata del Progetto: 1 ottobre 2011 – 30 settembre 2014 % su Potenziamento: 40% calcolo e storage 10 % reti 30 % impianti 15% personale

Pisa, 3 Maggio 2013  Budget Potenziamento INFN: € G. Carlino – Il PON RECAS e LHC 10 Potenziamento delle strutture preesistenti o realizzazione nuovi CED Parte delle attrezzature (dal budget “gare uniche”) saranno disponibili per LHC. Budget “locale” per le altre attività previste dal progetto La decisione è stata assunta dal comitato di gestione ReCaS nella riunione dell’8 marzo a Bari nel rispetto delle finalità e dei vincoli del progetto. Le scelte tecniche – ora allo studio del gruppo tecnico RECAS - dovranno essere concordate con i responsabili del calcolo degli esperimenti LHC e esposte ai referee  GARE DA AVVIARE ENTRO GIUGNO. IN OGNI CASO LE SCELTE VANNO ACCETTATE DAI MONITORI MIUR PER LA RENDICONTAZIONE.

Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 11

Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 12 Gara impianti tecnologici nella sede INFN nel Dip. di Fisica (euro circa, più IVA) aggiudicata, lavori in avvio maggio 2013 Data Center SCOPE

Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 13 Costruzione di un edificio industriale a struttura prefabbricata disposto su due livelli, con copertura piana, dedicato e sufficiente ad ospitare tutti gli apparati e le apparecchiature previste a servizio del data center per il calcolo e per il grid computing. Può ospitare in una prima fase fino a 40 rack da 15 kW di potenza IT Il piano terra prevede una zona destinata ad ospitare le apparecchiature informatiche ed una zona destinata ad accogliere le infrastrutture di supporto; il primo piano, parzialmente coperto, è adibito a control-room, mentre sulla parte scoperta saranno allocate i generatori elettrici. Il sistema di raffreddamento è localizzato sul solaio della zona adibitata a control – room Gara UniBa in corso di definizione

Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 14 Il nuovo layout che dovrebbe assumere la sala grid, che attualmente ospita il locale Tier2 di Alice ed altre risorse grid, con il potenziamento oggetto del presente progetto Progetto in fase di realizzazione

Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 15 La sala di oltre 70 m 2, posta al primo piano del Laboratorio di Alte Energie del Dipartimento di Fisica, dove sarà realizzato il DataCenter di Cosenza. Realizzazione dell’impianto elettrico e di raffreddamento. Capitolato inviato all’INFN per la delibera della GE. Base di gara 380 kE.

Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 16

Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 17 WNkHSk€ NA13130 BA CT21210 CS StoragePBk€ NA BA CT CS RetePorte 10K€ NA96100 BA CT96100 CS96100 sintesiWN k€Stor. k€Rete k€Tot k€Comunelocale NA BA CT CS tot Stime assolutamente preliminari: CPU e disco leggermente sottostimate, Rete da definire con attenzione l’ammontare delle risorse potrà cambiare entro la scadenza di metà maggio Costi CPU10 €/HS06 Disco350 €/TB

3 Lotti: CPU, Disco, Rete con aggiudicazioni indipendenti Tempistica: è necessari che la GE deliberi a giugno per obblighi di rendicontazione del PON – Capitolato da inviare a frascati entro il 25 maggio – Stiamo in corso di definizione precisa dei costi di finalizzazione della tipologia delle risorse Manutenzione: sembra che si possa chiedere solo 3 anni di manutenzione – come coprire i 2 anni aggiuntivi per lo storage? – L’INFN (CSN1) può coprire i successivi 2 anni? Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 18

Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 19 Si assume che le risorse RECAS vengano utilizzate per coprire, nei limiti del possibile, l’aumento di risorse pledged previsto per le attività LHC e le dismissioni dei Tier2 dei siti RECAS nel 2014 e 2015 La dislocazione delle risorse pledged dovrà avvenire nei limiti di sostenibilità che ciascuna sede è in grado di affrontare Presenza dell’esperimento in sede Sito già Tier2 WLCG Le risorse non pledged saranno a disposizione di tutti gli esperimenti

Risorse necessarie per LHC in ITALIA nel 2014 e 2015 L’RRB ha definito le risorse necessarie per gli esperimenti LHC nel Il 2015 verrà discusso in autunno (RBB ottobre) Le risorse necessarie in Italia sono determinate degli share MoU (numero autori) Bisogna tenere in conto le dismissioni nei siti RECAS – Storage tipicamente 5 anni – CPU tipicamente 3 anni Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 20

Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 21 Pledges 2013Costi Extra risorse BariExtra risorse Catania KE/PB o kHSDeltakEDeltakE CPU3020%10,00,0 Disco2,420%350,00,0000,00,0000,0 ALICEALICE ITALIADismissioni BariDismissioni Catania 2014 DeltakEDeltakEDeltakE CPU19037,057,0570,57,4274,22,0420,4 Disco12,82,500,1033,600,09232,20,0000,0 LHCDismissioniExtra risorseTotalekE CPU7,059,450,0016,50165,0 Disco0,000, , DeltakEDeltakEDeltakE CPU200391,9519,51,5715,71,0810,8 Disco16,13,1400,644225,230,300105,00,0000,0 LHCDismissioniExtra risorseTotalekE CPU1,952,640,004,5945,9 Disco0,6440,3000,944330,2 TOTALE573,365 CPU21,09210,9 Disco1,036362,4

Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 22 Pledges 2013 Costi Extra risorse Napoli KE/PB o kHSDeltakE CPU339%10,01,212,0 Disco3,57%350,00,0000,0 ATLASATLAS ITALIADismissioni Napoli 2014 DeltakEDeltakE CPU39035,12,121,05,353,1 Disco493,43-0,07-24,50,18464,4 LHCDismissioniExtra risorseTotalekE CPU2,15,311,206,2162,1 Disco00, , DeltakEDeltakE CPU52246,9811,88118,83,434,2 Disco654,551,12392,00,18063,0 LHCDismissioniExtra risorseTotalekE CPU11,883,420,0015,30153,0 Disco1,120,18001,300455,0 TOTALE659,2 CPU21,51139,8 Disco1,484519,4

Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 23 Pledges 2013Costi Extra risorse Bari KE/PB o kHSDeltakE CPU45,513%10,00,0 Disco3,513%350,00,0000,0 CMSCMS ITALIADismissioni Bari 2014 DeltakEDeltakE CPU39050,75,252,07,575,0 Disco273,510,013,50,14049,0 LHCDismissioniExtra risorseTotalekE CPU5,27,500,0012,70127,0 Disco0,0100,14000,15052, DeltakEDeltakE CPU ,3143,02,727,0 Disco31,44,0820,572200,20,300105,0 LHCDismissioniExtra risorseTotalekE CPU14,32,700,0017,00170,0 Disco0,5720,30000,872305,2 TOTALE654,7 CPU29,70297 Disco1,022357,7

Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 24 ALICEATLASCMS CPUDiscoCPUDiscoCPUDisco Bari 7, Catania Cosenza Napoli Considero Delta LHC 2014 (per Alice a Catania, Atlas a Napoli e CMS a Bari) e dismissioni 2014 Risparmi per Commissioni Scientifiche CPUDiscok€ CSN , CSN , RECAS copre completamente i pledges per il 2014 e le dismissioni dei siti RECAS

E’ prematuro parlare di pledges e dislocazioni nei siti L’ RRB deciderà solo in autunno le risorse previste per le attività degli esperimenti LHC e quindi le risorse necessarie nei Tier2 italiani Non è ancora partita la gara per le risorse RECAS, i costi dell’ HW non sono ancora precisi per cui non sappiamo veramente quante risorse acquisiremo. A breve idee più chiare Presto conosceremo la sorte del PON Pegasus sulla Long Term Data Preservation che potrebbe fornire risorse ai siti RECAS di Bari, Catania e Napoli I pledges 2015 vanno comunicati nel settembre 2014, abbiamo quindi molto tempo per ridiscuterne quando avremo numeri più precisi. Possiamo comunque anticipare le risorse disponibili nei siti Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 25

Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 26 Risorse disponibili per il 2015 CPUDisco Bari Catania Cosenza Napoli Risorse residue nei siti RECAS che permetteranno risparmi per la commissioni nel 2015 Prima di far partire la gara è probabilmente necessario valutare se sia opportuna un’ottimizzazione CPU-Disco, anche alla luce dei costi effettivi Al momento opportuno e con numeri precisi tutte gli attori (CdG RECAS, Esperimenti e Referee Calcolo) discuteranno e si accorderanno sull’utilizzo migliore delle risorse 2015

Pisa, 3 Maggio 2013 G. Carlino – Il PON RECAS e LHC 27

PEGASUS M. Maggi INFN Bari

Preserving and Ensuring an open Government for a smart Access to Scientific and cUltural Sources coordinatore: Riccardo Pozzo (CNR/DSU) PON R&C regioni Convergenza su Long Term Digital Preservation per la ricerca Open Access

Proposta Progettuale Piattaforma di Digital Library che poggia Infrastruttura di Storage Distribuita e che utilizza alcune periferiche per l’acquisizione di record digitali per i beni culturali Le linee scientifiche hanno già i loro record digitali

Info Progetto CNR (Ba-Cs-Ct- Na) ENEA (Portici) INFN (Ba-Ct-Na) INAF (Ct) CINECA(Cs) UNIBA UNICAL UNICT UNINA Presentazione proposta: 3-Apr-2013 Budget: 10 M€ Completamento Attività: 30-Mar-2015 Rendicontazione Finale: 30-Giu-2015 Spese Ammissibili: Ferro…

Status Progetto Attesa risposta inizio Giugno Altre proposte: 1)Medical Images Database and visual memory engine. CEINGE, Biot. Avanzate S.C., UNINA, UNICatanzaro, Ist.Naz.Tumori 2)Costituzione di una infrastruttura per la raccolta e condivisione dei risultati della ricerca e attivazione di percorsi clinici integrati. Ist. Centro Neurolesi Bonino Pulejo, UniMediterranea, UNISA 3)Digital Saving System finalizzato all’armonizzazione di una Rete di Biobanche delle regioni di Convergenza. Fond. Cutino Onlus, Ist. Tumori Giov.PaoloII, Fond RiMed, UNIPA 4)Informazione multimediali per Oggetti Territoriali. UNINA, UNI OrsolaBenincasa, UNI Parthenope, POLIBA, UNINAII, UNIPA, UNISA

Budget Splitting -1 Calabria: 2,695,000 € Campania: 2,517,260 € Puglia: 2,108,840 € Sicilia: 2,678,900 € Potenziamento: 9,145,750 € Formazione: 854,250 €

Budget Splitting -2 CNR1,903,910 € (comprensivi costi progetto) INFN1,850,000 € UNIBA1,016,840 € CINECA1,000,000 € ENEA 950,000 € INAF 770,000 € UNICAL 725,000 € UNINA 465,000 € UNICT 465,000 €

Budget Splitting -3 INFN1,850,000 € Bari 650,000 € ~12 PB tape Catania 750,000 € ~2 PB disco Napoli 450,000 € ~1 PB disco HEP Physics: 2,880,000 € per LTDP LHC storage 1)Attività iniziate e da farsi riconoscere da exp 2)Risorse pledge-abili 3)Liberare risorse al CNAF HEP Physics: 2,880,000 € per LTDP LHC storage 1)Attività iniziate e da farsi riconoscere da exp 2)Risorse pledge-abili 3)Liberare risorse al CNAF

Attività 1 Digital Library: CINECA ha soluzione fatta con La Sapienza CNR ha progetto MIUR finanziato per Biblioteca Digitale per la Scienza e Tecnologia HEP ha INVENIO su cui si basa INSPIRE, e che integra HepData e Rivet Ingestion Processing Digital Dissemination Preservation Curation

Attività 2 HEP LTDP Creazione di un’infrastruttura Tier1-like Tape Library con > 12 PB (Ba) Disk Storage >4 PB (Ct-Na) + Richieste “Ancillari” Fondamentale la connessione (100 Gbps) tra i siti e verso il CNAF per operare il sistema centralmente Logistica ReCaS già finanziata e in avvio

Implicazioni Se approvato Pegasus offre l’opportunità all’ente di fornirsi di un’infrastruttura che gli esperimenti vogliono usare Il progetto premiale PIDES prevedeva esperimenti di Gruppo II, Tevatron e LEP, quindi PEGASUS punta su LHC Questo pone un problema di gestione per un sistema di storage e calcolo