Scaricare la presentazione
La presentazione è in caricamento. Aspetta per favore
PubblicatoLeo Giuliano Modificato 8 anni fa
1
Silvia Arezzini 2 luglio 2014 Consiglio di Sezione per Preventivi
2
IT division confronto numerico con il 2013 La struttura di Calcolo e Reti è unica: Infrastruttura di rete locale e geografica, desktop, portatili, software, servizi (mail, web ecc),… Calcolo Scientifico (50 Tflops quasi 100 Tflops) 5000 7500 core in produzione 1.3 1.4 TByte di storage Più elementi concorrono al suo mantenimento e sviluppo e quindi al suo finanziamento: CCR, Sezione, Gruppo I in varie forme, Gruppo IV in varie forme, Premiali (SUMA), collaborazioni esterne (CUBIT).
3
Calcolo Scientifico: Cosa c’è GRID 3000 3600 core (job seriali) includono il Tier2 di CMS e il futuro Tier2 di Belle2 Calcolo Teorico: Cluster nazionale di Fisica Teorica 1000 core con IB DDR. Accedibile via GRID e coda locale per job seriali o paralleli 2000 core connessi via InfiniBand QDR: il nuovo cluster ZEFIRO Accesso via AAI Solo CODA LOCALE Facility nazionale “TheoNuc” a alta memoria 240 Core, circa 700 GB di RAM. Accedibile solo via coda locale con job seriali. FAI: 130 180 core con 1 GB RAM/Core. Per utilizzo interattivo via coda locale. Non solo utenti pisani (uso Tier3) Levante e altre vecchie farm: 78 Core (ma 90 JobSlot per RAM). 1200 core Infrastruttura ad accesso misto: GRID e coda locale
4
Calcolo Scientifico: Cosa ci sarà: c’è Nuovo cluster Teorico. 1600 core iniziali (8 GB RAM/Core) per uso esclusivo HPC (parallelo o multithread) solo via coda locale. 2000 e nuovo InfiniBand TheoNuc continuerà ad esistere affiancato dal nuovo cluster per job con 256 o 512 GB di richiesta RAM. verranno aggiunti circa 2000 core nell'infrastruttura GRID, con accesso anche ai teorici; per sopperire alla scomparsa dell'accesso GRID al nuovo cluster. Arriveremo a 2000 con la gara appena conclusa macchine sperimentali 5 server dotati di GPU (generazione Fermi e Kepler) per un totale di 32 GPU (diventeranno almeno 36). Accesso via coda locale apposita e LSF. Sono 6 server 1 server dotato di d processori INTEL-MIC da 64 Core ciascuno. Accesso via coda locale apposita e LSF. TEST di ulteriori soluzioni innovative e partecipazione progetto di gruppo V:COSA (processori ARM 64bit)
5
http://web2.infn.it/CCR/ Riunioni settimanali in phono 4 incontri all’anno 1 workshop politico/tecnico 1 mini workshop tecnico Attività di formazione Gruppi di lavoro Finanziamenti
6
Il mandato di CCR Coordinamento e proposta dei finanziamenti per la manutenzione ed il potenziamento delle infrastrutture e dei servizi di calcolo e rete delle UU.OO. Promozione dell'innovazione e del coordinamento tecnologico delle risorse di calcolo e rete delle UU.OO. Sviluppo ed armonizzazione dei servizio per il calcolo offerti nelle sezioni, attraverso la valutazione e l'adozione dei più appropriati strumenti e tecnologie. Coordinamento dell'implementazione dei centri di calcolo degli esperimenti ed in particolare quelli di primo, secondo e terzo livello degli esperimenti all'LHC. Partecipazione alle attività dei comitati nazionali ed internazionali di coordinamento che operano nei settori di interesse della Commissione.
7
DISPOSIZIONE DEL PRESIDENTE DELL'INFN n. 15320 del 18 OTTOBRE 2012 CLAUDIO GRANDI Presidente della Commissione Calcolo e Reti dell'INFN Dario Menasce Vice Presidente della Commissione Calcolo e Reti dell'INFN Antonio Zoccoli Membro della Giunta Esecutiva 1 membro per ogni sezione (per Pisa io) TIER1 TIER2 (Tommaso Boccali) Responsabile Contratti Nazionali Servizio Informativo Gianpaolo Carlino Osservatore della CSN1 Alberto Garfagnini Osservatore della CSN2 Rosario Turrisi Osservatore della CSN3 Roberto Alfieri Osservatore della CSN4 Piero Vicini Osservatore della CSN5
8
Finanziamenti CCR per anno 2014 Manutenzioni 10 keuro (10 per Switch InfiniBand convertiti in contributo per nuovo switch, 10 per switch centrale di rete) Contributo Batterie 10 Keuro Progetto rete locale Sostituzione server Un po’ di missioni
9
Per l’anno prossimo Server e storage Con AAI nazionale: Progetto pilota di kerberizzazione utenti teorici Rete rete di piano: 15 keuro Inizio ristrutturazione centro stella: 25 keuro Progetto ristrutturazione sistema raffreddamento (in collaborazione con esperto LNF) In forse
10
Finanziamenti da CCR Sezione Gruppi (in base alle esigenze) Tier2 Cluster nazionale di Fisica Teorica Collaborazioni esterne e conto terzi SUMA (SuperCalcolo Massiccio)
Presentazioni simili
© 2024 SlidePlayer.it Inc.
All rights reserved.