La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Dipartimento Sistemi & Tecnologie D. S&T

Presentazioni simili


Presentazione sul tema: "Dipartimento Sistemi & Tecnologie D. S&T"— Transcript della presentazione:

1 Dipartimento Sistemi & Tecnologie D. S&T
Evoluzione del sistema di supercalcolo CINECA Casalecchio di Reno (BO) Via Magnanelli 6/3, Casalecchio di Reno | | © CINECA - WS INAF Marzo 2008

2 La facility ARRIVO ENEL MT BT GE 250 KVA GE 1- 1750 KVA
CAB “A” Q. BT “A” Q. GE 250 PC Ia fase UPS ( )/2‏ UPS ( )‏ PC IIa fase UPS 2K/A 1-4 UPS 2K/B 5-8 Q. CDZ 1 Q. CDZ ENI Q. GE 3 Q. CDZ CRAY Q. CDZ SM CAB “B1” CAB “B” CAB “C” CROSS MT BT SUPER CALCOLO CINECA HOSTING ENI Q, BT “B” Q. BT “C” UPS ( )/1‏ © CINECA - WS INAF Marzo 2008

3 Potenze Installate 2007 Potenza impegnata contrattualmente con ENEL
4200 KW N°3 trasformatori in resina MT/BT Pn=1000 kVA cad. 3000 kVA N°2 trasformatori in resina MT/BT Pn=800 kVA cad. 1600 kVA N°3 trasformatori in resina MT/BT Pn=1600 kVA cad. 4800 kVA UPS kVA 500 kVA N°2 Sistemi UPS (3x80 kVA) 480 kVA N°2 Sistemi UPS 2000 kVA 4000 kVA GE kVA 1750 kVA GE kVA GE kVA GE 250 kVA 250 kVA © CINECA - WS INAF Marzo 2008

4 Infrastruttura HPC al CINECA Servizio calcolo scientifico
© CINECA - WS INAF Marzo 2008

5 Infrastruttura HPC al CINECA Servizio Calcolo Tecnico
Nome Logico ENI ENI ENI ENI07 ENI08 Modello IBM LS21 IBM HS21 Architettura Linux Cluster Processore AMD Opteron Dual-Core 2.6 Ghz Intel Xeon Dual-Core 3.0 Ghz Numero di core 3x 1024 2048 10240 Numero di nodi 3x 256 512 2560 RAM 3x 4096 GB 8192 GB 40960 GB Rete di interconnesione CISCO Infiniband SDR 4x Sistema operativo RedHat RHEL4 Performance di picco 3x 5.3 Tflops 3x 6,1 Tflops 10,6 Tflops 12,2 Tflops 57 Tflops © CINECA - WS INAF Marzo 2008

6 Infrastruttura di rete locale e rete geografica
LAN WAN Internet GARR 200 Mbps, Tiscali 30 Mbps, FastWeb 20 Mbps. Link wan DEISA 10 Gbps), ENI 2x1Gbps (2Q07) 2-10 Mbps: meteo, ER Region, Health Min, other private costumers No single point of failure; Multilayer architecture; Separated domain routing Core layer GB/s of routing capacity © CINECA - WS INAF Marzo 2008

7 Infrastruttura di storage
Storage Servers SVC GPFS cluster Rete IP GPFS (via IP) GPFS (via IP) Cluster A Cluster B … Cluster N NFS SAN HPC SAN ICT Brocade Silkworm2800 Brocade Silkworm12000 Brocade Silkworm48000 replica 2x Cisco MDS9513 Integrated for HCP and ICT system Technology transfer from HCP to ICT environment HPC Area scratch: TB; 10 GB/s front end bandwidth HCP repository: TB; 4 GB/s front end bandwidth ICT service: 75 TB; 5-15 TB synchronous / asynchronous replica No single point of failure Adoption of GPFS as parallel file system TIVOLI Storage manager for archiving and back up © CINECA - WS INAF Marzo 2008

8 Posizione nel Top500 © CINECA - WS INAF Marzo 2008

9 © CINECA - WS INAF Marzo 2008

10 Andamento della produzione
© CINECA - WS INAF Marzo 2008

11 Utilizzo per modelli di servizio
© CINECA - WS INAF Marzo 2008

12 Utilizzo dei sistemi © CINECA - WS INAF Marzo 2008

13 Distribuzione dell’utilizzo da parte degli Enti
© CINECA - WS INAF Marzo 2008

14 Il modello di riferimento dell’ecosistema HPC Europeo
© CINECA - WS INAF Marzo 2008

15 Preparatory phase Partnership for Advanced Computing in Europe Partnership at State Member Level Italy represented by CINECA delegated by the MUR in collaboration with CNR / INFM € 10 Mio EU funded project to define the implementation plan State Member in kind funding for the computing infrastructure implementation, EU co found the transnational access © CINECA - WS INAF Marzo 2008

16 Prace Consortium members
1 (Coord.) Forschungszentrum Juelich GmbH FZJ (GAUSS) Germany 2 Universität Stuttgart – HLRS USTUTT-HLRS (GAUSS) 3 LRZ der Bay. Akademie der Wissenschaften BADW-LRZ (GAUSS) 4 Grand Equipement national pour le Calcul I. GENCI France 5 Engineering and Phys. Sciences Research C. EPSRC UK 6 Barcelona Supercomputing Center BSC Spain 7 CSC Scientific Computing Ltd. CSC Finland 8 ETH Zürich - CSCS ETHZ Switzerland 9 Netherlands Computing Facilities Foundation NCF Netherlands 10 Joh. Kepler Universitaet Linz GUP Austria 11 Swedish National Infrastructure for Comp. SNIC Sweden 12 CINECA Consorzio Interuniversitario CINECA Italy 13 Poznan Supercomputing and Networking Centre PSNC Poland 14 UNINETT Sigma AS SIGMA Norway 15 Greek Research and Technology Network GRNET Greece 16 Universidade de Coimbra UC-LCA Portugal © CINECA - WS INAF Marzo 2008

17 PRACE Goals MoU: Plan and manage the transition from the current European cooperation in HPC to a European entity operating a world class Tier 0 HPC service, as defined in the ESFRI Roadmap FP7 Project: Exceute the preparatory phase of the RI Prepare creation of a persistent pan-European HPC service as a Research Infrastructure (RI) 3-5 Tier-0 centres hosted by different countries Meeting the demands of excellent users from academia and industry Integration with the European HPC Ecosystem Perform all tasks required to facilitate the operation of the RI immediately after the end of the project © CINECA - WS INAF Marzo 2008

18 Preparation of the RI as a single legal entity
Work plan outline Preparation of the RI as a single legal entity Legal form and governance structure, funding, procurement, and usage strategy, Peer Review process HPC Ecosystem links: European and national HPC infrastructures e.g. DEISA, HPC-Europa, the ESFRI projects, EGEE and EGI, communities, vendors and user industries, … Prepare operation of petascale systems in 2009/2010 Deployment and benchmarking of prototypes Porting, optimising, petascaling of applications Start a process of technology development and assessment for future multi-petascale systems © CINECA - WS INAF Marzo 2008

19 Participating Sites BSC Barcelona Supercomputing Centre Spain
CINECA Consorzio Interuniversitario per il Calcolo Automatico Italy CSC Finnish Information Technology Centre for Science Finland EPCC/HPCx University of Edinburgh and CCLRC UK ECMWF European Centre for Medium-Range Weather Forecast UK (int) FZJ Research Centre Juelich Germany HLRS High Performance Computing Centre Stuttgart Germany IDRIS Institut du Développement et des Ressources France en Informatique Scientifique - CNRS LRZ Leibniz Rechenzentrum Munich Germany RZG Rechenzentrum Garching of the Max Planck Society Germany SARA Dutch National High Performance Computing The Netherlands and Networking centre © CINECA - WS INAF Marzo 2008

20 Towards a European HPC Ecosystem – DEISA2
Fusion Community Cosmology Climate Material Sciences Weather forecast Communities Industry National HPC Center (T1) National Data USA TeraGrid,DoE Japan NAREGI Chinese Academy Russian DEISA2 European Petascale Center (T0) DEISA2 – The Virtual European HPC Center Operation - Technology - Application Objectives Enhancing the existing distributed European HPC environment (DEISA) to a turnkey operational infrastructure Advancing the computational sciences in Europe by supporting user communities and extreme computing projects Enhancing the service provision by offering a complete variety of options of interaction with computational resources Integration of Petaflop-Centres The Petascale Systems need a transparent access from and into the national data repositories Bridging worldwide HPC projects © CINECA - WS INAF Marzo 2008

21 Scheda per la segnalazione di Infrastrutture di Ricerca (IR) per la Roadmap Italiana
Infrastruttura di Supercalcolo per l’Italia / HPC - Italian SuperComputing Infrastructure ACRONIMO HPC-ISI PROPONENTi CINECA - Consorzio Interuniversitario (www.cineca.it) in accordo e con il supporto dei seguenti Enti e Consorzi di ricerca italiani: CNR-INFM: CNR - Dipartimento per la Fisica della Materia INAF: Istituto Nazionale di Astrofisica OGS: Istituto Nazionale di Oceanografia e di Geofisica Sperimentale CNISM: Consorzio Nazionale Interuniversitario per le Scienze Fisiche della Materia INSTM: Consorzio Interuniversitario Nazionale per la Scienza e Tecnologia dei Materiali ICTP: International Centre for Theoretical Physics SISSA: Scuola Internazionale Superiore di Studi Avanzati CMCC: Centro Euro-Mediterraneo per i cambiamenti climatici Servizio Meteorologico Emilia Romagna e Presidenza del Consiglio dei Ministri /Protezione Civile Istituto Ortopedico Rizzoli – Coordinamento Europeo Iniziativa Virtual Physiological Human Iniziativa nazionale per la fluido dinamica computazionale Rete Nazionale dei centri di competenza sui rischi naturali della Protezione Civile Gli Atenei membri del Consorzio CINECA © CINECA - WS INAF Marzo 2008

22 Obiettivo In questo scenario, la IR proposta ha l’obiettivo di realizzare “l’Infrastruttura di Supercalcolo per l’Italia” da inserirsi nell'ambito del modello a piramide definito dalla Commissione Europea. La IR sarà costituita dal Tier 1 per l’Italia, che si indica venga reso disponibile presso il CINECA, che dovrà essere potenzialmente in grado di scalare al Tier 0, e sarà inoltre costituita dalla integrazione in modalità grid del sistema distribuito dei centri di supercalcolo regionali e disciplinari con particolare riferimento ai centri PON (COMETA, COSMOLAB, CRESCO, Università Federico II) e ai Consorzi di Supercalcolo CILEA e CASPUR. © CINECA - WS INAF Marzo 2008

23 Elementi economici Costi Strategia finanziamento 100 KEuro
Spese di procurment Fase di Costruzione 70 MEuro Noleggio operativo spalmato su di un periodo di 4 anni. I costi sono stimati per l’implementazione di una IR da posizionarsi a Tier0 e includono i costi di acquisizione del sistema di calcolo e i costi marginali per l’adeguamento del sistema di distribuzione della energia elettrica e dell’impianto di condizionamento Il CINECA cofinanzia direttamente l’iniziativa con un investimento diretto dell’ordine di 20MEuro Operatività Annua (incluso supporto utenti) 10 MEuro I costi includono il servizio di manutenzione delle apparecchiature, i costi diretti di esercizio, i costi diretti di gestione e i costi per l’attività di supporto utenti, disseminazione, formazione, collaborazione scientifica Chiusura e Smantellamento 100 KEuro Il carattere di persistenza della infrastruttura non implica costi di smantellamento, per altro i costi di sostituzione dei sistemi di calcolo sono in genere inclusi nella fornitura successiva. © CINECA - WS INAF Marzo 2008

24 Supercomputer Definitions: the CINECA point of view
A modern supercomputer is an enabler for capability computing in sufficient capacity. High latency Low latency Low integration High integration Internet GRID INFN GRID EGEE Capacity cluster Capacity supercomputer Distributed supercomputing DEISA Capability supercomputer Enabling computing CINECA © CINECA - WS INAF Marzo 2008

25 Evoluzione del sistema per il calcolo tecnico scientifico
primo supercalcolatore in Italia 1969: CDC 6600 1975: CDC 7600 1985: Cray X-MP / 4 8 1989: Cray Y-MP / IBM VF 1993: Cray C-90 / 2 128 1994: Cray T3D 64 Cray C-90 / (IBM SP2 32) 1995: Cray T3D 128 Cray C-90 / (IBM SP2 32) 1996: Cray T3E Cray C-90 / (IBM SP2 32) 1998: Cray T3E SGI Origin 16 1999: Cray T3E SGI Origin IBM SP Power 3 16 2000: Cray T3E SGI Origin IBM SP Power 3 128 2002: IBM SP4 512 SGI Origin 128 2004: IBM CLX Xeon 1024 IBM SP4 512 SGI Origin 128 2005: IBM SP IBM CLX Xeon 1024 2006: IBM BCX Amd 5120 IBM SP5 512 IBM BCC 1024 2007: IBM BCX Amd 5120 IBM Eni Linux cluster 10240 2009: 100 TF introduzione dei sistemi vettoriali introduzione dei sistemi paralleli introduzione dei sistemi massivamente paralleli Introduzione di un sistema di classe tera flop Introduzione di un sistema di classe 10x tera flop Introduzione di un sistema di classe 100x tera flop © CINECA - WS INAF Marzo 2008

26 Alcune considerazioni Tecnologiche
I sistemi cluster hanno raggiunto il livello di maturità ed il limite di sviluppo Esistono tre strategie di evoluzione Potenza del microprocessore: strategia IBM Power 6 ( verso i 10Ghz di clock Miglioramento delle prestazioni del sistema di interconnessione: strategia Cray (Rete di interconnesione proprietaria; utilizzo del bus AMD Hyper transport; eliminazione del jittering a livello del sistema operativo… Utilizzo di componenti a basso costo e basso consumo per realizzare sistemi ultra massively parallel: Strategia IBM Blue Gene Affiorano configurazioni di sistemi ibridi: scalare vettoriale; coprocessori (GPU, Cell, FPGA… Con riferimento alle strategie di evoluzione precedenti 100 TF si ottengono con configurazioni del tipo: 5/6 K processori Power 6 (IBM SP6) 10/15 K processori AMD (Cray XT4 / 5) 50 / 60 K processori PowerPC (IBM Blue Gene) © CINECA - WS INAF Marzo 2008


Scaricare ppt "Dipartimento Sistemi & Tecnologie D. S&T"

Presentazioni simili


Annunci Google