La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

1 © CINECA - WS INAF Marzo 2008 Dipartimento Sistemi & Tecnologie D. S&T Evoluzione del sistema di supercalcolo CINECA Casalecchio di Reno (BO) Via Magnanelli.

Presentazioni simili


Presentazione sul tema: "1 © CINECA - WS INAF Marzo 2008 Dipartimento Sistemi & Tecnologie D. S&T Evoluzione del sistema di supercalcolo CINECA Casalecchio di Reno (BO) Via Magnanelli."— Transcript della presentazione:

1 1 © CINECA - WS INAF Marzo 2008 Dipartimento Sistemi & Tecnologie D. S&T Evoluzione del sistema di supercalcolo CINECA Casalecchio di Reno (BO) Via Magnanelli 6/3, Casalecchio di Reno | |

2 2 © CINECA - WS INAF Marzo 2008 La facility ARRIVO ENEL GE 250 KVA GE KVAGE KVAGE KVA CAB A Q. BT A Q. GE 250 PC I a fase UPS ( )/2 UPS ( ) PC IIa fase UPS 2K/A 1-4 UPS 2K/B 5-8 Q. CDZ 1 Q. CDZ ENI Q. GE 3 Q. CDZ CRAY Q. CDZ SM CAB B1CAB B CAB C CROSS MT BT SUPER CALCOLO CINECA HOSTING ENI Q, BT B Q. BT C CROSS UPS ( )/1

3 3 © CINECA - WS INAF Marzo 2008 Potenze Installate 2007 Potenza impegnata contrattualmente con ENEL4200 KW N°3 trasformatori in resina MT/BT Pn=1000 kVA cad.3000 kVA N°2 trasformatori in resina MT/BT Pn=800 kVA cad.1600 kVA N°3 trasformatori in resina MT/BT Pn=1600 kVA cad.4800 kVA UPS kVA500 kVA N°2 Sistemi UPS (3x80 kVA)480 kVA N°2 Sistemi UPS 2000 kVA4000 kVA GE kVA1750 kVA GE kVA1750 kVA GE kVA1750 kVA GE 250 kVA250 kVA

4 4 © CINECA - WS INAF Marzo 2008 Infrastruttura HPC al CINECA Servizio calcolo scientifico

5 5 © CINECA - WS INAF Marzo 2008 Infrastruttura HPC al CINECA Servizio Calcolo Tecnico Nome Logico ENI ENI ENI ENI07ENI08 ModelloIBM LS21IBM HS21IBM LS21IBM HS21 ArchitetturaLinux Cluster Processore AMD Opteron Dual-Core 2.6 Ghz Intel Xeon Dual- Core 3.0 Ghz AMD Opteron Dual-Core 2.6 Ghz Intel Xeon Dual- Core 3.0 Ghz Numero di core 3x Numero di nodi 3x RAM 3x 4096 GB 8192 GB GB Rete di interconnesione CISCO Infiniband SDR 4x Sistema operativoRedHat RHEL4 Performance di picco 3x 5.3 Tflops3x 6,1 Tflops10,6 Tflops12,2 Tflops 57 Tflops

6 6 © CINECA - WS INAF Marzo 2008 Infrastruttura di rete locale e rete geografica LANWAN No single point of failure; Multilayer architecture; Separated domain routing Core layer GB/s of routing capacity Internet –GARR 200 Mbps, Tiscali 30 Mbps, FastWeb 20 Mbps. Link wan –DEISA 10 Gbps), ENI 2x1Gbps (2Q07) –2-10 Mbps: meteo, ER Region, Health Min, other private costumers

7 7 © CINECA - WS INAF Marzo 2008 Infrastruttura di storage Integrated for HCP and ICT system Technology transfer from HCP to ICT environment HPC Area scratch: TB; 10 GB/s front end bandwidth HCP repository: TB; 4 GB/s front end bandwidth ICT service: 75 TB; 5-15 TB synchronous / asynchronous replica No single point of failure Adoption of GPFS as parallel file system TIVOLI Storage manager for archiving and back up Storage Servers SVC GPFS cluster Rete IP GPFS (via IP) GPFS (via IP) Cluster A Cluster B … Cluster N NFS SAN HPCSAN ICT Brocade Silkworm2800 Storage Servers Brocade Silkworm12000 Brocade Silkworm48000 replica SVC 2x Cisco MDS9513

8 8 © CINECA - WS INAF Marzo 2008 Posizione nel Top500

9 9 © CINECA - WS INAF Marzo 2008

10 10 © CINECA - WS INAF Marzo 2008 Andamento della produzione

11 11 © CINECA - WS INAF Marzo 2008 Utilizzo per modelli di servizio

12 12 © CINECA - WS INAF Marzo 2008 Utilizzo dei sistemi

13 13 © CINECA - WS INAF Marzo 2008 Distribuzione dellutilizzo da parte degli Enti

14 14 © CINECA - WS INAF Marzo 2008 Il modello di riferimento dellecosistema HPC Europeo

15 15 © CINECA - WS INAF Marzo 2008 Partnership for Advanced Computing in Europe Partnership at State Member Level Italy represented by CINECA delegated by the MUR in collaboration with CNR / INFM 10 Mio EU funded project to define the implementation plan State Member in kind funding for the computing infrastructure implementation, EU co found the transnational access Preparatory phase

16 16 © CINECA - WS INAF Marzo 2008 Prace Consortium members 1 (Coord.)Forschungszentrum Juelich GmbHFZJ (GAUSS)Germany 2Universität Stuttgart – HLRSUSTUTT-HLRS (GAUSS)Germany 3LRZ der Bay. Akademie der WissenschaftenBADW-LRZ (GAUSS)Germany 4Grand Equipement national pour le Calcul I.GENCIFrance 5Engineering and Phys. Sciences Research C.EPSRCUK 6Barcelona Supercomputing CenterBSCSpain 7CSC Scientific Computing Ltd.CSCFinland 8ETH Zürich - CSCSETHZSwitzerland 9Netherlands Computing Facilities FoundationNCFNetherlands 10Joh. Kepler Universitaet LinzGUPAustria 11Swedish National Infrastructure for Comp.SNICSweden 12CINECA Consorzio InteruniversitarioCINECAItaly 13Poznan Supercomputing and Networking CentrePSNCPoland 14UNINETT Sigma ASSIGMANorway 15Greek Research and Technology NetworkGRNETGreece 16Universidade de CoimbraUC-LCAPortugal

17 17 © CINECA - WS INAF Marzo 2008 PRACE Goals MoU: –Plan and manage the transition from the current European cooperation in HPC to a European entity operating a world class Tier 0 HPC service, as defined in the ESFRI Roadmap FP7 Project: Exceute the preparatory phase of the RI –Prepare creation of a persistent pan-European HPC service as a Research Infrastructure (RI) -3-5 Tier-0 centres hosted by different countries -Meeting the demands of excellent users from academia and industry -Integration with the European HPC Ecosystem –Perform all tasks required to facilitate the operation of the RI immediately after the end of the project

18 18 © CINECA - WS INAF Marzo 2008 Preparation of the RI as a single legal entity –Legal form and governance structure, funding, procurement, and usage strategy, Peer Review process –HPC Ecosystem links: European and national HPC infrastructures e.g. DEISA, HPC-Europa, the ESFRI projects, EGEE and EGI, communities, vendors and user industries, … Prepare operation of petascale systems in 2009/2010 –Deployment and benchmarking of prototypes –Porting, optimising, petascaling of applications –Start a process of technology development and assessment for future multi-petascale systems Work plan outline

19 19 © CINECA - WS INAF Marzo 2008 BSC Barcelona Supercomputing Centre Spain CINECA Consorzio Interuniversitario per il Calcolo Automatico Italy CSC Finnish Information Technology Centre for Science Finland EPCC/HPCx University of Edinburgh and CCLRC UK ECMWF European Centre for Medium-Range Weather Forecast UK (int) FZJ Research Centre Juelich Germany HLRS High Performance Computing Centre Stuttgart Germany IDRIS Institut du Développement et des Ressources France en Informatique Scientifique - CNRS LRZ Leibniz Rechenzentrum Munich Germany RZG Rechenzentrum Garching of the Max Planck Society Germany SARA Dutch National High Performance Computing The Netherlands and Networking centre Participating Sites

20 20 © CINECA - WS INAF Marzo 2008 Towards a European HPC Ecosystem – DEISA2 Objectives Enhancing the existing distributed European HPC environment (DEISA) to a turnkey operational infrastructure National HPC Center (T1) National HPC Center (T1) National HPC Center (T1) National Data Center (T1) National Data Center National HPC Center (T1) National HPC Center (T1) Advancing the computational sciences in Europe by supporting user communities and extreme computing projects Enhancing the service provision by offering a complete variety of options of interaction with computational resources Fusion Community Cosmology Community Climate Community Material Sciences Community Weather forecast Communities Industry Communities European Petascale Center (T0) European Petascale Center (T0) European Petascale Center (T0) Integration of Petaflop-Centres The Petascale Systems need a transparent access from and into the national data repositories DEISA2 – The Virtual European HPC Center Operation - Technology - Application USA TeraGrid,DoE Japan NAREGI Chinese Academy Russian Academy DEISA2 Bridging worldwide HPC projects

21 21 © CINECA - WS INAF Marzo 2008 Scheda per la segnalazione di Infrastrutture di Ricerca (IR) per la Roadmap Italiana Infrastruttura di Supercalcolo per lItalia / HPC - Italian SuperComputing Infrastructure ACRONIMO HPC-ISI PROPONENTi CINECA - Consorzio Interuniversitario (www.cineca.it)www.cineca.it in accordo e con il supporto dei seguenti Enti e Consorzi di ricerca italiani: –CNR-INFM: CNR - Dipartimento per la Fisica della Materia –INAF: Istituto Nazionale di Astrofisica –OGS: Istituto Nazionale di Oceanografia e di Geofisica Sperimentale –CNISM: Consorzio Nazionale Interuniversitario per le Scienze Fisiche della Materia –INSTM: Consorzio Interuniversitario Nazionale per la Scienza e Tecnologia dei Materiali –ICTP: International Centre for Theoretical Physics –SISSA: Scuola Internazionale Superiore di Studi Avanzati –CMCC: Centro Euro-Mediterraneo per i cambiamenti climatici –Servizio Meteorologico Emilia Romagna e Presidenza del Consiglio dei Ministri /Protezione Civile –Istituto Ortopedico Rizzoli – Coordinamento Europeo Iniziativa Virtual Physiological Human –Iniziativa nazionale per la fluido dinamica computazionale –Rete Nazionale dei centri di competenza sui rischi naturali della Protezione Civile –Gli Atenei membri del Consorzio CINECA

22 22 © CINECA - WS INAF Marzo 2008 Obiettivo In questo scenario, la IR proposta ha lobiettivo di realizzare lInfrastruttura di Supercalcolo per lItalia da inserirsi nell'ambito del modello a piramide definito dalla Commissione Europea. La IR sarà costituita dal Tier 1 per lItalia, che si indica venga reso disponibile presso il CINECA, che dovrà essere potenzialmente in grado di scalare al Tier 0, e sarà inoltre costituita dalla integrazione in modalità grid del sistema distribuito dei centri di supercalcolo regionali e disciplinari con particolare riferimento ai centri PON (COMETA, COSMOLAB, CRESCO, Università Federico II) e ai Consorzi di Supercalcolo CILEA e CASPUR.

23 23 © CINECA - WS INAF Marzo 2008 Elementi economici CostiStrategia finanziamento 100 KEuroSpese di procurment Fase di Costruzione 70 MEuro Noleggio operativo spalmato su di un periodo di 4 anni. I costi sono stimati per limplementazione di una IR da posizionarsi a Tier0 e includono i costi di acquisizione del sistema di calcolo e i costi marginali per ladeguamento del sistema di distribuzione della energia elettrica e dellimpianto di condizionamento Il CINECA cofinanzia direttamente liniziativa con un investimento diretto dellordine di 20MEuro Operatività Annua (incluso supporto utenti) 10 MEuro I costi includono il servizio di manutenzione delle apparecchiature, i costi diretti di esercizio, i costi diretti di gestione e i costi per lattività di supporto utenti, disseminazione, formazione, collaborazione scientifica Chiusura e Smantellamento 100 KEuro Il carattere di persistenza della infrastruttura non implica costi di smantellamento, per altro i costi di sostituzione dei sistemi di calcolo sono in genere inclusi nella fornitura successiva.

24 24 © CINECA - WS INAF Marzo 2008 Supercomputer Definitions: the CINECA point of view A modern supercomputer is an enabler for capability computing in sufficient capacity. High latency Low latency Low integration High integration Internet GRID INFN GRID EGEE Capacity cluster Capacity supercomputer Distributed supercomputing DEISA Capability supercomputer Enabling computing CINECA

25 25 © CINECA - WS INAF Marzo 2008 Evoluzione del sistema per il calcolo tecnico scientifico 1969: CDC : CDC : CDC : CDC : Cray X-MP / : Cray X-MP / : Cray Y-MP / 4 64 IBM VF1989: Cray Y-MP / 4 64 IBM VF 1993: Cray C-90 / : Cray C-90 / : Cray T3D 64Cray C-90 / 2128 (IBM SP2 32)1994: Cray T3D 64Cray C-90 / 2128 (IBM SP2 32) 1995: Cray T3D 128Cray C-90 / 2128 (IBM SP2 32)1995: Cray T3D 128Cray C-90 / 2128 (IBM SP2 32) 1996: Cray T3E 128 Cray C-90 / 2128 (IBM SP2 32)1996: Cray T3E 128 Cray C-90 / 2128 (IBM SP2 32) 1998: Cray T3E 256 SGI Origin : Cray T3E 256 SGI Origin : Cray T3E 256 SGI Origin 64 IBM SP Power : Cray T3E 256 SGI Origin 64 IBM SP Power : Cray T3E 256 SGI Origin 128 IBM SP Power : Cray T3E 256 SGI Origin 128 IBM SP Power : IBM SP4 512SGI Origin : IBM SP4 512SGI Origin : IBM CLX Xeon 1024IBM SP4 512SGI Origin : IBM CLX Xeon 1024IBM SP4 512SGI Origin : IBM SP5 512IBM CLX Xeon : IBM SP5 512IBM CLX Xeon : IBM BCX Amd 5120IBM SP5 512IBM BCC : IBM BCX Amd 5120IBM SP5 512IBM BCC : IBM BCX Amd 5120IBM Eni Linux cluster : IBM BCX Amd 5120IBM Eni Linux cluster : 100 TF2009: 100 TF primo supercalcolatore in Italia introduzione dei sistemi paralleli introduzione dei sistemi massivamente paralleli Introduzione di un sistema di classe tera flop introduzione dei sistemi vettoriali Introduzione di un sistema di classe 10x tera flop Introduzione di un sistema di classe 100x tera flop

26 26 © CINECA - WS INAF Marzo 2008 Alcune considerazioni Tecnologiche I sistemi cluster hanno raggiunto il livello di maturità ed il limite di sviluppo Esistono tre strategie di evoluzione –Potenza del microprocessore: strategia IBM Power 6 ( verso i 10Ghz di clock –Miglioramento delle prestazioni del sistema di interconnessione: strategia Cray (Rete di interconnesione proprietaria; utilizzo del bus AMD Hyper transport; eliminazione del jittering a livello del sistema operativo… –Utilizzo di componenti a basso costo e basso consumo per realizzare sistemi ultra massively parallel: Strategia IBM Blue Gene Affiorano configurazioni di sistemi ibridi: scalare vettoriale; coprocessori (GPU, Cell, FPGA… Con riferimento alle strategie di evoluzione precedenti 100 TF si ottengono con configurazioni del tipo: –5/6 K processori Power 6 (IBM SP6) –10/15 K processori AMD (Cray XT4 / 5) –50 / 60 K processori PowerPC (IBM Blue Gene)


Scaricare ppt "1 © CINECA - WS INAF Marzo 2008 Dipartimento Sistemi & Tecnologie D. S&T Evoluzione del sistema di supercalcolo CINECA Casalecchio di Reno (BO) Via Magnanelli."

Presentazioni simili


Annunci Google