HPC dept. – System Engineer

Slides:



Advertisements
Presentazioni simili
CRESCO – Kick-off meeting LA II – 23 maggio 2006 CRESCO–workshop SPIII– ENEA 06Luglio 2007 ITALIAN NATIONAL AGENCY FOR NEW TECNOLOGY,
Advertisements

A.Fanfani - C.Grandi CMS Bologna 10 febbraio 2009 La nuova farm di CMS Bologna al CNAF Alessandra Fanfani Claudio Grandi.
Il Consolidamento di Servizi Virtual Server 2005 PierGiorgio Malusardi Evangelist - IT Professional Microsoft.
Cluster openMosix Linux Day ’04 Caserta Ing. Diego Bovenzi.
Glossario. AGP Accelerated Graphics Port: architettura di bus che permette alle schede grafiche laccesso diretto al bus di sitema (fino a 100MHz), invece.
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
Proposta di integrazione e consolidamento delle risorse presenti nellinfrastruttura Grid dellItalia Meridionale (L. Merola, )
Global Business Services © 2007 IBM Corporation System i Promuovere linnovazione, semplificare lIT Audrey Hampshire, System i Product Manager Italia.
Aspetti critici rete LAN e WAN per i Tier-2
WP 2.4 al Cnaf Cnaf 13/11/00 P.M Hardware: - 12 PC Rack mountable IBM XSeries 330 (1U) 2 processori Pentium III 800 Mhz, FSB 133 Mhz 512 MB Mem Ecc, Controller.
1 Riunione del 29 Marzo 2007 IL PROGETTO SCoPE Prof. Guido Russo I lavori Le apparecchiature Il portale.
L’inclusione dei comuni piccoli
Riunione CRESCO Infrastruttura HPC Cresco Analisi Preliminare.
Roma - 7 marzo 2007 Casi di successo. Sistemi: E2090, E8090 E5090 su tecnologia Intel Woodcrest Campo di applicazione: montaggio video in HD e SD, qualità
Roma - 7 marzo 2007 Matteo Spatola direttore vendite
La gestione dell'I/O Architettura degli elaboratori 1 - A. Memo La gestione dellI/O 4Prestazioni e generalità 4.1Modelli di funzionamento 4.2Dischi.
Polo SBN della Sapienza e della Regione Lazio tra passato, presente e futuro: uno sguardo alla tecnologia Ugo Contino SBN 2004 Vecchio.
Supercalcolo al CILEA: risorse e opportunità CAPI /11/2005 Dr. Claudio Arlandini, PhD HPC System Administrator.
BUS di comunicazione Da Testo Maeran. BUS caratteristiche generali Semplicità (minori costi) Standard (in modo che chiunque produce HW lo possa.
Reti di Calcolatori L-S Un Sistema Decentrato di Allocazione del Carico per Applicazioni di Calcolo Distribuito Mauro Bampo.
Michele Michelotto INFN-Padova
LNL M.Biasotto, Bologna, 18 ottobre La farm CMS di Padova - Legnaro Proposta di acquisto hardware 2° semestre 2001.
LNL M.Biasotto, Bologna, 19 marzo La farm CMS di Padova - Legnaro Proposta di acquisto hardware 1° semestre 2001.
1 M. Biasotto – Legnaro, 22 Dicembre 2005 Prototipo Tier 2 di Legnaro-Padova INFN Legnaro.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
Case study Maiora srl.
Presentazione di Dell PowerEdge VRTX. 2 Dell PowerEdge VRTX Programma Panoramica del prodotto Scenari per la soluzione Vantaggi per i clienti.
Benvenuti a Un incontro informativo di grande valore ed alto contenuto sulla Virtualizzazione e sistemi ad alta disponibiltà per le PMI.
Università Politecnica delle Marche
Il Calcolatore Elettronico
Atempo Time Navigator HyperStream Server La prima installazione italiana Bologna, 27 aprile 2010.
Presentazione Sistema Trasmissivo ad alta velocità in tecnologia SHDSL
Stefano Di Giovannantonio ECM Consulting Solution Expert
Benigno Gobbo – INFN Trieste 1 CSNI 21 maggio 2001 Stato della farm di COMPASS-TS CSNI Roma, 21 maggio 2001 Benigno Gobbo INFN Trieste
Centro Regionale di Competenza Analisi e Monitoraggio del Rischio Ambientale Sezione Tematica MODELLISTICA responsabile LUCILLA DE ARCANGELIS.
Stefano Zani e Pierpaolo Ricci (INFN CNAF)
Architettura di storage ad alta affidabilita e bilanciamento di carico per volumi centrali e di esperimento A.Brunengo, M.Corosu INFN Sezione di Genova.
Il supercalcolo fai-da-te
Dischi in RAID  Redundant Array of Independent Disk Configurazione che permette di combinare più dischi secondo obiettivi di performance e ridondanza.
Lenovo ® ThinkServer ® RD350 e RD450 Nome relatore, titolo - Data.
Works in progress.  Semplificazione e maggiore efficienza della gestione  Risparmio (nel medio periodo)  Riallocazione delle risorse (hardware e timesheet)
Riunione gruppo storage – Roma 05/05/2005 Test di affidabilita’ e performance a Genova Alessandro Brunengo.
G. Bracco – LAB-TOUR Casaccia 18 Giugno 2014 LAB-TOUR 2014 Casaccia 18 giugno 2014 UTICT-HPC : Calcolo scientifico ad alte prestazioni IN ENEA G.Bracco.
Servizio Sistema Informativo - Area Gestione Sistemi e Sicurezza – LNF – Dael Maselli Area Gestione Sistemi e Sicurezza LNF Plenaria Servizio Sistema Informativo.
G. Bracco - Inaugurazione CRESCO4 - Portici, 12 Marzo 2014 Inaugurazione CRESCO4 Portici 12 Marzo 2014 CRESCO4 & ENEAGRID per TEDAT e per il calcolo scientifico.
Servizio Sistema Informativo - Area Gestione Sistemi e Sicurezza – LNF – Dael Maselli Area Gestione Sistemi e Sicurezza LNF Plenaria Servizio Sistema Informativo.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
Benvenuti al Un incontro informativo di grande valore ed alto contenuto sulla Virtualizzazione e sistemi ad alta disponibiltà per le PMI.
Servizio Sistema Informativo - Area Gestione Sistemi e Sicurezza – LNF – Dael Maselli Area Gestione Sistemi e Sicurezza LNF Plenaria Servizio Sistema Informativo.
Workshop CCR Otranto - giugno 2006 Gruppo storage CCR Status Report Alessandro Brunengo.
Alessandro Tirel - Sezione di Trieste Storage Area Network Riunione gruppo Storage Padova, 5 ottobre 2005.
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
SEMINARI CAMO 2003 LA SIMULAZIONE NUMERICA COMPIE 50 ANNI
Ing. Giovanni B. Barone Convegno PON RECAS - Napoli, 16 dicembre 2014 ReCaS Napoli.
Uso Didattico dell'Informatica Storica 07 STORIA DEI MICROPROCESSORI E INTRODUZIONE ALLA VIRTUALIZZAZIONE prof. Cuoghi Giampaolo ITIS “A.Volta” Sassuolo.
Dischi magnetici e scheduling del braccio del disco Pag. 216 – 224.
Roberto Covati INFN di Parma. Workshop CCR/INFN GRID Palau maggio Sommario VmWare Server (in produzione dal 2004 al 2008) VmWare Infrastructure.
Implementazioni di un analizzatore di protocollo Esistono quattro fondamentali tradeoff per la realizzazione di un analizzatore di protocollo:  Analisi.
Roberto Covati – Roberto Alfieri INFN di Parma. Incontri di lavoro CCR dicembre Sommario VmWare Server (in produzione dal 2004) VmWare ESX.
Brunengo - Padova - 18/12/2007 Infrastrutture di storage per Tier2 Gruppo storage CCR.
HARDWARE (2). MEMORIE Due classi di memoria MEMORIA CENTRALE –media capacità - ottima velocità MEMORIA DI MASSA elevata capacità - bassa velocità.
DA e controlli DAFNE Riccardo Gargana Frascati 13/12/ /12/13.
Progetto iSCSI Report alla CCR 12-13/12/2006 Alessandro Tirel – Sezione di Trieste.
Martedi 8 novembre 2005 Consorzio COMETA “Progetto PI2S2” UNIONE EUROPEA Accesso all’infrastruttura Grid del Consorzio COMETA Grid Open Day alla Facoltà.
Attività Gruppo Virtualizzazione Andrea Chierici CNAF CCR
Test di storage a 10 Gbps proposta. Storage server a 10Gbps Si vuole vedere quali prestazioni si possano ottenere da server connessi a 10 GE –capacita’
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
CCR - Roma 15 marzo 2007 Gruppo storage CCR Report sulle attivita’ Alessandro Brunengo.
Alessandro Tirel - Sezione di Trieste Storage servers & TCP Tuning Proposta di studio delle problematiche connesse alla fornitura di servizi di storage.
Roma - 7 marzo 2007 Casi di successo.
Transcript della presentazione:

HPC dept. – System Engineer Simone Tinti HPC dept. – System Engineer simone.tinti@e4company.com

www.e4company.com simone.tinti@e4company.com Attività R&D Analisi mercato: prodotti e campi di impiego Analisi dei componenti Studi di compatibilità Misura ed analisi di prestazioni Tuning sistemi Validazione soluzioni HPC Affidabilità www.e4company.com simone.tinti@e4company.com

www.e4company.com simone.tinti@e4company.com Evoluzione sistemi HPC L’utilizzo di architetture cluster e’ in continua ascesa, attualmente costituiscono la piattaforma piu’ diffusa per lo sviluppo di applicazioni HPC Nov 2006: il 72% dei sistemi presenti nella TOP 500 e’ basato su cluster www.e4company.com simone.tinti@e4company.com

www.e4company.com simone.tinti@e4company.com Evoluzione sistemi operativi Migrazione da sistemi UNIX a Linux www.e4company.com simone.tinti@e4company.com

www.e4company.com simone.tinti@e4company.com Evoluzione verso gli standard di mercato Il 75% dei sistemi è basato su CPU x86 32/64 bit I sistemi di recente adozione sono basati su CPU multi-core Gigabit Ethernet entry level Progressiva riduzione delle soluzioni proprietarie www.e4company.com simone.tinti@e4company.com

www.e4company.com simone.tinti@e4company.com Evoluzione sistemi HPC Architettura sistemi Hardware (CPU, Interconnesioni) Software (SO, MPI) Semplicità Standard Open source La tecnologia basata su “commodity of the shelf” si va consolidando come la soluzione ideale per le applicazioni HPC: Miglior rapporto prezzo/prestazioni Flessibilità Ampia diffusione => scambio di conoscenze con un ampia community Facile integrazione con infrastrutture preesistenti www.e4company.com simone.tinti@e4company.com

Integrazione di servizi Validazione del sistema Integrazione di un sistema HPC Requisiti Progettazione Dimensionamento Selezione componenti Interconnessione Deployment Integrazione di servizi Validazione del sistema www.e4company.com simone.tinti@e4company.com

www.e4company.com simone.tinti@e4company.com Progettazione di un cluster HPC Componenti / Dimensionamento I/O bound Memory bound Architettura del nodo computazionale UMA (INTEL) NUMA (AMD) Nsocket / nodo Ncore / socket RAM ( GB/core) Interconnessione Topologia Tecnologia GbE 10 GbE Infiniband Myrinet CPU bound Codici eterogenei Analisi dei requisiti Elemento essenziale nella progettazione di un sistema www.e4company.com simone.tinti@e4company.com

Scelta del nodo computazionale Architettura Non Uniform Memory Access (AMD) Architettura Uniform Memory Access (INTEL) Fattore di forma: [1U,5U] Nsocket: [1,8] Ncore: [2], 4 da luglio 2007 Blade: 264 core/rack (1,37 TFLOPS@2,6GHz) Fattore di forma: [1U,6U] Nsocket: [1,4] Ncore: [2,4], 8/16 nel 2008 Blade: 7U, 28 socket, 56 core New: blade quad core 528 core/rack!!! (2,8 TFLOPS@2,66GHz) Dato l’alto numero di combinazioni possibili per effettuare la scelta più idonea occorre affidarsi a: Analisi Esperienza … ma soprattutto test! www.e4company.com simone.tinti@e4company.com

www.e4company.com simone.tinti@e4company.com Nodi computazionali INTEL Soluzione “classica”: biprocessore dual/quad core, 16 DIMM socket (32GB) Twin 1U 2 motherboard in uno chassis 2 CPU quad core / motherboard => 16 core in 1U (85GFLOPS) Alimentatore condiviso => alta efficienza 2 x Infiniband 20Gbps HBA integrati 2 x 8 DIMM socket (32GB/chassis) www.e4company.com simone.tinti@e4company.com

www.e4company.com simone.tinti@e4company.com Nodi computazionali AMD Soluzione “classica”: biprocessore dual core, 16 DIMM socket (32GB). Quad core da luglio 2007 E8344: 3U - 4 way Opteron 4 CPU Opteron Dual Core 32 DIMM socket (128GB RAM) 3 slot PCI-Express (2 slot 16x) 3 slot PCI-X 133MHz 64 bit 6 HD Versatile: Nodo di calcolo Piattaforma per CAE Server per applicazioni grafiche www.e4company.com simone.tinti@e4company.com

www.e4company.com simone.tinti@e4company.com Nodi computazionali AMD E85xx: 5U - 8 way Opteron 8 CPU Opteron Dual Core 32 DIMM socket (128GB RAM) 2 slot PCI-Express 16x 8 HD Soluzione di managment Sistema SMP ideale per simulazione di modelli complessi in ambito fisico, chimico, biomedico www.e4company.com simone.tinti@e4company.com

Soluzioni blade AMD / INTEL Densità estrema: 66 blade biprocessore quad core 528 core / rack 2,8TFLOPS / rack 66 blade biprocessore dual core AMD Opteron 264 core / rack 1,37 TFLOPS / rack INTEL AMD Interconnessione : GbE, Myrinet, Infiniband Sistema di raffreddamento innovativo Alimentazione ad alta efficienza Ie blade sono alimentate in DC, al conversione AC-> DC avviene all’ingresso del rack. Efficienza 83%, contro i tradizionali 63-73% www.e4company.com simone.tinti@e4company.com

www.e4company.com simone.tinti@e4company.com Interconnessioni Gigabit Ethernet entry level su tutte le soluzioni Myrinet 10Gb/s Infiniband DDR 20 + 20 Gb/s (100 Gb/s a breve termine), anche integrata sulla motherboard. Infinipath su slot HTX, per latenze inferiori ai 2 microsecondi La prima installazione infiniband (24 nodi Opteron) risale al giugno 2005 (CASPUR). Espansa a 36 nodi dati gli eccellenti risultati. www.e4company.com simone.tinti@e4company.com

Integrazione di servizi Validazione del sistema Integrazione di un sistema HPC Requisiti Progettazione Dimensionamento Selezione componenti Interconnessione Deployment Integrazione di servizi Validazione del sistema www.e4company.com simone.tinti@e4company.com

www.e4company.com simone.tinti@e4company.com Integrazione di servizi L’offerta HPC è integrabile da una gamma completa di soluzioni storage (DAS, NAS, SAN) Infiniband switch IB storage Tendenza: System Area Network. Interfaccia Infiniband per MPI e accesso a storage (QoS) Recupero degli investimenti tramite integrazione di dispositivi preesistenti sul l’infrastruttura infiniband (es. gateway IB to FC “trasparenti”) FC storage VIC (Virtual I/O controller) IB to FC or Ethernet www.e4company.com simone.tinti@e4company.com

www.e4company.com simone.tinti@e4company.com Storage Server Soluzione ad alta flessibilità e basso costo sviluppata presso i nostri laboratori, basata su commodity of the shelf: 2 CPU Dual core Woodcrest RAM dimensionabile secondo le esigenze (fino a 16GB DDR2 FBDIMM) Controller SAS/SATA multi lane ad altissime prestazioni 12 TB in 4U 24 TB in 7U 2HD dedicati per il SO Scelta dai professionisti: 65 storage 4U CERN Ginevra, 70 presso uno dei maggiori ISP 7U lab Gran Sasso, CASPUR E5475 – up to 12TB E5730 – up to 24TB www.e4company.com simone.tinti@e4company.com

www.e4company.com simone.tinti@e4company.com Flessibilità Potenza Compatibile con le principali distro Linux (Red Hat, SUSE, Scientific Linux…). Implementabile anche su piattaforma MS Windows SATAII/SAS Interfaccia esterna: Dual Gb Aggregated 4Gb 10 Gb Ethernet Infiniband 20Gb+20Gb per soluzioni HPC Differenti campi applicativi: Back up, nearline storage Video server File server Storage HPC Oltre 350 MB/s Writing, 500MB/s Reading (iozone, xfs, 15HD SATA 7.200 rpm Raid 5) Implementabile in tecnologia SAS 15000 rpm Ottime performace in ambienti con accessi concorrenti (stabile con oltre 100 processi da 2GB) Affidabilità 2 HD dedicati al SO (Raid 1) su controller dedicato Gestione hardware dei principali livelli Raid (tipicamente 5,6) Battery backup unit IPMI compliant Managment Alimentazione ridondata hot swap www.e4company.com simone.tinti@e4company.com

www.e4company.com simone.tinti@e4company.com Storage Area Network Unico Qlogic Signature Partner in Italia Realizzate con le più recenti soluzioni tecnologiche. Stato dell’arte: tecnologia Fibre Channel 4+ 4 Gb multipath Soluzioni in HA Failover per ambienti critici (es finance, biomedics..) Realizzazione di SAN in ambienti eterogenei: Istituti di credito Enti pubblici (Ministero Tesoro) Meteorologia (ARPA) Biomedicina (Chiron/Novartis) Industria/commercio Elaborazione immagini/ visione artificiale QUAD www.e4company.com simone.tinti@e4company.com

www.e4company.com simone.tinti@e4company.com E65xx Caratteristiche tecniche Chassis 2U 12 HD SAS/SATA II SATAII: fino a 9 TB SAS: fino a 3,6 TB Full system, 10U – 5 chassis SATA II: 42 TB SAS: 16,8 TB Possibilità di mix SATAII/SAS per differenziare aree back-up e intensive I/O Interfaccia host: Fibre channel 4Gb SAS iSCSI Infiniband (entro 2007) Super capacitor cache back up Mirrored cache (Simulcache) Assured snapshot www.e4company.com simone.tinti@e4company.com

Fibre Channel Interface Forecast 2004 2005 2006 2007 2008 1 Gb/s 1.0% 0% 2 Gb/s 93.0% 64.1% 17.0% 3.0% 4 Gb/s 5.0% 32.4% 75.0% 85.0% 73.0% 8/10 Gb/s 3.5% 8.0% 12.0% 27.0% Source: Gartner Dataquest (November 2005) www.e4company.com simone.tinti@e4company.com

www.e4company.com simone.tinti@e4company.com SAN per HPC Grazie alla collaborazione nata con Data Direct Network possiamo offrire soluzioni estreme in ambito storage Fino a 560TB in un singolo storage system +3GB/s sustained performance, sia in lettura che scrittura Petascale solution (transfer rate nell’ordine dei TB/s) Ideale per: HPC, Visualization, Modeling Simulation, Real-Time Data Acquisition, Biomedicine, Genomics, Medical Imaging, Oil & Gas Soluzioni adottate dai sistemi più performati della TOP500, ma anche nel settore finanziaro e “rich” media (WB, CNN, Disney, BBC, FOX, Time Warner…) www.e4company.com simone.tinti@e4company.com

www.e4company.com simone.tinti@e4company.com Ulteriori servizi Monitoring / management soluzioni free, open source (Torque, MAUI, System Imager, Ganglia) soluzioni enterprise (SCALI Manage, Altair PBS Pro…) Infrastrutture ambientali Tool di sviluppo ed ottimizzazione Compilatori INTEL, Pathscale, PGI INTEL VTune performance analyzer Dispositivi programmabili multi-threaded array cooprocessor FPGA www.e4company.com simone.tinti@e4company.com

Integrazione di servizi Validazione del sistema Integrazione di un sistema HPC Requisiti Progettazione Dimensionamento Selezione componenti Interconnessione Deployment Integrazione di servizi Validazione del sistema www.e4company.com simone.tinti@e4company.com

www.e4company.com simone.tinti@e4company.com Validazione dei sistemi Affidabilità: elemento essenziale, garantito dal ciclo produttivo di E4 Selezioni componenti di qualità Processo produttivo curato in tutti i dettagli Burn-in Almeno 72h prove di stress accelerato in stanza con condizioni climatiche limite 24h Test di tutti i sottosistemi singolarmente 48h test di tutti i sottosistemi contemporaneamente www.e4company.com simone.tinti@e4company.com

www.e4company.com simone.tinti@e4company.com Conclusioni Semplicità Potenza Affidabilità Integrazione COTS Tool di management Sistemi ad alta densità basati su CPU multi-core Interconnessioni low latency / high bandwith SW consolidato Selezione HW Accurato testing del sistema Monitoring / management Storage Area Network System Area Network FPGA, cooprocessor www.e4company.com simone.tinti@e4company.com

Grazie per l’attenzione!