Scaricare la presentazione
La presentazione è in caricamento. Aspetta per favore
PubblicatoAloisia Mancuso Modificato 9 anni fa
2
Ing. Giovanni B. Barone Convegno PON RECAS - Napoli, 16 dicembre 2014 ReCaS Napoli
3
Obiettivi di progetto Ampliamento dei Sistemi Hardware e degli Impianti di due siti preesistenti Implementazione rete alte prestazioni e bassa latenza che unisce i due datacenter in un unico sistema Sistema di monitoraggio complesso che serve l’alta affidabilità degli impianti di condizionamento dei sistemi e dei servizi H24x365 Potenza elaborativa (kHepSpec) Storage (Pbyte) UNINA60,8 INFN-NA20,3 Velocità programmata della rete: fino a 40Gbps Potenza di calcolo: 132 server, 4628 core + 3500 core pre-esistenti (Datacenter SCoPE) Capacità di memorizzazione: 4957 TB e 300 TB pre- esistenti (Datacenter SCoPE )
4
Data Center SCOPE
5
INFN-Impianti 9 Nuovi Rack Rittal refrigerati internamente e allestiti con sensori di temperatura, umidità, apertura porte ed antincendio. Sistema di monitoraggio Rack Centralizzato tramite CMC Nuovo Chiller messo in ridondanza con il preesistente monitorabile via rete 2 UPS da 250 kVA dedicati per la sala Nuovo quadro elettrico
6
INFN-Network 1 nuovo router di centro stella HP 10500 con 144 porte a 10Gbit/s Cablaggio in fibra ottica a stella su tutti i rack della sala verso il centro stella per un totale di 492 coppie di fibre. Cablaggio in fibra monomodale verso il capannone di SCoPE per il peering con il centro stella di ReCaS-Unina e per la connessione diretta dell’isola Tier2 al nuovo router di centro stella HP Switch top-of-rack con cablaggio in rame per rete di Management con concentratore nel rack del centro stella
7
INFN-Sistemi Sistemi di calcolo 34 Server Olidata da 64 core 265GB di ram 6/8 TB di disco per server reti a 10Gbit/s per un totale di 2.176 cores. 3 server per virtualizzazione e frontend servizi Grid/Cloud, per un totale di 192 cores Sistemi di storage 4 Sistemi di Storage in fibra, 8 Front End con connessioni da 2X10Gbit e 4x10Gbit, per un totale di 1.2PB RAW Tutti i rack già predisposti per prossime espansioni
8
Gli impianti tecnologici-SCoPE Realizzati durante il progetto PON SCoPE, sono di due tipi: dedicati all'alimentazione elettrica (power), posti su una superficie scoperta di circa 100 mq. dedicati al raffreddamento (cooling), consistenti in: chiller posti sulla superficie scoperta di circa 130 mq sita a sinistra del Data Center, altre componenti poste all'interno dei rack del Data Center.
9
L'architettura di rete telematica interna è caratterizzata dalle seguenti componenti funzionali: connettività a bassa latenza in tecnologia Infiniband (IB) dei nodi blade del sistema di calcolo SCoPE connettività Fibre Channel (FC) per l'interconnessione tra i sistemi di storage e i sistemi di servizio con I/O intensivo connettività in rete locale 1Gb ethernet (1GbE) per i sistemi di servizio, di gestione e di controllo connettività in rete locale 10 Gb ethernet (10GbE) per l'interconnessione dei nodi di calcolo del sistema ReCaS connettività geografica di campus in tecnologia 10Gb ethernet (10GbE) UNINA - Network
10
Polo Calcolo Napoli - Network L'infrastruttura collega, attraverso un anello di connettività, inter- ateneo la sala del Datacenter SCoPE con i CED di INFN (ospitato nella sala 1G01 del Dip.to di Fisica) e del Dip.to di Matematica ed Applicazioni. SCoPE e INFN sono, a loro volta, collegati direttamente alla rete della ricerca GARR con più link ridondati.
11
UNINA - I sistemi di memorizzazione dati Sistema SCoPE Una Storage Area Network EMC 2 da 100 TB Una Storage Area Network Dell Equallogic PS5000XV da 24TB Sistema ReCaS 4 Storage Area Network Dell Power Vault 3660f per complessivi 432 TB
12
304 nodi di calcolo DELL blade M600 biprocessore quadcore (organizzati in 19 chassis DELL M1000) di cui: 280 con connettività internodo basata su Infiniband per applicazioni parallele basate su MPI; 24 con connettività Fibre Channel per applicazioni con I/O intensivo verso la Storage Area Network; UNINA - I sistemi di calcolo Sistema SCoPE 19 nodi di servizio DELL Power Edge 1950 biprocessore quadcore; 10 nodi di servizio DELL Power Edge 2950 biprocessore quadcore con connettività FC verso la SAN.
13
10 nodi di calcolo HP DL560G8 quadriprocessore 8-core 15 DELL Power Edge R720XD biprocessore 8-core (particolarmente indicati per applicazioni data intensive) 6 nodi di calcolo SuperMicro As-2042G quadriprocessore 16- core (particolarmente indicati per applicazioni multicore) 3 nodi di calcolo DELL Power Edge R815 quadriprocessore 16- core (particolarmente indicati per applicazioni multicore) 3 nodi di calcolo Power Edge R720 biprocessore 8-core con 5 GPGPU NVIDIA Tesla K20 (5GB di RAM e 2496 CUDAcore ciascuna) UNINA - I sistemi di calcolo Sistema ReCaS
14
2 chassis DELL M1000e con 4 blade M915 quadriprocessore 16-core (particolarmente indicati per applicazioni multicore) e 4 blade M620 ciascuno 1 nodo di calcolo SuperMicro SYS-72TRF+ con una GPGPU NVIDIA Tesla M2090 (6GB di RAM e 512 CUDAcore) e una MIC Intel® Xeon Phi™ Coprocessor 3120P (6GB, 1.100 GHz, 57 core) 3 nodi di calcolo DELL Power Edge R510 biprocessore 6-core 5 nodi di servizio DELL Power Edge R720 biprocessore 8-core 2 nodi di servizio Power Edge R515 biprocessore 8-core UNINA - I sistemi di calcolo Sistema ReCaS
15
Caratteristiche di riferimento per la scelta dei sistemi Sistemi di calcolo sia di tipo “general purpose” (UNINA): scelti sulla base delle esigenze molto diversificate dell’utenza di Ateneo sia orientati a specifici esperimenti (INFN): con numero elevato di core per server e dischi locali con maggiore capienza Sistemi di storage orientati alla scalabilità orientati all’efficienza e all’affidabilità
16
I servizi: alcune strategie per l'efficienza e l'affidabilità Tecniche di virtualizzazione per risparmiare sui costi di gestione, aumentare l’affidabilità dei servizi, semplificare la gestione sia ordinaria che straordinaria (backup, snapshot, cloni) dei servizi, integrare i paradigmi di accesso all’infrastruttura (ad es. Grid/Cloud) Policy di scheduling per aumentare la dinamicità del sistema, aumentare l’efficienza complessiva del sistema, garantire un utilizzo armonico (bilanciato, efficiente ed efficace) delle risorse di calcolo da parte di una utenza variegata
17
Il supporto all’utenza Per guidare e supportare le comunità scientifiche verso l'utilizzo “efficace ed efficiente” della piattaforma di calcolo si è consolidato un approccio che si esplica nell'avvicinamento delle diverse comunità interessate, con l'obiettivo di: comprendere la tipologia di applicazioni di interesse per ciascuna comunità individuare le esigenze delle varie applicazioni in termini di risorse hardware e software
18
Attività di gestione e supporto all’utenza Manutenzione ordinaria e straordinaria dei locali e degli impianti Cura dell’interazione con le ditte di manutenzione Monitoraggio costante dei parametri “vitali” dell'infrastruttura, dei parametri ambientali, dello stato degli impianti, della rete e dei sistemi, dello stato dei servizi, dei livelli di servizio (SLA) rispetto a quelli negoziati in ambito locale, nazionale e internazionale, Gestione degli incidenti di sicurezza e gestione dei ticket locali, nazionali ed internazionali Aggiornamenti «minor release» e «major release» di sistemi e middleware (Grid e Cloud) e del middleware applicativo Incontri periodici con «vecchi» utenti e appuntamenti ad hoc con nuove comunità scientifiche Attività di comunicazione (sito Web, social network, live support con instant messaging, email unica per gli amministratori, mailing list utenti)
19
La nostra idea di gestione
20
Buon Natale!!!!!!
Presentazioni simili
© 2024 SlidePlayer.it Inc.
All rights reserved.