Ing. Giovanni B. Barone Convegno PON RECAS - Napoli, 16 dicembre 2014 ReCaS Napoli.

Slides:



Advertisements
Presentazioni simili
G.Russo, Università di Napoli Federico II
Advertisements

© 2007 SEI-Società Editrice Internazionale, Apogeo Unità D1 Architetture di rete.
Nel ventesimo secolo ci fu la nascita dellinformatica il termine telematica nasce dalla fusione di due termini telecomunicazione e informatica una rete.
Progetto Speciale Prototipo Tier1 F. Ruggieri INFN – CNAF I Workshop CMS Italia del SW e Computing Roma 22 Novembre 2001.
Aspetti critici rete LAN e WAN per i Tier-2
1 Riunione del 29 Marzo 2007 IL PROGETTO SCoPE Prof. Giuseppe Marrucci LAvviso 1575/2004 ed i quattro progetti vincitori Lo stato dellarte del progetto.
1 Riunione del 29 Marzo 2007 IL PROGETTO SCoPE Prof. Guido Russo I lavori Le apparecchiature Il portale.
Riunione CRESCO Infrastruttura HPC Cresco Analisi Preliminare.
COLT Enterprise Cloud Dionigi Faccenda La visione di COLT.
Rete di calcolatori Rete
I NUMERI DI SCoPE 15 Dipartimenti e Strutture Specialistiche 128 Docenti e ricercatori strutturati coinvolti 35Assegni di ricerca 30 Contratti di collaborazione.
Case study Maiora srl.
Presentazione di Dell PowerEdge VRTX. 2 Dell PowerEdge VRTX Programma Panoramica del prodotto Scenari per la soluzione Vantaggi per i clienti.
Benvenuti a Un incontro informativo di grande valore ed alto contenuto sulla Virtualizzazione e sistemi ad alta disponibiltà per le PMI.
Università degli Studi di Cagliari Corso di Laurea in Informatica PROGETTAZIONE DI UN DATA CENTER ANNO ACCADEMICO Docente di riferimento Candidato.
Centro Regionale di Competenza Analisi e Monitoraggio del Rischio Ambientale Sezione Tematica MODELLISTICA responsabile LUCILLA DE ARCANGELIS.
Works in progress.  Semplificazione e maggiore efficienza della gestione  Risparmio (nel medio periodo)  Riallocazione delle risorse (hardware e timesheet)
76 INFRASTRUTTURA DI RETE A SUPPORTO DELLE FACILITY HPC DI CRESCO4 Sito Brindisi Sito Portici Il progetto TEDAT insiste principilamente su due siti ENEA:
Servizio Sistema Informativo - Area Gestione Sistemi e Sicurezza – LNF – Dael Maselli Area Gestione Sistemi e Sicurezza LNF Plenaria Servizio Sistema Informativo.
Servizio Sistema Informativo - Area Gestione Sistemi e Sicurezza – LNF – Dael Maselli Area Gestione Sistemi e Sicurezza LNF Plenaria Servizio Sistema Informativo.
Benvenuti al Un incontro informativo di grande valore ed alto contenuto sulla Virtualizzazione e sistemi ad alta disponibiltà per le PMI.
Servizio Sistema Informativo - Area Gestione Sistemi e Sicurezza – LNF – Dael Maselli Area Gestione Sistemi e Sicurezza LNF Plenaria Servizio Sistema Informativo.
1 G. Marrucci Il progetto SCoPE: Sistema cooperativo distribuito ad alte prestazioni per elaborazioni scientifiche multidisciplinari UNIONE EUROPEA.
Servizio Sistema Informativo - Area Gestione Sistemi e Sicurezza – LNF – Dael Maselli Area Gestione Sistemi e Sicurezza LNF Plenaria Servizio Sistema Informativo.
Internetworking V anno. Le soluzioni cloud per la progettazione di infrastrutture di rete.
Workshop CCR Otranto - giugno 2006 Gruppo storage CCR Status Report Alessandro Brunengo.
Status dei siti COMETA Consorzio COMETA Dott. Emilio Mastriani 03/11/2011.
La Farm di Alice a Torino Workshop sulle problematiche di calcolo e reti Isola d’Elba 6-9 maggio 2002 Mario Sitta (Università del Piemonte Orientale e.
FITEL Telecomunicazioni Soluzioni per tecnologie informatiche e telecomunicazioni.
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
Presentazione Servizi. Di Cosa Ci Occupiamo Hera02 cura per le Aziende i seguenti tre assetti: 1 – I servizi di Telecomunicazioni: Connessione Dati verso.
Riunione Servizi Servizio Calcolo e Reti 13 settembre 2004 Silvia Arezzini.
LIVE TALK - Cloud e Big Data Speed Pitch di Cesare Veneziani, Amministratore Delegato, MC-link.
SERVER FARM. Server Farm 800 mq di spazio suddiviso in 10 locali tecnici Sala di controllo per il monitoraggio delle reti e dei sistemi Sale tecniche.
Progetto "ReCaS" Rete di Calcolo per SuperB e altre applicazioni PON R&C Avviso 254/Ric 1 Workshop CCR/GARR – Napoli, 16 maggio 2012 L. Merola.
Servizio Calcolo Alessandro Brunengo. Indice Attivita’ del servizio calcolo Infrastruttura (sala CED, rete) Servizi centrali Supporto al calcolo scientifico.
GARR-X Progress Modello dell’evoluzione di rete nazionale Riunione CCR - Roma, Presidenza INFN - Roma - 8/settembre/2014
Implementazioni di un analizzatore di protocollo Esistono quattro fondamentali tradeoff per la realizzazione di un analizzatore di protocollo:  Analisi.
Roberto Covati – Roberto Alfieri INFN di Parma. Incontri di lavoro CCR dicembre Sommario VmWare Server (in produzione dal 2004) VmWare ESX.
26 Giugno 2007CSN1 - Frascati1 Temi di attualità nella CCR Accanto alla tradizionale attività di controllo dei finanziamenti per le infrastrutture di calcolo.
Riunione PRIN STOA - Bologna - 18 Giugno 2014 Testbed del T2 distribuito Napoli-Roma Dr. Silvio Pardi INFN-Napoli Riunione PRIN STOA – Bologna 18 Giugno.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
Referaggio apparati di rete per il 2010 Gruppo referee rete Enrico Mazzoni Fulvia Costa Paolo Lo Re Stefano Zani Roma, CCR
17-18 Dicembre 2014 Second Belle II italian collaboration meeting – Dicembre 2014 Networking e calcolo di Belle II a Napoli - Recas Silvio Pardi.
Claudio Grandi Workshop CCR 2015 Claudio Grandi INFN Bologna.
PON a3_00052 "ReCaS" Rete di Calcolo per SuperB e altre applicazioni L. Merola riunione di gruppo I Napoli 21/12/2012 Sito e dominio web del progetto:
Aggiornamento su ReCaS e Tier-2 Atlas Leonardo Merola Riunione Gr. 1 Napoli – 7 gennaio Riunione Gr. 1 Napoli – 7 gennaio 2015 – L. Merola.
FESR Consorzio COMETA - Progetto PI2S2 Il Tier-2 di ALICE a Catania Roberto Barbera Università di Catania e INFN Visita Referee.
Referaggio sigla CALCOLO D. Bonacorsi, G. Carlino, P. Morettini CCR – Roma 9 Settembre 2014.
Rev SOFTWARE CLOUD PER LA GESTIONE DEI SISTEMI DI GESTIONE.
Sistema di monitoraggio integrato Introduzione a cura di P. Mastroserio Servizio Calcolo & Reti Infn-Napoli P. Mastroserio Workshop CCR - INFN Grid Acireale.
Attività e servizi di calcolo a Roma Tor Vergata R. Kwatera, R. Lulli, R. Sparvoli Roma Tor Vergata.
Server & Storage Urgenze e anticipazioni seconde priorità CCR Marzo 2009 AG MM LC.
Progetto ReCaS status update Giuseppe Andronico WS CCR, Catania 28 Maggio 2014.
Aggiornamento sui lavori di ampliamento degli impianti infrastrutturali del TIER1 e stato delle risorse Cristina Vistoli – Massimiliano Fiore INFN-CNAF.
Riunione SICR E. P.. Certificati  Digicert  Server  Personali per dipendenti ed associati  Non associati e macchine su phys.uniroma1.it ?  Problema.
1 ALICE I ITER2 DI ALICE IN ITALIA Bologna, 6 marzo 2007 M. Masera
1 PROGETTO SCoPE Incontro dei Progetti PON Avviso 1575 con il ROC di INFN Grid Catania 04/07/2008 Silvio Pardi.
P. Morettini. Organizzazione della CCR Le principali attività della CCR consistono da un lato nell’assegnazione di fondi per le infrastrutture di rete.
SCOPE: stato e piano di integrazione Phd. Silvio Pardi CNAF
G. Maggi 24/1/2006 Il Progetto del TIER2 di Bari Giorgio Maggi.
Domenico Elia1CdG Tier1-Tier2 / CNAF ALICE Tier2 sites Domenico Elia CdG Tier1-Tier2 Bologna, 15 Aprile 2015  Infrastruttura e risorse, coordinamento.
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
The INFN Tier-1: progetto di ampliamento Cristina Vistoli – INFN CNAF Referee Meeting Sep
Silvia Arezzini 2 luglio 2014 Consiglio di Sezione per Preventivi.
L’infrastruttura del progetto ReCaS Paolo Lo Re on behalf of ReCaS collaboration.
Attivita’ e compiti del Servizio Impianti Calcolo e Reti
Transcript della presentazione:

Ing. Giovanni B. Barone Convegno PON RECAS - Napoli, 16 dicembre 2014 ReCaS Napoli

Obiettivi di progetto Ampliamento dei Sistemi Hardware e degli Impianti di due siti preesistenti Implementazione rete alte prestazioni e bassa latenza che unisce i due datacenter in un unico sistema Sistema di monitoraggio complesso che serve l’alta affidabilità degli impianti di condizionamento dei sistemi e dei servizi H24x365 Potenza elaborativa (kHepSpec) Storage (Pbyte) UNINA60,8 INFN-NA20,3 Velocità programmata della rete: fino a 40Gbps Potenza di calcolo: 132 server, 4628 core core pre-esistenti (Datacenter SCoPE) Capacità di memorizzazione: 4957 TB e 300 TB pre- esistenti (Datacenter SCoPE )

Data Center SCOPE

INFN-Impianti 9 Nuovi Rack Rittal refrigerati internamente e allestiti con sensori di temperatura, umidità, apertura porte ed antincendio. Sistema di monitoraggio Rack Centralizzato tramite CMC Nuovo Chiller messo in ridondanza con il preesistente monitorabile via rete 2 UPS da 250 kVA dedicati per la sala Nuovo quadro elettrico

INFN-Network 1 nuovo router di centro stella HP con 144 porte a 10Gbit/s Cablaggio in fibra ottica a stella su tutti i rack della sala verso il centro stella per un totale di 492 coppie di fibre. Cablaggio in fibra monomodale verso il capannone di SCoPE per il peering con il centro stella di ReCaS-Unina e per la connessione diretta dell’isola Tier2 al nuovo router di centro stella HP Switch top-of-rack con cablaggio in rame per rete di Management con concentratore nel rack del centro stella

INFN-Sistemi Sistemi di calcolo 34 Server Olidata da 64 core 265GB di ram 6/8 TB di disco per server reti a 10Gbit/s per un totale di cores. 3 server per virtualizzazione e frontend servizi Grid/Cloud, per un totale di 192 cores Sistemi di storage 4 Sistemi di Storage in fibra, 8 Front End con connessioni da 2X10Gbit e 4x10Gbit, per un totale di 1.2PB RAW Tutti i rack già predisposti per prossime espansioni

Gli impianti tecnologici-SCoPE Realizzati durante il progetto PON SCoPE, sono di due tipi: dedicati all'alimentazione elettrica (power), posti su una superficie scoperta di circa 100 mq. dedicati al raffreddamento (cooling), consistenti in: chiller posti sulla superficie scoperta di circa 130 mq sita a sinistra del Data Center, altre componenti poste all'interno dei rack del Data Center.

L'architettura di rete telematica interna è caratterizzata dalle seguenti componenti funzionali: connettività a bassa latenza in tecnologia Infiniband (IB) dei nodi blade del sistema di calcolo SCoPE connettività Fibre Channel (FC) per l'interconnessione tra i sistemi di storage e i sistemi di servizio con I/O intensivo connettività in rete locale 1Gb ethernet (1GbE) per i sistemi di servizio, di gestione e di controllo connettività in rete locale 10 Gb ethernet (10GbE) per l'interconnessione dei nodi di calcolo del sistema ReCaS connettività geografica di campus in tecnologia 10Gb ethernet (10GbE) UNINA - Network

Polo Calcolo Napoli - Network L'infrastruttura collega, attraverso un anello di connettività, inter- ateneo la sala del Datacenter SCoPE con i CED di INFN (ospitato nella sala 1G01 del Dip.to di Fisica) e del Dip.to di Matematica ed Applicazioni. SCoPE e INFN sono, a loro volta, collegati direttamente alla rete della ricerca GARR con più link ridondati.

UNINA - I sistemi di memorizzazione dati Sistema SCoPE Una Storage Area Network EMC 2 da 100 TB Una Storage Area Network Dell Equallogic PS5000XV da 24TB Sistema ReCaS 4 Storage Area Network Dell Power Vault 3660f per complessivi 432 TB

304 nodi di calcolo DELL blade M600 biprocessore quadcore (organizzati in 19 chassis DELL M1000) di cui: 280 con connettività internodo basata su Infiniband per applicazioni parallele basate su MPI; 24 con connettività Fibre Channel per applicazioni con I/O intensivo verso la Storage Area Network; UNINA - I sistemi di calcolo Sistema SCoPE 19 nodi di servizio DELL Power Edge 1950 biprocessore quadcore; 10 nodi di servizio DELL Power Edge 2950 biprocessore quadcore con connettività FC verso la SAN.

10 nodi di calcolo HP DL560G8 quadriprocessore 8-core 15 DELL Power Edge R720XD biprocessore 8-core (particolarmente indicati per applicazioni data intensive) 6 nodi di calcolo SuperMicro As-2042G quadriprocessore 16- core (particolarmente indicati per applicazioni multicore) 3 nodi di calcolo DELL Power Edge R815 quadriprocessore 16- core (particolarmente indicati per applicazioni multicore) 3 nodi di calcolo Power Edge R720 biprocessore 8-core con 5 GPGPU NVIDIA Tesla K20 (5GB di RAM e 2496 CUDAcore ciascuna) UNINA - I sistemi di calcolo Sistema ReCaS

2 chassis DELL M1000e con 4 blade M915 quadriprocessore 16-core (particolarmente indicati per applicazioni multicore) e 4 blade M620 ciascuno 1 nodo di calcolo SuperMicro SYS-72TRF+ con una GPGPU NVIDIA Tesla M2090 (6GB di RAM e 512 CUDAcore) e una MIC Intel® Xeon Phi™ Coprocessor 3120P (6GB, GHz, 57 core) 3 nodi di calcolo DELL Power Edge R510 biprocessore 6-core 5 nodi di servizio DELL Power Edge R720 biprocessore 8-core 2 nodi di servizio Power Edge R515 biprocessore 8-core UNINA - I sistemi di calcolo Sistema ReCaS

Caratteristiche di riferimento per la scelta dei sistemi Sistemi di calcolo sia di tipo “general purpose” (UNINA): scelti sulla base delle esigenze molto diversificate dell’utenza di Ateneo sia orientati a specifici esperimenti (INFN): con numero elevato di core per server e dischi locali con maggiore capienza Sistemi di storage orientati alla scalabilità orientati all’efficienza e all’affidabilità

I servizi: alcune strategie per l'efficienza e l'affidabilità Tecniche di virtualizzazione per risparmiare sui costi di gestione, aumentare l’affidabilità dei servizi, semplificare la gestione sia ordinaria che straordinaria (backup, snapshot, cloni) dei servizi, integrare i paradigmi di accesso all’infrastruttura (ad es. Grid/Cloud) Policy di scheduling per aumentare la dinamicità del sistema, aumentare l’efficienza complessiva del sistema, garantire un utilizzo armonico (bilanciato, efficiente ed efficace) delle risorse di calcolo da parte di una utenza variegata

Il supporto all’utenza Per guidare e supportare le comunità scientifiche verso l'utilizzo “efficace ed efficiente” della piattaforma di calcolo si è consolidato un approccio che si esplica nell'avvicinamento delle diverse comunità interessate, con l'obiettivo di: comprendere la tipologia di applicazioni di interesse per ciascuna comunità individuare le esigenze delle varie applicazioni in termini di risorse hardware e software

Attività di gestione e supporto all’utenza Manutenzione ordinaria e straordinaria dei locali e degli impianti Cura dell’interazione con le ditte di manutenzione Monitoraggio costante dei parametri “vitali” dell'infrastruttura, dei parametri ambientali, dello stato degli impianti, della rete e dei sistemi, dello stato dei servizi, dei livelli di servizio (SLA) rispetto a quelli negoziati in ambito locale, nazionale e internazionale, Gestione degli incidenti di sicurezza e gestione dei ticket locali, nazionali ed internazionali Aggiornamenti «minor release» e «major release» di sistemi e middleware (Grid e Cloud) e del middleware applicativo Incontri periodici con «vecchi» utenti e appuntamenti ad hoc con nuove comunità scientifiche Attività di comunicazione (sito Web, social network, live support con instant messaging, unica per gli amministratori, mailing list utenti)

La nostra idea di gestione

Buon Natale!!!!!!