Il Datacenter ReCaS di Bari Le risorse computazionali Giorgio Pietro Maggi Politecnico di Bari Dipartimento Interateneo di Fisica e Sezione INFN di Bari.

Slides:



Advertisements
Presentazioni simili
Il Sistema Informatico d’Ateneo
Advertisements

Progetto Speciale Prototipo Tier1 F. Ruggieri INFN – CNAF I Workshop CMS Italia del SW e Computing Roma 22 Novembre 2001.
Proposta di integrazione e consolidamento delle risorse presenti nellinfrastruttura Grid dellItalia Meridionale (L. Merola, )
Aspetti critici rete LAN e WAN per i Tier-2
1 Riunione del 29 Marzo 2007 IL PROGETTO SCoPE Prof. Giuseppe Marrucci LAvviso 1575/2004 ed i quattro progetti vincitori Lo stato dellarte del progetto.
1 Riunione del 29 Marzo 2007 IL PROGETTO SCoPE Prof. Guido Russo I lavori Le apparecchiature Il portale.
Riunione CRESCO Infrastruttura HPC Cresco Analisi Preliminare.
Roma - 7 marzo 2007 Matteo Spatola direttore vendite
Grid Computing Sergio Andreozzi (INFN-CNAF). A chi interessano i dati prodotti da LHC? Circa 5,000 scienziati –sparsi nel mondo –appartenenti ad istituzioni/università
Grid Computing Sergio Andreozzi. Chi è interessato ad analizzare i dati generati da LHC? Circa 5,000 scienziati –distribuiti nel mondo –appartenenti ad.
Istituto Nazionale di Fisica Nucleare Roma,12 febbraio 2001 Netgroup meeting Situazione attuale e attivita futura - R.Gomezel 1 Netgroup meeting Situazione.
Case study Maiora srl.
Scuola digitale – Lombardia
Rete di Calcolo per SuperB e altre applicazioni
FESR Consorzio COMETA Giuseppe Andronico Industry Day Catania, 30 Giugno 2011 IaaS, PaaS e SaaS: cosa significano per le aziende.
76 INFRASTRUTTURA DI RETE A SUPPORTO DELLE FACILITY HPC DI CRESCO4 Sito Brindisi Sito Portici Il progetto TEDAT insiste principilamente su due siti ENEA:
Servizio Sistema Informativo - Area Gestione Sistemi e Sicurezza – LNF – Dael Maselli Area Gestione Sistemi e Sicurezza LNF Plenaria Servizio Sistema Informativo.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
La Farm di Alice a Torino Workshop sulle problematiche di calcolo e reti Isola d’Elba 6-9 maggio 2002 Mario Sitta (Università del Piemonte Orientale e.
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
Riunione Servizi Servizio Calcolo e Reti 13 settembre 2004 Silvia Arezzini.
Ing. Giovanni B. Barone Convegno PON RECAS - Napoli, 16 dicembre 2014 ReCaS Napoli.
SERVER FARM. Server Farm 800 mq di spazio suddiviso in 10 locali tecnici Sala di controllo per il monitoraggio delle reti e dei sistemi Sale tecniche.
Servizio calcolo e reti Sezione di Catania visita referaggio Tier2 Catania 23/1/06 Ernesto Cangiano.
Progetto "ReCaS" Rete di Calcolo per SuperB e altre applicazioni PON R&C Avviso 254/Ric 1 Workshop CCR/GARR – Napoli, 16 maggio 2012 L. Merola.
Servizio Calcolo Alessandro Brunengo. Indice Attivita’ del servizio calcolo Infrastruttura (sala CED, rete) Servizi centrali Supporto al calcolo scientifico.
GARR-X Progress Modello dell’evoluzione di rete nazionale Riunione CCR - Roma, Presidenza INFN - Roma - 8/settembre/2014
Consiglio di Sezione giugno 2014 Resoconto mandato /06/2014 Autori: Riccardo de Asmundis, Luigi Mea1.
Il Servizio Calcolo e Reti e le attività grid della Sezione INFN di Torino Luciano Gaido.
Tier-2 Legnaro-Padova Massimo Sgaravatto (INFN Padova) On behalf of the Legnaro-Padova T2 team Tier-2 Legnaro-Padova 1.
26 Giugno 2007CSN1 - Frascati1 Temi di attualità nella CCR Accanto alla tradizionale attività di controllo dei finanziamenti per le infrastrutture di calcolo.
Riunione PRIN STOA - Bologna - 18 Giugno 2014 Testbed del T2 distribuito Napoli-Roma Dr. Silvio Pardi INFN-Napoli Riunione PRIN STOA – Bologna 18 Giugno.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Lecce 30 Settembre 2015.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
17-18 Dicembre 2014 Second Belle II italian collaboration meeting – Dicembre 2014 Networking e calcolo di Belle II a Napoli - Recas Silvio Pardi.
WP11 Stato avanzamento lavori CTS - Bologna - 27/03/2015.
Claudio Grandi Workshop CCR 2015 Claudio Grandi INFN Bologna.
PON a3_00052 "ReCaS" Rete di Calcolo per SuperB e altre applicazioni G. Andronico 24/10/
PON a3_00052 "ReCaS" Rete di Calcolo per SuperB e altre applicazioni L. Merola riunione di gruppo I Napoli 21/12/2012 Sito e dominio web del progetto:
Aggiornamento su ReCaS e Tier-2 Atlas Leonardo Merola Riunione Gr. 1 Napoli – 7 gennaio Riunione Gr. 1 Napoli – 7 gennaio 2015 – L. Merola.
FESR Consorzio COMETA - Progetto PI2S2 Il Tier-2 di ALICE a Catania Roberto Barbera Università di Catania e INFN Visita Referee.
Referaggio sigla CALCOLO D. Bonacorsi, G. Carlino, P. Morettini CCR – Roma 9 Settembre 2014.
17 GennaioTier2 Milano G. Costa 1 17-Gennaio-2006.
Dipartimento di Ingegneria elettrica, elettronica e informatica - LAUREA IN INGEGNERIA INFORMATICA, C. GRECO 23/11/2011 S YSTEM R ECOVERY E A FFIDABILITÀ.
Il Data Center ReCaS di Bari e i servizi per l’Università, la ricerca e il territorio Roberto Bellotti Università degli Studi di Bari “Aldo Moro” & Istituto.
Sistema di monitoraggio integrato Introduzione a cura di P. Mastroserio Servizio Calcolo & Reti Infn-Napoli P. Mastroserio Workshop CCR - INFN Grid Acireale.
Attività e servizi di calcolo a Roma Tor Vergata R. Kwatera, R. Lulli, R. Sparvoli Roma Tor Vergata.
FORMAZIONE CCR ANNO 2016 Commissione Calcolo e Reti Trento 16 marzo 2016 Silvia Arezzini (per il gruppo di lavoro, composto anche da Luciano Gaido e Roberto.
Progetto ReCaS status update Giuseppe Andronico WS CCR, Catania 28 Maggio 2014.
Aggiornamento sui lavori di ampliamento degli impianti infrastrutturali del TIER1 e stato delle risorse Cristina Vistoli – Massimiliano Fiore INFN-CNAF.
Riunione SICR E. P.. Certificati  Digicert  Server  Personali per dipendenti ed associati  Non associati e macchine su phys.uniroma1.it ?  Problema.
1 ALICE I ITER2 DI ALICE IN ITALIA Bologna, 6 marzo 2007 M. Masera
Martedi 8 novembre 2005 Consorzio COMETA “Progetto PI2S2” UNIONE EUROPEA Accesso all’infrastruttura Grid del Consorzio COMETA Grid Open Day alla Facoltà.
19/4/2013 D. Menasce, M. Serra - Referaggio Progetti INFRA e WLCG 1.
Stato e previsione rete nelle sedi INFN Survey ed ipotesi di sviluppo fino al 2018 CCR 8-10 Settembre 2018 (Roma) 1 S.Zani (Netgroup)
P. Morettini. Organizzazione della CCR Le principali attività della CCR consistono da un lato nell’assegnazione di fondi per le infrastrutture di rete.
Impianti Elettrici per Tier LNF Ing. Ruggero Ricci Resp. Servizio Impianti Elettrici DTSG - LNF 20 giugno 2011.
G. Maggi 24/1/2006 Il Progetto del TIER2 di Bari Giorgio Maggi.
Domenico Elia1CdG Tier1-Tier2 / CNAF ALICE Tier2 sites Domenico Elia CdG Tier1-Tier2 Bologna, 15 Aprile 2015  Infrastruttura e risorse, coordinamento.
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
LaBiodoloa Attività di sperimentazione RECAS - Catania G. Andronico
Silvia Arezzini 2 luglio 2014 Consiglio di Sezione per Preventivi.
CCR - Roma 15 marzo 2007 Gruppo storage CCR Report sulle attivita’ Alessandro Brunengo.
ALICE Computing Readiness Workshop Tier-2 CNAF Jan 17-18, ALICE Computing Readiness 1) ALICE Italia: Persone & organizzazione 2) Test & commisioning.
L’infrastruttura del progetto ReCaS Paolo Lo Re on behalf of ReCaS collaboration.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Incontro Annuale degli Utenti ReCaS-Bari 4 luglio 2017
Transcript della presentazione:

Il Datacenter ReCaS di Bari Le risorse computazionali Giorgio Pietro Maggi Politecnico di Bari Dipartimento Interateneo di Fisica e Sezione INFN di Bari

Il Sito ReCaS di Bari Il progetto ReCaS a Bari Dal Bc 2 S al Datacenter ReCaS Premessa La risorse computazionali La rete

Costo Complessivo del Progetto: 13.7 MEuro (90% Potenziamento, 10% Formazione) INFN (sedi di NA, BA, CT, CS), UNINA, UNIBA (Budget: 6.9 INFN, 2.1 UNINA, 4.7 UNIBA ) Durata del Progetto: 1 ottobre 2011 – 22 luglio 2015 Durata del Progetto: 1 ottobre 2011 – 22 luglio 2015 ReCaS: 4 Data Center nelle sedi di: Bari, Catania, Cosenza e Napoli 3

I referenti baresi Per UNIBA Prof Roberto Bellotti Prof Giorgio Maggi Per INFN Dr Lucia Silvestris che hanno fatto parte del Comitato di Gestione del progetto Il responsabile tecnico: Giacinto Donvito Domenico Diacono, Alessandro Italiano, Alessandro Casale, Riccardo Gervasoni del Servizio Calcolo e Reti della Sezione INFN di Bari e Sonia Tangaro (INFN) Vincenzo Spinoso, Marica Antonacci, Stefano Nicotri, Alfonso Monaco, Roberto Valentini, Bruno Santeramo (personale TD INFN)

Dal Bari Computer Centre for Science al Data Center ReCaS-Bari 5 CPU: 4’000 Core- Circa 250 nodi di calcolo GPU: 2 Tesla C2070 Storage: 1’700 TB di spazio disco in un unico file-system posix condiviso fra tutti i nodi (Lustre) Rete: Ogni nodo di calcolo è capace di sfruttare circa 1Gb/s di banda passante sulla rete Il Bari Computer Center for Science opera presso il Dipartimento di Fisica dal 2009: – Punto di arrivo di una serie di progetti europei e nazionali di calcolo distribuito INFN-GRID ( ) EGEE - EGEE II - EGEE III (1/4/04- 30/4/10) FIRB LIBI (12/9/05 all’11/9/11) Bioinfogrid (1/1/06 al 31/12/07) EGI-INSPIRE (1/5/ /12/14) BioVeL (1/9/ /12014) IPPOCRATE (3/7/2014-2/7/2015) – e dei DATA “challenges” degli esperimenti ad LHC (CMS ed ALICE) – Progetti in corso: EGI-ENGAGE (1/3/15 – 31/8/17) INDIGO (1/4/2015 – 30/9/17) PON PRISMA ( 8/10/ /12/15) PON OCP (1/1/14- 30/6/16) BC 2 S è stato inaugurato l’11 novembre 2009

Premessa Il sito ReCaS di Bari È stato concepito come un sito “unico” INFN - Università di Bari ed è stato realizzato utilizzando in maniera integrata i finanziamenti ottenuti dall’Università di Bari e dall’INFN. Le due parti non possono operare separatamente infatti è nostra tradizione rendere le cose sempre un po più complicate: il Dipartimento di Fisica è un dipartimento interateneo, dell’Università e del Politecnico di Bari.

6 rack per il GARR 2 rack per il CSI Tape library Ultima isola Realizzata con i rack APC

128 server (processore AMD) (36 INFN - 92 UNIBA) 8192 cor e (2304 INFN UNIBA) 3552 TB di spazio disco DELL (1152 INFN UNIBA) IBM System Storage TS3500 Tape Library in grado di archiviare su nastro 2500 TB di dati (UNIBA) Un cluster HPC composto da 20 server, per complessivi 800 core Intel, con connessione infiniband e 20 schede NVIDIA K40 (UNIBA) Home degli utenti con ridondanza in triplice copia online, usando file- system ceph per assicurare l'alta affidabilità dei dati (UNIBA già in funzione sulla attuale farm) Le risorse computazionali

Dettagli alimentazione elettrica Tutte le macchine sono dotate di due alimentatori ridondanti Tutte le macchine sono sotto UPS Ci sono due blocchi di UPS che alimentano le due linee: una per ogni alimentatore dei server Si può escludere completamente una linea di UPS per metterla in manutenzione Un generatore ausiliario a diesel è in grado di sopperire alla mancanza di energia elettrica per i lunghi periodi. 1.6MW totali

LAN a matrice piatta 10 Gbts punto-punto (INFN) 2 switch Huawey (attivo-passivo) equipaggiate con 480 porte e 400 ottiche. Con capacità di scalare fino a 576 connessioni ciascuno. La rete di management (1Gbts) è implementata con switch dedicati su una sottorete specifica e isolata per garantire sicurezza degli accessi e isolamento in caso di eventuali problemi Firewall evoluto: Firewall Fortinet, modello Fortigate 800c, con prestazioni firewall da 20 Gbps, capacità di trasmissione IPS di 6 Gbps ed interfacce 10- GbE/rame/GE SFP in un formato 1U. Cablaggio Rete campus universitario con fibra monomodale La rete UNIBA INFN UNIBA

I primi test sulla rete locale 100 server a quasi 10 Gbts ciascuno

I fornitori Fornitori R.T.I. Edilelettra & Figli S.r.l. / Caradonna Ing. Paolo S.r.l. – BARI Costruzione edificio ed infrastrutture Condizionamento (Hiref) Impianto rivelazione e spegnimento incendi Quadri elettrici e blindo sbarre (Primicera) Gruppo elettrogeno da 1500 kVA (Green Power) TelecomUPS (Emerson) Server per il calcolo (Supermicro) Tape Library (IBM) Cablaggio rete intera - Cablaggio rete campus DELLTutto lo Storage E4Cluster HPC ConvergeRack (Emerson) Delo InstrumentsPresiere metered (Raritan) C2Presiere switched (Emerson) WellcommFirewall (Fortinet)

Gestione della FARM Basato sull’uso di software Open Source Batch System: HTCcondor Monitoring:Zabbix Filesystem:Lustre Installazione/configurazione TheForeman/Puppet Ticketing system:Redmine Offerta Risorse cloud: Openstack (PRISMA) Grazie al progetto PRISMA esistono oggi a Bari, nel Dipartimento Interateneo di Fisica, competenze per fornire infrastrutture Cloud Open Private (una tendenza in crescita nel mercato del cloud computing).

HEP I servizi offerti RECAS Datacenter RECAS Datacenter BC 2 S Progetto IPPOCRATE Progetto DroMEP Progetto SFINGE Progetto ASSETTO Progetto PARS_ECO Progetto PON CARSO Progetto GEMACA LivingLabs Servizi HPC Hosting di risorse Computazionali Servizi IaaS e PaaS PON GARR-X-Progress ReCaS ospita 4 rack con circa 2500 CPU_core e 1599 TB di storage PON GARR-X-Progress ReCaS ospita 4 rack con circa 2500 CPU_core e 1599 TB di storage Bioinformatica Accesso GRID o Batch Attività di Fisica Medica Testbed Cloud PRISMA/OCP Testbed Cloud PRISMA/OCP SLA: >95%

2011Vilnius 2012Garching near Munich 2013Manchester 2014Helsinki 2015 Bari

Ringraziamenti Sono veramente tante le persone che hanno lavorato alla realizzazione del Datacenter ReCaS di Bari

Le istituzioni regionali (Assessorato Sviluppo Economico) Gli Organi di Governo e di Gestione di UNIBA e dell’INFN che hanno scommesso su questo progetto

E quanti hanno lavorato alla sua realizzazione: I RUP (in particolare il RUP per la gara di edilizia e l’Ufficio Tecnico dell’Università) Gli uffici “gare” dell’Università e dell’INFN Le commissioni di Gara (2 gare importanti UNIBA edilizia e attrezzatura di calcolo, 2 gare importanti INFN per l’acquisto di attrezzatura informatica e di rete e degli UPS) I direttori e le amministrazioni del Dipartimento Interateneo di Fisica e della Sezione INFN di Bari La segreteria del Dipartimento Interateneo di Fisica e il Servizio di Direzione della Sezione INFN Il Centro Servizi Informatici (CSI) di UNIBA

I progettisti e la direzione lavori (MAGNANIMO INGEGNERI ASSOCIATI s.r.l.) La R.T.I. Edilelettra & Figli S.r.l. / Caradonna Ing. Paolo S.r.l. – BARI e le ditte subappaltatrici e tutti i fornitori già citati insieme a tutti i loro professionisti, tecnici ed operai.

Le persone del gruppo IT INFN & UNIBA & POLIBA Alessandro Bruno Alessandro Casale Alessandro Italiano Alfonso Monaco Annarita Fanizzi Bruno Santeramo Domenico Diacono Eufemia Tinelli (ora al comune di Bari) Fabio Gargano Fabrizio Ventola Floriana Giannuzzi Floriana Mancino Francesco Cafagna Francesco Costanza Giacinto Donvito Giorgia Miniello Giorgio Maggi Giovanni de Icco Giuseppe Silvestri Lucia Silvestris Marco Berardi Marica Antonacci Michele Perniola Pasquale Notarangelo (dal 1° giugno al comune di Monopoli) Riccardo Gervasoni Roberto Bellotti Roberto Valentini Rosanna Gallitelli Sonia Tangaro Stefano Nicotri Vincenzo Spinoso

Grazie a tutti Un grazie anche a tutti gli intervenuti