17-18 Dicembre 2014 Second Belle II italian collaboration meeting – 17-18 Dicembre 2014 Networking e calcolo di Belle II a Napoli - Recas Silvio Pardi.

Slides:



Advertisements
Presentazioni simili
ISA Server 2004 Enterprise Edition Preview. ISA Server 2004.
Advertisements

Google-Apps: il cloud computing a scuola
Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
Infrastruttura di rete SCoPE Stato dellarte delle realizzazioni.
Aspetti critici rete LAN e WAN per i Tier-2
1 Riunione del 29 Marzo 2007 IL PROGETTO SCoPE Prof. Guido Russo I lavori Le apparecchiature Il portale.
Riunione CRESCO Infrastruttura HPC Cresco Analisi Preliminare.
COLT Enterprise Cloud Dionigi Faccenda La visione di COLT.
LNL M.Biasotto, Bologna, 13 dicembre La farm di Legnaro Massimo Biasotto – INFN LNL.
Technical Board 21 novembre 2000 WP5 - Network Luciano Gaido 1 Progetto INFN-GRID WP5 - Network Technical Board Cnaf, 21 novembre 2000.
I NUMERI DI SCoPE 15 Dipartimenti e Strutture Specialistiche 128 Docenti e ricercatori strutturati coinvolti 35Assegni di ricerca 30 Contratti di collaborazione.
EM 09 INTERNET … UN PO DI STORIA. EM 09 Nasce per garantire comunicazioni efficienti … Tra le sedi delle forze armate americane Tra le sedi delle forze.
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
Rete di Calcolo per SuperB e altre applicazioni
76 INFRASTRUTTURA DI RETE A SUPPORTO DELLE FACILITY HPC DI CRESCO4 Sito Brindisi Sito Portici Il progetto TEDAT insiste principilamente su due siti ENEA:
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
Servizio Sistema Informativo - Area Gestione Sistemi e Sicurezza – LNF – Dael Maselli Area Gestione Sistemi e Sicurezza LNF Plenaria Servizio Sistema Informativo.
Layered Grid Architecture. Application Fabric “Controlling elements locally”: Access to, & control of, resources Connectivity “Talking to Grid elements”:
Report HEPiX Spring meeting 2002 Workshop sulle problematiche di calcolo e reti nell'INFN 6-9 Maggio 2002 La Biodola - Isola d'Elba Silvia Arezzini.
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
Riunione Servizi Servizio Calcolo e Reti 13 settembre 2004 Silvia Arezzini.
Ing. Giovanni B. Barone Convegno PON RECAS - Napoli, 16 dicembre 2014 ReCaS Napoli.
LIVE TALK - Cloud e Big Data Speed Pitch di Cesare Veneziani, Amministratore Delegato, MC-link.
WORKSHOP GARR_08 GARR-X: il futuro della Rete _ Milano 1-4 aprile 2008 Modelli di MAN ed integrazione in GARR-X Marco Marletta Workshop GARR_08 Milano.
Storage (ieri, oggi e domani) Luca dell’Agnello INFN-CNAF.
Progetto "ReCaS" Rete di Calcolo per SuperB e altre applicazioni PON R&C Avviso 254/Ric 1 Workshop CCR/GARR – Napoli, 16 maggio 2012 L. Merola.
ATLAS PRIN Alessandro De Salvo A. De Salvo – 12 novembre 2015 Cloud Computing Condivisione di risorse tra gruppi EventIndex LHCONE PoD T2D.
Report R.Gomezel CCR dicembre 2006 Roma.
Il Datacenter ReCaS di Bari Le risorse computazionali Giorgio Pietro Maggi Politecnico di Bari Dipartimento Interateneo di Fisica e Sezione INFN di Bari.
26 Giugno 2007CSN1 - Frascati1 Temi di attualità nella CCR Accanto alla tradizionale attività di controllo dei finanziamenti per le infrastrutture di calcolo.
Riunione PRIN STOA - Bologna - 18 Giugno 2014 Testbed del T2 distribuito Napoli-Roma Dr. Silvio Pardi INFN-Napoli Riunione PRIN STOA – Bologna 18 Giugno.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Lecce 30 Settembre 2015.
C ontrol system based on a H ighly A bstracted and O pen S tructure 1 WP5 !CHAOS Computing Storing and Access Policy WP5 !CHAOS Computing Storing and Access.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
Stato di GARR-X Claudia Battista Workshop CCR INFN - Isola d’Elba 17 maggio 2011.
Claudio Grandi Workshop CCR 2015 Claudio Grandi INFN Bologna.
PON a3_00052 "ReCaS" Rete di Calcolo per SuperB e altre applicazioni G. Andronico 24/10/
PON a3_00052 "ReCaS" Rete di Calcolo per SuperB e altre applicazioni L. Merola riunione di gruppo I Napoli 21/12/2012 Sito e dominio web del progetto:
Aggiornamento su ReCaS e Tier-2 Atlas Leonardo Merola Riunione Gr. 1 Napoli – 7 gennaio Riunione Gr. 1 Napoli – 7 gennaio 2015 – L. Merola.
L’anno della Banda Larga in Liguria 7 Gennaio 2013 Server Farm Regione Liguria – Datasiel Genova.
FESR Consorzio COMETA - Progetto PI2S2 Il Tier-2 di ALICE a Catania Roberto Barbera Università di Catania e INFN Visita Referee.
Referaggio sigla CALCOLO D. Bonacorsi, G. Carlino, P. Morettini CCR – Roma 9 Settembre 2014.
11 Richieste di banda Anno 2010 T.Ferrari, M.Morandin CCR, Roma, 30 settembre 2009.
Uso della rete geografica e richieste di upgrade CCR 31/3/2015 (Roma) S.Zani.
Progetto ReCaS status update Giuseppe Andronico WS CCR, Catania 28 Maggio 2014.
Aggiornamento sui lavori di ampliamento degli impianti infrastrutturali del TIER1 e stato delle risorse Cristina Vistoli – Massimiliano Fiore INFN-CNAF.
Il Calcolo non LHC in CSN1 G. Carlino, INFN Napoli CSN1 – Roma 17 Luglio 2014.
19/4/2013 D. Menasce, M. Serra - Referaggio Progetti INFRA e WLCG 1.
Stato e previsione rete nelle sedi INFN Survey ed ipotesi di sviluppo fino al 2018 CCR 8-10 Settembre 2018 (Roma) 1 S.Zani (Netgroup)
Referaggio Calcolo ATLAS II Gianpaolo Carlino INFN Napoli Catania, 12 Settembre 2012 Risorse e Richieste 2013 nei preventivi Aggiornamento in seguito all’allungamento.
G. Maggi 24/1/2006 Il Progetto del TIER2 di Bari Giorgio Maggi.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Catania 1 Ottobre 2014.
Aggiornamento potenziamento collegamenti e stato del Progetto GARR-X Claudia Battista CCR-INFN - 3 marzo 2008.
Domenico Elia1CdG Tier1-Tier2 / CNAF ALICE Tier2 sites Domenico Elia CdG Tier1-Tier2 Bologna, 15 Aprile 2015  Infrastruttura e risorse, coordinamento.
The INFN Tier-1: progetto di ampliamento Cristina Vistoli – INFN CNAF Referee Meeting Sep
LaBiodoloa Attività di sperimentazione RECAS - Catania G. Andronico
Silvia Arezzini 2 luglio 2014 Consiglio di Sezione per Preventivi.
ATLAS Italia – Sestri Levante, 15 Giugno 2010 G. Carlino – Richieste Run Efficiency = time for physics / total time LHC Efficiency = time with colliding.
ALICE Computing Readiness Workshop Tier-2 CNAF Jan 17-18, ALICE Computing Readiness 1) ALICE Italia: Persone & organizzazione 2) Test & commisioning.
L’infrastruttura del progetto ReCaS Paolo Lo Re on behalf of ReCaS collaboration.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
PRIN NAPOLI Enzo Capone, Gianpaolo Carlino, Alessandra Doria, Rosario Esposito, Leonardo Merola, Silvio Pardi, Arturo Sanchez Pineda.
Gaetano Maron, Presentazione T2 LNL-Padova, Legnaro 22 dicembre Il centro di calcolo Tier2 di LNL-PD Gaetano Maron.
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
INFN-TS INFN - Sezione di Trieste - C. Strizzolo - L. Strizzolo.
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
Transcript della presentazione:

17-18 Dicembre 2014 Second Belle II italian collaboration meeting – Dicembre 2014 Networking e calcolo di Belle II a Napoli - Recas Silvio Pardi INFN-Napoli

17-18 Dicembre 2014 Second Belle II italian collaboration meeting – Dicembre 2014 La rete LHCONE Il LHCONE è essenzialmente una rete L3 privata per i Tier 2 che utilizza circuiti designati per il traffico LHC. Il servizio è realizzato come un insieme interconnesso di reti private localizzate chiamate istanze Virtual Routing e Forwarding (VRF). Tutte le NREN offrono il servizio VRF per i suoi siti di LHC I VRFs sono collegati tra loro e annunciano tutti i loro siti a vicenda LHCONE VRF è ora un servizio di produzione e la sua gestione viene fatto dal LHCONE Operations WG - contattare Edoardo Martelli di aderire alla lista - 2

17-18 Dicembre 2014 Second Belle II italian collaboration meeting – Dicembre 2014 ` ` ` The LHCONE VRF Service Site 1 Site 2 Site 3 VRF provider 1 Sites announce addresses of systems or subnets devoted to LHC systems routes between all of the announced addresses announces site provided addresses (“routes”) to other VRF providers accepts route announcements from other VRF providers and makes them available to the sites Site 4 Site 5 Site 6 VRF provider 2 Site 7 Site 8 Site 9 VRF provider 3 announces routes accepts routes announces routes accepts routes announces routes accepts routes  Links suitable for LHC traffic R&E Internet provider (e.g. ESNet)

17-18 Dicembre 2014 Second Belle II italian collaboration meeting – Dicembre 2014 La rete LHCONE Concetto LHCONE basa sulla separazione tra il traffico ad alto impatto di LHC, e il traffico non LHC: Evitare l'impatto negativo sul traffico di ricerca Abilita spostamento dei dati LHC ad alte prestazioni LHCONE Servizi: Virtual Private Network (operativa) PerfSONAR: il monitoraggio delle infrastrutture (operativa) P2P: dedicata, larghezza di banda garantita, point-to-point link - (sviluppo) 4

17-18 Dicembre 2014 Second Belle II italian collaboration meeting – Dicembre 2014 Networking – Belle II & LHCONE E’ stato accettato il traffico Belle-2 nella rete LHCONE. Discussione in atto su come connettere ad LHCONE i siti di Belle II. Praticamente tutti i siti Italiani coinvolti in BELLE II sono in LHCONE o stanno per entrare

17-18 Dicembre 2014 Second Belle II italian collaboration meeting – Dicembre

7

Belle II computing model fino al III anno

17-18 Dicembre 2014 Second Belle II italian collaboration meeting – Dicembre 2014 Belle II Computing Model dal IV anno 9

17-18 Dicembre 2014 Second Belle II italian collaboration meeting – Dicembre 2014 Raw Data Distribution 10 Data transfer KEK to Europe: --> via PNNL: KEK to PNNL and PNNL to Europe to cut the latency KEK to Europe into two parts -- at least as long as data transfer KEK to Europe via USA takes place.

17-18 Dicembre 2014 Second Belle II italian collaboration meeting – Dicembre 2014 SCENARIO 1 11

17-18 Dicembre 2014 Second Belle II italian collaboration meeting – Dicembre 2014 SCENARIO 2 12

17-18 Dicembre 2014 Second Belle II italian collaboration meeting – Dicembre 2014 Velocità programmata della rete: fino a 40Gbps Potenza di calcolo: 128 server, 8192 core, cluster HPC di 20 nodi con GPU per complessivi ulteriori 800 core Capacità di memorizzazione: 3552 TB su disco e 2500 TB su nastro (Tape library) Datacenter di Bari Velocità programmata della rete: fino a 40Gbps Potenza di calcolo: 132 server, 4956 core core pre-esistenti (Datacenter SCoPE) Capacità di memorizzazione: 4957 TB TB pre-esistenti (Datacenter SCoPE) Datacenter di Napoli Datacenter di Catania Velocità programmata della rete: fino a 40Gbps Potenza di calcolo: 54 server, 2562 core core pre-esistenti Capacità di memorizzazione: 1000 TB TB pre-esistenti Datacenter di Cosenza Velocità programmatadella rete: fino a 40Gbps Potenza di calcolo: 90 server, 3500 core Capacità di memorizzazione: 900 TB Infrastruttura ReCaS “core”; 11 PB su disco, 2.5 PB su nastro

17-18 Dicembre 2014 Second Belle II italian collaboration meeting – Dicembre 2014 Data Center SCOPE L’Infrastruttura ReCaS Napoli

17-18 Dicembre 2014 Second Belle II italian collaboration meeting – Dicembre 2014 Obiettivi di progetto Potenza elaborativa (kHepSpec) Storage (Pbyte) Unina60,8 INFN-NA40,6 Velocità programmata della rete: fino a 40Gbps Potenza di calcolo: 132 server, 4628 core core pre-esistenti (Datacenter SCoPE) Capacità di memorizzazione: 4957 TB 300 TB pre-esistenti (Datacenter SCoPE) L’Infrastruttura ReCaS Napoli Tutte le risorse di ReCaS Napoli ( e degli altri siti) possono essere utilizzate in best-effort da Belle II utilizzando il fair-share come modello di condivisione. Ci sono delle risorse dedicate per Belle II (vedi slide successiva) Gia inserita in LHCONE

17-18 Dicembre 2014 Second Belle II italian collaboration meeting – Dicembre 2014 Risorse Dedicate per Belle II ReCaS: Belle II rack 22rack 23 tipocoreramTBHepSpectipocoreramTBHepSpec 1CMC RITTAL1 2rear: pannello 36 LC duplex mm OM42 3rear: pannello passa permute3 4rear: Pannello 24 porte RJ45 (MNG)4 5rear: pannello passa permute5 6rear: Pannello 24 porte RJ45 (MNG)6 7front: juniper EX port (MNG)7front: CISCO SG port (MNG) 8rear: juniper EX port (Backup) DELL PE R DELL PE R DELL MD 3600f DELL MD DELL MD DELL MD DELL PE R DELL MD Supermicro As-2042g DELL MD Supermicro As-2042g DELL PE R720xd Supermicro As-2042g DELL PE R720xd Supermicro As-2042g DELL PE R720xd Supermicro As-2042g DELL PE R720xd Supermicro As-2042g DELL PE R720xd DELL PE R210 II DELL PE R210 II DELL PE R720xd DELL PE R210 II DELL PE R210 II DELL PE R720xd DELL PE R210 II DELL PE R210 II DELL PE R720xd DELL PE R210 II DELL PE R210 II totale: totale: ReCaS R05 (Belle II) R06 (Belle II) tipocoreramTBHepSpectipocoreramTBHepSpec 1CMC RITTAL1 2rear: patch panel ottico (24 bussole LC quad MULT)2 3rear: passacavi3 4rear: patch panel rame 24 porte front: CISCO SG (48p) man. Rack DELL R620 (DB DPM) in gara Regione Campania Supermicro As-2042g in gara Regione Campania Supermicro As-2042g in gara Regione Campania Supermicro As-2042g in gara Regione Campania Supermicro As-2042g in gara Regione Campania Supermicro As-2042g in gara Regione Campania Supermicro As-2042g in gara Regione Campania DELL PE R620 (esist.) DELL PE R620 (esist.) in gara Regione Campania DELL MD 3600f in gara Regione Campania DELL MD in gara Regione Campania DELL MD in gara Regione Campania DELL MD in gara Regione Campania DELL MD in gara Regione Campania DELL MD in gara Regione Campania DELL MD in gara Regione Campania DELL MD DELL MD (predisposte 2U) totale: totale: Core Dedicati con protocollo Grid e Cloud 578 TB Disco Dedicati con protocollo DPM Altri 960 Core Dedicati in prossima acquisizione Data Center Fisica 1g01 Data Center SCoPE

17-18 Dicembre 2014 Second Belle II italian collaboration meeting – Dicembre 2014 Impatto della messa in esercizio delle risorse di ReCaS 4 th MC Campaign Contributo dell’infrastruttura di Napoli nell’ultima campagna di produzione MC.

17-18 Dicembre 2014 Second Belle II italian collaboration meeting – Dicembre 2014 Attività In corso: Calcolo delle esigenze di rete per il prossimi anni Setup delle farm Monitoring con PerfSonar dei siti Cosa si potrebbe fare: Partecipare alla definizione dei tools di sviluppo Framework DIRAC Testing dei File Catalog 18