PRIN NAPOLI Enzo Capone, Gianpaolo Carlino, Alessandra Doria, Rosario Esposito, Leonardo Merola, Silvio Pardi, Arturo Sanchez Pineda.

Slides:



Advertisements
Presentazioni simili
Aspetti critici rete LAN e WAN per i Tier-2
Advertisements

Routing Gerarchico Gli algoritmi proposti non sono pratici:
ATLAS PRIN Alessandro De Salvo A. De Salvo – 12 novembre 2015 Cloud Computing Condivisione di risorse tra gruppi EventIndex LHCONE PoD T2D.
Riunione PRIN STOA - Bologna - 18 Giugno 2014 Testbed del T2 distribuito Napoli-Roma Dr. Silvio Pardi INFN-Napoli Riunione PRIN STOA – Bologna 18 Giugno.
17-18 Dicembre 2014 Second Belle II italian collaboration meeting – Dicembre 2014 Networking e calcolo di Belle II a Napoli - Recas Silvio Pardi.
Esigenze di rete per il calcolo LHC Workshop CCR LNL, Febbraio 2011 Stefano Zani INFN CNAF 1S.Zani INFN CNAF.
Netgroup (Rapporto di aggiornamento alla Commissione) Stefano Zani (INFN CNAF) CCR Roma, Ottobre 2013.
Gruppo Netarch Incontro di lavoro della CCR Napoli gennaio 2010 Connessioni Tier1/Tier2 a GARR-X 1 GM, Incontro di lavoro della CCR – Napoli
1 GM, CCR, Roma 2 marzo 2010 Gruppo Netarch Riunione CCR Roma 2 marzo 2010 Relazione Gruppo NetArch.
Progetto NOBEL 2 PARTECIPANTI: Marco Bencivenni (100%) Tiziana Ferrari (20%) SCADENZA PROGETTO: 29 Febbraio 2008 OBIETTIVI DEL PROGETTO: E voluzione della.
Multihoming 4 DUMMIES GRUPPO DI LAVORO Matteo ”bonko” Bonicolini - Alessandro ”DarkDruid” Gentile -
Università degli Studi - “ G. d'Annunzio ” Chieti - Pescara FACOLTÀ DI ECONOMIA Corso di laurea in Economia Informatica/s Seminario di: Giovanni Placentino.
Alessandro De Salvo Status dei Tier2 di ATLAS Alessandro De Salvo
AFS NELLA SEZIONE DI PADOVA aree_utenti: attualmente nessuno ha la proria home in AFS e quasi nessuno utilizza l'area utenti di AFS. /usr/local: si preferisce.
20-21/03/2006Workshop sullo storage - CNAF Alessandro Brunengo.
Il calcolo ATLAS a Napoli nel 2014/2015
Virtual Private Networks
Reti e comunicazione Appunti.
Infrastruttura cloud servizi realizzata nella Sezione di Napoli
Evoluzione del collegamento geografico e collaudo della nuova struttura CORE del TIER1 CDG – 06/10/2016 Stefano Zani
NAT, Firewall, Proxy Processi applicativi.
Riccardo Veraldi - Massimo Donatelli CCR 3-4 Marzo 2008
Resoconto delle attività del Gruppo di Lavoro DR
Relazione utilizzo rete, proposte per banda e collegamenti extra GARR
Richieste di connettività
Status Report Gruppo Storage CCR CCR 14-15/03/2006.
Smart TMS: Smart Tourism & Mobility Solution
dCache Test effettuati al CNAF
CCR Servizi Nazionali settembre 2016 Stefano Longo (CNAF)
CARATTERISTICHE DI UN DATACENTER
Claudia Battista Tempi e Modi di GARR-X Claudia Battista
Servizio Calcolo Alessandro Brunengo.
Sommario Gruppo 1 Consiglio di Sezione 09/07/2014
Richieste di upgrade dei link di accesso alla rete Geografica
Collegamento a Garr-X Il collegamento alla nuova rete Garr-X dovrà garantire il massimo della efficienza nella gestione della banda. Per identificare opportunamente.
Collaudo della nuova struttura CORE del TIER1 e migrazione delle risorse dalla attuale infrastruttura di rete a quella nuova CDG – 07/12/2016.
PRIN Roma1 – status Luciano Barone, Alessandro De Salvo
Stato Acquisti Switch/Router T2
Rapporto del Gruppo NetArch
L’INFN per il Collaborative esteso e distribuito Alessandro De Salvo
Aggiornamento sullo stato del Tier-2 di Catania
Nuove funzionalità e futura implementazione nella Sezione di Trieste
Attvità Computing – Inverno 08/09
INFN-TS INFN - Sezione di Trieste - C. Strizzolo - L. Strizzolo.
Topologia delle reti Appunti.
Strutture informatiche e servizi nazionali
Espansione dei CORE switch del TIER1
Luciano Gaido (INFN - Torino) Workshop CCR/INFNGRID – Palau
ATLAS PRIN Next Steps Alessandro De Salvo
Interfacce SRM: l'utilizzo di STORM - Overview e prospettive (ALICE)
GAP: Obiettivi Generali
Report giornata di Technology tracking
Sono stati sperimentati software in grado di rilevare se sono stati compromessi determinati componenti di un sistema operativo.
analizzatore di protocollo
RES PowerFuse® e RES WISDOM®
Tecniche per la Garanzia di Qualitá in Reti Multiservizio
Funzionalita’ VoIP di base in Lync Server 2010
DIONISIO DIONISIO è un sistema intelligente di Audio Sorveglianza
Classificazione delle reti per tecnica di commutazione
Concetti introduttivi
Le reti informatiche di Roberto Minotti 17/01/2019.
Le reti informatiche di Roberto Minotti 15/02/2019.
Applicazioni ambito PA
Solution versatility Standalone Larga scala
IT SECURITY Sicurezza in rete
ATLAS PRIN Roma1 - status Alessandro De Salvo
Preventivi CCR 2018 INFN Roma Tor Vergata.
Tommaso Boccali (INFN-Pisa / CERN)
RETI.
CLOUD.
Transcript della presentazione:

PRIN NAPOLI Enzo Capone, Gianpaolo Carlino, Alessandra Doria, Rosario Esposito, Leonardo Merola, Silvio Pardi, Arturo Sanchez Pineda.

PRIN NAPOLI Obiettivi del progetto LHCONE:  Integrazione in LHCONE, test su connettività e prestazioni  Installazione e deployment dei servizi relativi al monitoring perfSonar  Riconfigurazione della connessione al GARR  Studio di paradigmi e protocolli su LHCONE e di tecnologie di ‘’Bandwidth on Demand’’. “Tier2 Distribuito”  Studio di tecnologie Layer2 su WAN  Realizzazione e test di un prototipo di Tier2 distribuito tra Napoli e Roma

3 SPERIMENTAZIONE Il Tier 2 di Napoli è stato un sito pilota per ATLAS per la sperimentazione LHCONE: Installazione delle sonde di monitoring perfSonar per misure di banda TCP, latenza e perdita di pacchetti. Configurazione in perfSonar di test specifici tra i Tier2 di ATLAS. Preparazione di uno script di installazione e configurazione di perfSonar, poi utilizzato da tutti i siti.

4 LHCONE in PRODUZIONE A fine 2013 è stata completamente riconfigurata la connessione con il GARR del Tier2 di ATLAS Napoli : Upgrade del link geografico a 10Gbit/s, su link separato dalla sezione, con possibilità di fail-over. Separazione del traffico General Internet da quello LHCONE, che richiede un collegamento all’istanza VRF dedicata sul router del GARR. Configurazione del protocollo di routing BGP (Border Gateway Protocol) sul router di frontiera, per filtrare gli annunci provenienti da LHCONE La stessa connessione a LHCONE è attualmente utilizzata dal Tier2 di ATLAS e dal Regional Center di BELLE II a Napoli

5 TIER2 DISTRIBUITO Applicazione dello studio di tecnologie Layer2 su WAN Sperimentare la possibilità di creare una infrastruttura unitaria geograficamente distribuita, attraverso tecnologie di Cloud Computing. Studiare soluzioni ad alta affidabilità per il sito distribuito Testare tecnologie di filesystem distribuiti su scala geografica, per gestire failover e crash recovery. Verificare l’eventuale impatto della latenza sulla stabilità del sistema e individuarne i limiti. Prototipo di Tier2 distribuito tra Napoli e Roma1

6 Il servizio end-to-end connette su VLAN dedicate le sedi Tier2 di Napoli e di Roma1. Connessione Layer2 tra i due siti. Banda garantita e dedicata di 1Gbps. Latenza minima 5 ms, Banda Misurata tra due server 938Mbit/s Packet loss misurata 0%

7 ARCHITETTURA

8 Spegnendo un servizio in un sito, viene attivato nell’altro Tempo di migrazione della memoria di una macchina attiva circa 10 secondi. Banda saturata da una singola migrazione: il meccanismo di live migration non comporta inefficienza MB/s

9 Stress Test del GluserFS con IOzone: Il sistema ha dimostrato stabilità anche sotto I/O intensivo. In figura il traffico prodotto sul link geografico

10 NEXT GARR ha fittiziamente aumentato la latenza della connessione fino a 37ms, variando la topologia di rete. Studiate le prestazioni del filesystem simulando centri geograficamente più distanti O(1000) km Benchmark “smallfile” sull’accesso ai metadati di GlusterFS, al variare della latenza. Numero di operazioni al secondo su files molto piccoli, per osservare l’overhead dovuto alle operazioni sui metadati

11 NEXT Continuare la sperimentazione su LHCONE con SDN (Software Defined Networking) Per il Tier2 distribuito: Testare altri filesystem distribuiti e confrontarli con GlusterFS. Testare diverse configurazioni dell’infrastruttura di Cloud. Sperimentare nuove topologie di rete a siti multipli, invece che punto-punto. Fine tuning mirati alla stabilità dei diversi servizi peculiari dei Tier2.

12

13 IMPLEMENTAZIONE Gluster Openstack HAVANA/ICEHOUSE