Parlando di network i discorsi naturalmente diventano complessi (creazione di un intero ecosistema virtuale comparabile ad uno reale): Separazione layers.

Slides:



Advertisements
Presentazioni simili
Layered Grid Architecture. Application Fabric “Controlling elements locally”: Access to, & control of, resources Connectivity “Talking to Grid elements”:
Advertisements

Riunione PRIN STOA - Bologna - 18 Giugno 2014 Testbed del T2 distribuito Napoli-Roma Dr. Silvio Pardi INFN-Napoli Riunione PRIN STOA – Bologna 18 Giugno.
Esigenze di rete per il calcolo LHC Workshop CCR LNL, Febbraio 2011 Stefano Zani INFN CNAF 1S.Zani INFN CNAF.
 Cenni su switch e vlan  Layout fisico per la rete della cloud  Layout virtuale dei computing nodes  Layout virtuale del nerwork node  Riassunto.
Uso della rete geografica e richieste di upgrade CCR 31/3/2015 (Roma) S.Zani.
Riunione SICR E. P.. Certificati  Digicert  Server  Personali per dipendenti ed associati  Non associati e macchine su phys.uniroma1.it ?  Problema.
Netgroup (Rapporto di aggiornamento alla Commissione) Stefano Zani (INFN CNAF) CCR Roma, Ottobre 2013.
LaBiodoloa Attività di sperimentazione RECAS - Catania G. Andronico
Cluster di login E. P.. Scopo del cluster di login Fornire accesso alle macchine interne ed ai servizi Evitare gli attacchi diretti alle macchine interne.
Implementazione di TRIP ai LNF Commissione Calcolo e Reti 31 maggio 2007 Massimo Pistoni.
Gruppo Netarch Incontro di lavoro della CCR Napoli gennaio 2010 Connessioni Tier1/Tier2 a GARR-X 1 GM, Incontro di lavoro della CCR – Napoli
IL blueprint e le esigenze per il progetti internazionali (EMI e EGI- InSPIRE) L. Gaido, INFN Torino Riunione del Comitato di Coordinamento IGI Roma, 12.
Dynamic Farm Espansione Dinamica di una Farm Vincenzo Ciaschini CCR 31/3/2015.
PRIN NAPOLI Enzo Capone, Gianpaolo Carlino, Alessandra Doria, Rosario Esposito, Leonardo Merola, Silvio Pardi, Arturo Sanchez Pineda.
Reparto Reti e Servizi Informatici Preventivo attività per il 2012 CNAF, Stefano Zani INFN CNAF.
Progetto NOBEL 2 PARTECIPANTI: Marco Bencivenni (100%) Tiziana Ferrari (20%) SCADENZA PROGETTO: 29 Febbraio 2008 OBIETTIVI DEL PROGETTO: E voluzione della.
Servizio di supporto tecnico nazionale hw e sw G. Vita Finzi RESOCONTO ATTIVITA’ CdC CNAF, 3 dicembre 2010.
EXPO – PADIGLIONI PROFILI RICHIESTI OGGETTO DELLA RICHIESTA Fino ad un massimo di 8 team di lavoro. Ciascun team è composto da 3 risorse ed ha la.
Attività gruppo Sicurezza CCR, 3 Ottobre CCR, 3/10/07 Attività del gruppo Sicurezza 2 Topologia LAN Configurazioni ottimali rete e monitoraggio,
AFS NELLA SEZIONE DI PADOVA aree_utenti: attualmente nessuno ha la proria home in AFS e quasi nessuno utilizza l'area utenti di AFS. /usr/local: si preferisce.
POLITICHE ATTIVE DI BYOD (BRING YOUR OWN DEVICE) Aprire le scuole all’utilizzo di dispositivi elettronici personali durante le attività didattiche.
Piano di Formazione CCR per il 2016
HYSTRIX Dario BRUNO protects your network Cisco ID: CSCO
Infrastruttura cloud servizi realizzata nella Sezione di Napoli
Configurazione Router IR794- IG601
Evoluzione del collegamento geografico e collaudo della nuova struttura CORE del TIER1 CDG – 06/10/2016 Stefano Zani
TCP/IP.
Metodi Matematici per le Applicazioni Industriali
CCR Servizi Nazionali settembre 2016 Stefano Longo (CNAF)
Sistema di Autenticazione unica (Single-Sign-On) (azione #8)
Comput-ER l'infrastruttura di calcolo distribuito in Emilia Romagna
l’organizzazione di IGI
Commissione Calcolo e Reti
TCP/IP. Sommario  Introduzione al TCP/IP  Indirizzi IP  Subnet Mask  Frame IP  Meccanismi di comunicazione tra reti diverse  Classi di indirizzi.
Breve report su corso RedHat Enterprise Virtualization (RH318)
Richieste di upgrade dei link di accesso alla rete Geografica
Collegamento a Garr-X Il collegamento alla nuova rete Garr-X dovrà garantire il massimo della efficienza nella gestione della banda. Per identificare opportunamente.
Sistema di Autenticazione unica (Single-Sign-On) (azione #8)
Nuovo sito della Commissione Calcolo e Reti
Microsoft Office Access
Collaudo della nuova struttura CORE del TIER1 e migrazione delle risorse dalla attuale infrastruttura di rete a quella nuova CDG – 07/12/2016.
Cloud per HA nei Servizi
Attivita’ e compiti del Servizio Impianti Calcolo e Reti
PRIN Roma1 – status Luciano Barone, Alessandro De Salvo
Stato Acquisti Switch/Router T2
Sicurezza e Grid Computing
Rapporto del Gruppo NetArch
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
NETGROUP Incontro Technology Tracking 2008
Implementazione di TRIP e Eduroam
INFN-TS INFN - Sezione di Trieste - C. Strizzolo - L. Strizzolo.
Stato dei lavori E. P..
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
Alla Ricerca di una Rete Libera
Riunione gruppo reti 9/4/2015.
Meeting tecnico VESPA – 22 Novembre 2013
Report giornata di Technology tracking
Sistema di Autenticazione unica (Single-Sign-On) (azione #8)
NDT ENEA Portici ENEA-GRID Qualità della Rete ENEA-GRID ENEA-GRID
SUBNETTING E SUPERNETTING
Organizzazione di una rete Windows 2000

Esercitazioni corso di RETI
Corso base per Operatori di Protezione Civile
IA2 Massimo Sponza IA2 – Osservatorio Astronomico di Trieste 2018 ICT Workshop - Catania.
1. Risparmiare fa star bene
Esercitazione guidata 1
Preventivi CCR 2018 INFN Roma Tor Vergata.
Cella A. - Hila S. - Motta L. - Lunardelli C. - Panontin C
Tommaso Boccali (INFN-Pisa / CERN)
Transcript della presentazione:

Parlando di network i discorsi naturalmente diventano complessi (creazione di un intero ecosistema virtuale comparabile ad uno reale): Separazione layers prima introduzione Layer fisico di seguito il piu “complicato” logico Estrema esemplificazione per il kick-off

LNL PD GARR-X + LHC-ONE GARR-X Backdoor 1Gb/s 2x10Gb/s 1x10Gb/s CISCO 4900 Juniper 4500 2x10Gb/s Juniper 4500 1x1Gb/s Futuro 2x10Gb/s 2x10Gb/s 1x1Gb/s HP 5412 HP 5412 HP 5412 Link “privato” T2 10Gb/s Risorse T2 Risorse T2 Risorse GRID

Link “privato” T2 + Cloud Link 10Gb/s VLAN separate LNL PD GARR-X + LHC-ONE GARR-X Backdoor 1Gb/s 2x10Gb/s 1x10Gb/s CISCO 4900 Juniper 4500 2x10Gb/s Juniper 4500 1x1Gb/s Futuro 2x10Gb/s 2x10Gb/s 1x1Gb/s HP 5412 HP 5412 HP 5412 Link “privato” T2 + Cloud Link 10Gb/s VLAN separate Risorse T2 Risorse T2 Risorse GRID

LNL PD GARR-X + LHC-ONE GARR-X Backdoor 1Gb/s 2x10Gb/s 1x10Gb/s CISCO 4900 Juniper 4500 Cloud link 10G 2x10Gb/s Juniper 4500 1x1Gb/s Futuro 2x10Gb/s 2x10Gb/s ? 1x1Gb/s HP 5412 HP 5412 HP 5412 Link “privato” T2 10Gb/s Risorse T2 Risorse T2 Risorse GRID

LNL PD GARR-X + LHC-ONE GARR-X Backdoor + Cloud link 10Gb/s 2x10Gb/s 1x10Gb/s CISCO 4900 Juniper 4500 2x10Gb/s Juniper 4500 1x1Gb/s Futuro 2x10Gb/s 2x10Gb/s 1x1Gb/s HP 5412 HP 5412 HP 5412 Link “privato” T2 10Gb/s Risorse T2 Risorse T2 Risorse GRID

Passando al layer logico, varie problematiche: Premesse: le features OpenStack lato networking possono influenzare anche le scelte fisiche; sarebbe importante conoscerne bene le potenzialita’ in relazione a conoscenze solide di rete! Va cmqe individuata una VLAN unica che vada bene sia a PD che a LNL come fatto per il T2 Passando al layer logico, varie problematiche: Rete di management / rete “utenti” (ma poi anche di storage management/utenti, etc) Rete management: rete/i pubblica/privata (dominio, servizi, world outgoing conn, …) Rete utenti: dipende dal servizio che si vuol dare (solo private, anche pubbliche) Reti private: unica per tutti, isolate (problema root access)

Scenario finale possibile Nuovo Dominio cloud-areapd.infn.it: il nome e` ovviamente indicativo !!!! Le risorse cloud devono poter essere distribuite in diversi posti fisici: ogni sede applica I filtri piu opportuni per le reti utente, mentre la parte di management deve essere uniforme (ad esempio VLAN unica e gestione a layer 2) Filtro infn-pd INFN-PD Filtro infn-lnl INFN-LNL cloud-areapd.infn.it Semplice dominio amministrativo: la maggior parte del discorso si risolve al link al portale per la creazione ed il mng di una VM Le VM create avranno il loro dominio di appartenenza, subnet e routing table Filtro uni-pd Ci sara poi la relazione con la eventuale cloud nazionale ?! UNIPD