La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

La rete per l’INFN: oggi e domani per LHC Riunione sul Calcolo INFN CSN1 Perugia, 11-12 Novembre 2002.

Presentazioni simili


Presentazione sul tema: "La rete per l’INFN: oggi e domani per LHC Riunione sul Calcolo INFN CSN1 Perugia, 11-12 Novembre 2002."— Transcript della presentazione:

1 La rete per l’INFN: oggi e domani per LHC Enzo.Valente@roma1.infn.it Riunione sul Calcolo INFN CSN1 Perugia, 11-12 Novembre 2002

2 2 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 “il GARR” e “la Rete GARR” GARR e’ il nome dell’associazione tra Universita’ ed enti di ricerca governativi promossa da CRUI, CNR, ENEA e INFN con la ‘benedizione’ del MIUR. GARR e’ anche il nome assegnato alla Rete informatica dell’ Universita’ e della Ricerca Scientifica italiana. La Rete GARR interconnette tutte le Universita’ (Statali e non) e tutte le sedi degli enti di ricerca scientifica (CNR, ENEA, INFN, Osservatori, etc.), nonche’ istituzioni culturali o di ricerca a carattere accademico, scientifico e tecnologico per un totale di circa 300 siti.

3 3 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 La Storia della Rete GARR Armonizzazione e sinergia tra Universita’ e Enti di Ricerca 1973-1990: reti indipendenti di CNR, ENEA,INFN e Universita’. 1990-1994: rete GARR(-1), prima rete unitaria di Universita’ e Ricerca 1994-1998: rete GARR-2, evoluzione di GARR-1 1998-2002: rete GARR-B (Broadband) 2003-2006: rete GARR-G (Giganet)

4 4 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 La Storia della Rete GARR (1/5) 1973-1990: reti indipendenti di CNR, ENEA,INFN e Universita’ (consorzi CILEA,CINECA,CSATA, etc.) –Banda passante di accesso e trasporto tra 9.6 e 64Kbps (ma inizialmente anche dial up a 300-2400 Bit/sec) –collegamenti internazionali: - CNR(Pisa)-USA a 64Kbit/sec (SatNet, Maggio ’86) - INFN-CNAF(Bologna)-CERN(Ginevra) a 2Mbit/sec (Luglio ’89) - Accessi diretti e indiretti a EBONE e EARN –Partecipazione a Iniziativa Europea COSINE (2.o PQ europeo) –Protocolli ‘proprietari’, Bitnet, Decnet, TCP/IP e X25 –Applicazioni di remote login, mail, file transfer/access –‘gateway’ per l’interconnessione tra le reti

5 5 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 La Storia della Rete GARR (2/5) 1990-1994: rete GARR, prima rete unitaria di Universita’ e Ricerca infrastruttura su 7 PoP interconnessi a 2 Mbit/sec (AS137) Milano-CILEA, Bologna-CINECA, Bologna-CNAF, Pisa-CNUCE, Frascati-ENEA, Roma-INFN, Bari-CSATA –collegamenti internazionali da INFN-CNAF (Bologna): CERN-Ginevra (2Mbit/sec dal 27 Luglio 1989) ESNet-Princeton (64Kbit/sec) Reti Europee COSINE (64Kbps su X25) e Europanet (2Mbps su IP) –accessi sedi universitarie e enti di ricerca fino a 2Mbit/sec –Protocollo TCP-IP e compatibilita’ Decnet e Bitnet –Partecipazione ai progetti europei del 3.o Programma Quadro –GARR fondatore e membro di Associazioni RARE, RIPE e ISOC. –GARR membro di EARN –cofinanziamento MURST di 5GL (CRCS-MURST) –Gestione amm.va Progetto: CILEA. –Gestione GARR-NOC: CINECA

6 6 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 La Storia della Rete GARR (3/5) 1994-1998: rete GARR-2, evoluzione di GARR-1 –infrastruttura basata su 15 PoP (in sedi di universita’, di consorzi o di enti di ricerca) interconnessi con circuiti di capacita’ compresa tra 2Mbps e 34Mbit/sec (15 AS) e capacita’ aggregata del backbone da 30Mbit/sec iniziali a 200Mbit/sec a finali –collegamenti internazionali (AS137): ESNet-(USA) a 1.5 Mbit/sec (fino a Marzo 2000) EuropaNet e CERN a 2Mbit/sec (fino a meta’ ’97) TEN-34 (ATM-24Mbit/sec con Ginevra e ATM-20Mbit/sec con Francoforte) a 34Mbit/sec (dalla meta’ del ’97) –protocolli TCP-IP e compatibilita’ con Decnet; gw con Bitnet –accessi a velocita’ tra 64Kbit/sec e 34Mbit/sec in CDN,F/R e ATM –Partecipazione a Progetti R&D su ATM nel 4.o PQ europeo –GARR fondatore e membro dell’associazione TERENA (fusione di RARE e di EARN) e della Societa’ DANTE (1995) –rete autofinanziata da CNR, ENEA, INFN, Universita’ e Consorzi –Gestione amm.va Progetto coordinata da OTS-GARR –Gestione GARR-NOC: INFN-CNAF

7 7 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 La Storia della Rete GARR (4/5) 1998-2002: rete GARR-B (Broadband) –Convenzione Quadro MURST-INFN per realizzazione e gestione ‘Progetto GARR-B’ (promotori: CRUI, CNR, ENEA, INFN) –autofinanziamento per sedi in aree ‘fuori obiettivo’ –cofinanziamento MURST (ex-488) per le sedi in ‘aree di obiettivo’ –Rete Nazionale (progetto iniziale) 16 punti di presenza (PoP) per l’accesso delle sedi degli enti backbone su 4 nodi di trasporto, (capacita’ aggregata di ~2.5Gbps) ATM (VC e VPN) e IPv4 circa 200 circuiti di accesso ai PoP in F/R o CDN fino a 155Mbit/sec (per un aggregato di ~1.8Gbit/sec) (al Marzo 2002) commodity nazionale a Roma (NAMEX) e Milano (MIX) [350Mbps] – Collegamenti con le Reti della Ricerca internazionali TEN-34 (fino a Febbraio ‘99) a 34Mbit/sec TEN-155 (Feb.99-Nov.2001) a 200Mbit/sec GEANT (dal Dicembre 2001) a 2.5Gbit/sec –Global Internet (da 20Mbit/sec [Giu.’97] a 2.5Gbit/sec [Mar.’02])

8 8 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 La Rete del Progetto GARR-B Fase2 (1999) 4 nodi di Backbone su dorsale ridondata a 155M 16 PoP di accesso collegati a 34M- 155M con il Backbone Capacita’ Aggregata del Backbone: circa 2.5Gbps (al Marzo 2002) Siti GARR connessi ai PoP con velocita’ tra 2M e 155Mbps Peering di commodity e di ricerca internazionale a 155 Mbps vedi: C.Vistoli, “Progetto tecnico GARR-B”, CRCS-97/2

9 9 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Gestione Progetto GARR-B (1998-2002) MIUR (DURST) INFN CRCS (MIUR) OTS-GARR (MIUR) Direzione Progetto GARR-B (INFN-GARR) Convenzione Quadro Nomina

10 10 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Gestione Progetto GARR-B Alla Direzione INFN-GARR sono demandate la realizzazione e la gestione del Progetto GARR-B. La Direzione INFN-GARR, secondo quanto previsto dal Progetto GARR-B e in accordo con le decisioni discusse in GARR-OTS ed approvate dalla CRCS, cura: –la pianificazione, l’evoluzione, il coordinamento tecnico e il funzionamento della rete (gruppo GARR-TEC, tec@garr.it) in accordo con gli APM (Access Port Manager) dei siti connessi alla rete –il coordinamento della sperimentazione di nuove tecnologie della rete GARR e la partecipazione nei comitati e nei progetti internazionali –la gestione amministrativa e scientifica (garr-b@garr.it) Servizi di network del GARR sono: GARR-NOC (call centre, noc@garr.it) GARR-LIR(assegnazione indirizzi e reti IP, lir@garr.it) GARR-NIC (domini di II livello SOLO per GARR, nic@garr.it) GARR-CERT (CSIRT, security, cert@garr.it) [INFN- Firenze] GARR-MCAST(multicast, mcast@garr.it) Web-Cache, FTP-Mirror (cache@garr.it,mirror@garr.it) [CILEA] Usenet News (news@garr.it) [SerRA, Universita’ di Pisa]

11 11 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 APA, APM e AUP del GARR Le AUP (Acceptable Use Policies) sono le norme di comportamento per gli utenti della rete GARR (http://www.garr.it/docs/garr-b-aup.shtml) –Sono armonizzate con quelle delle Reti della Ricerca dei paesi europei –Tra l’altro, vietano espressamente il transito di traffico commerciale sulla Rete. L’APA (Access Port Administrator) di una sede GARR e’ il responsabile “amministrativo” dell’accesso alla Rete. –E’ il delegato del Rettore dell’Universita’ o del Direttore del Laboratorio di Ricerca per gli aspetti amministrativi e strategici –Fa riferimento alle AUP e le fa rispettare –Interagisce con la Direzione GARR-B per questioni amministrative –Interagisce con la sua Comunita’ di Riferimento (CRUI, CNR, etc.) L’APM (Access Port Manager) e’ il responsabile “tecnico” dell’accesso di una sede GARR alla Rete. –E’ nominato dall’APA e le sue prerogative sono descritte in http://www.garr.it/docs/garr-apm-00.shtml –Interagisce con i gruppi di Network Services (NOC, CERT, etc. ) del GARR

12 Lo stato dell’arte del Progetto di Rete GARR-B (Fase 4, Novembre 2002)

13 13 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Infrastruttura di Rete Nazionale (GARR-B Fase4, Novembre 2002) 7 Nodi di Backbone : MI-G, BO-G, RM-G, MI, BO, RM, NA 3 Circuiti di Backbone a 155Mbps: RM-NA, NA-MI, MI-BO 3 Circuiti di Backbone a 2.5Gbps: triangolo MI-G,BO-G,RM-G 5 Circuiti Inter B-B : MI-G a 2.5G, BO-G a 2*155M, RM-G a 2*155M Capacita’ Aggregata del Backbone: circa 11Gbps 22 PoP: 2*MI, TO(155M), GE(2*34M), PD(155M), TS(2*34M), 2*BO, FI (155M), PI(155M), PD (155M) 2*RM, Frascati (155M), CA(2*34M), AQ (2*34M), PG(34M), NA, PA(34M), CT(2*34M), BA(2*34M), CS(34M) 30 Router e 17 Switch ATM di Backbone Accessi Utente: circa 300 siti con circuiti tra 2Mbps e 1Gbps Peering di Commodity: MIX@155M, NAMEX@200M

14 14 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 GARR-B Fase 4 (Novembre 2002) Backbone – 3*155Mbps (RM-NA-MI-BO) – 3*2.5Gbps (MI-BO-RM-MI) – 1*2.5Gbps+4*155M inter BB 22 PoP di accesso dei siti GARR Accessi: ~300 siti @2M-1Gbps Peering di Ricerca ( su Milano-G) - GEANT@2.5G (produzione) - GEANT@2.5G (sperimentazione) Peering di Commodity Nazionali: - Roma (NAMEX@200Mbps) - Milano (MIX@155Mbps) Peering di commodity internazionali: - Milano-GX@2.5Gbps (31/03/02) - Roma-Telia@622Mbps (15/05/02) ) - [backup su GEANT]

15 15 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 1990-1994: rete GARR 12Mbit/sec 1994-1998: rete GARR-2 30-200Mbit/sec 1998-2002: rete GARR-B 2.5-10Gbit/sec 2003-2006: rete GARR-G... Fattore di crescita backbone rete GARR: >50 in 4 anni Evoluzione del Backbone di Rete Nazionale

16 16 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Connettivita’ Internazionale Peering Ricerca Europea (GEANT) –[Chiusura accesso a 200Mbps a TEN155 il 30 novembre 2001] –Accesso a 2.5Gbps per produzione (IPv4, IP-Premium, IP-LBE, Multicast) –Accesso a 2.5Gbps per sperimentazione (QoS,VC,VPN,etc.) Peering Ricerca Intercontinentale –3*2.5Gbit/sec tra GEANT e NordAmerica (Abilene,Esnet, Canarie, …) –155M tra GEANT e Giappone, 2Mbps con SudCorea, 155M con Russia –Transito attraverso Abilene per tutte le altre reti della Ricerca mondiali. Peering Commodity Internazionale (Global Internet) –[Chiusura circuito diretto MI-NY a 622 Mbps il Marzo 2002]) –Circuito Global Crossing da Milano (2.5Gbps ridondati dal 14/3/02) –Circuito Telia da Roma (622Mbps dal 30/5/02). Peering 6Net –Accesso a 2*155M (IPv6 nativo)

17 17 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Peering nazionali (Giugno 2002) NAP Milano (MIX) –155Mbps ATM attraverso MIX: –Infostrada, Inet, etc. –94 peering con ISP privati NAP Roma (NAMEX) –200Mbps attraverso NAMEX: –Interbusiness, Wind, etc. –89 peering con ISP privati

18 18 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Accesso al Global Internet da GARR-B –Giugno 1997: 20Mbps Milano (TEN-34) –Agosto 1999: 45Mbps Napoli - NY –Giugno 2000: 155Mbps Napoli - NY –Settembre 2000: 622Mbps Milano - NY –Mar-Mag 2002: 2.5Gbps Milano (GX), 622Mbps Roma (Telia) Fattore di crescita peering GARR: >100 in 5 anni Evoluzione dei Peering di Commodity internazionale

19 19 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Accessi a GARR-B Fase 4 (Novembre 2002) Circa 300 siti di istituzioni accademiche e di ricerca - 75 Universita’ (statali e non statali) - 56 siti CNR - 9 siti ENEA - 37 siti INFN - 7 siti ASI - 12 siti INAF (Osservatori Astronomici) - 2 siti INFM - 8 siti INGV - 12 Biblioteche (Centrali e Nazionali) e ICCU - 41 siti di altre istituzioni di ricerca - 3 Consorzi di Supercomputing (CILEA,CINECA,CASPUR) - sede MIUR di P.le Kennedy (a 34Mbit/sec) - sede MIUR di V.le Trastevere (a 8Mbit/sec)

20 20 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Capacita’ aggregata di Accesso [BGA] di tutti i siti GARR (Giugno 2002) Highly developed areas Less developed areas Total access capacity

21 21 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Capacita’ aggregata di accesso (BGA) delle sedi INFN

22 22 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Accessi Sedi INFN alla rete GARR (1/3)

23 23 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Accessi Sedi INFN alla rete GARR (2/3)

24 24 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Accessi Sedi INFN alla rete GARR (3/3)

25 25 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Weathermap di GARR-B

26 26 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Andamento delle Tariffe (ascissa in Mbit/sec, ordinata in MLit/anno)

27 La partecipazione del GARR ai Progetti di Ricerca e Sviluppo Internazionali

28 28 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Partecipazioni Internazionali –TERENA (TF-NGN, Serenate, CSIRT, …) –IETF (Messaging, IPv6, Optical,…) –RIPE (Registry, Routing, IPv6, DNS,…) –INTERNET2 (Multicast, videoconferenza, …) –Collaborazioni trasversali con altri Progetti Europei

29 29 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Partecipazione GARR ai Programmi (in corso) della Commissione Europea Nome ProgettoInizioDurataCosto GARR Contributo CE CAESAR Fase 1 e 2 (ALIS o @LIS) 01/04/2002 4+18 mesi -80% GEANT rete europea della Ricerca (IST-RN1) 01/11/200048 mesi13.2 ML €48% 6NET (IPv6 Backbone)01/01/200224 mesi591.347 €50% EUMEDCONNECT Fase 1 e 2 (EUMEDIS) 01/01/2002 4 + 20(47) mesi -80% eCSIRT (security)01/04/20021553.200 €55%

30 30 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Progetto Europeo GEANT GEANT e’ un Progetto approvato nell’ambito del 5.PQ della Unione Europea per l’interconnessione delle Reti della Ricerca Europee e tra queste e le reti della ricerca: -del Nordamerica -del Sudamerica -del bacino del Mediterraneo -dei Paesi Asiatici sul Pacifico -in futuro, forse, dei Paesi sull’Oceano Indiano e dell’Africa Questo Progetto, successore di TEN-34 e TEN-155 (Trans European Network) del 4.o PQ e di EuropaNet del 3.o PQ, ha una durata di 48 mesi (2000-2004), un costo stimato di circa 170Meuro e un cofinanziamento europeo di 80Meuro. Al Progetto GEANT partecipano 32 reti della ricerca europee, tra cui il GARR per l’Italia Lo sviluppo del Progetto e’ regolato dal Consorzio (virtuale) delle Reti della Ricerca Europee

31 31 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 EUMEDIS-EUMedConnect EUMEDIS e’ un Programma della Unione Europea per lo sviluppo della Societa’ dell’Informazione a beneficio di 12 paesi del Mediterraneo. Il Programma prevede la cooperazione tra i paesi dell’unione europea e i paesi del mediterraneo su diversi temi. Esso e’ suddiviso in: -Strand 1: 35 Meuro per applicazioni (16 Progetti approvati) -Strand 2: 10 Meuro per infrastruttura di rete (fino a Giugno 2006) 1.Per lo Strand 2 e’ stato accettato e approvato un solo progetto, cioe’ EUMEDCONNECT, per la Interconnessione tra GEANT e le Reti della Ricerca di: -Marocco, Algeria, Tunisia, Egitto, Palestina, Giordania, Siria, Libano, Turchia (cofinanziati da EUMEDIS) -Malta, Cipro, Israele (cofinanziati dal 5.o e 6.o PQ-IST) 2.Al Progetto EUMEDCONNECT partecipano anche le reti della ricerca di Spagna, Francia, Italia (GARR) e Grecia (coordinatore DANTE)

32 32 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 ALIS-CAESAR ALIS (o @LIS) e’ un Programma della Unione Europea per lo sviluppo della Societa’ dell’Informazione a beneficio di tutti i paesi dell’America Latina. Il Programma prevede la cooperazione tra i paesi dell’unione europea e i paesi del Centro e Sudamerica su diversi temi. 1.L’Unione Europea ha affidato al Consorzio delle Reti della Ricerca Europee il progetto, denominato CAESAR, per la Interconnessione tra la Rete della Ricerca Europea GEANT e le Reti della Ricerca di tutti i paesi dell’America Latina Al Progetto CAESAR partecipano, in rappresentanza delle Reti della Ricerca Europee, le organizzazioni per le reti della ricerca di Spagna, Francia, Italia (GARR) e Portogallo (coordinatore DANTE)

33 33 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Progetto Europeo 6NET 6NET e’ un Progetto approvato nell’ambito del 5.PQ-IST della Commissione Europea (durata 24 mesi da Gen.2002 a Dic.2003) Ha per scopo il test a livello internazionale di un’infrastruttura nativa di rete basata su protocollo IPv6 e di applicazioni native IPv6. Il Progetto 6NET, cui partecipano reti della ricerca europee, tra cui il GARR, e’ in stretta collaborazione con il Progetto analogo EURO6IX, cui partecipano principalmente operatori di tlc. Partecipanti italiani (GARR): CNR, INFN, 10 Universita’ e CASPUR Contatto per il GARR: Gabriella.Paolini@garr.it

34 34 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Network North America Asia-Pacific Provided by 6NET partners Circuit dedicated – initially 155Mbit/s Dedicated circuit added for redundancy (optional) Tunneled solution for cost reasons UK NL DE CH IT AT GR SE FR The

35 35 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 The PoP TORINO PoP BOLOGNA PoP ROMA 6NET BACKBONE POLITECNICO DI TORINO UNIVERSITA’ DI MILANO UNIVERSITA’ DI FERRARA UNIVERSITA’ DI BOLOGNA INFN/CNAF UNIVERSITA’ DI FIRENZE CNR / IAT UNIVERSITA’ DI ROMA3 CASPUR UNIVERSITA’ DI NAPOLI MILANO PoP PISA GARR 6NET-GW UNIVERSITA’ DI BARI UNIVERSITA’ DI PISA Network in Italy GARR POLITECNICO DI MILANO (s.j.)

36 36 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 eCSIRT:Sicurezza della Rete Sistemi di calcolo sicuri e protetti (esigenza primaria per le griglie computazionali) CERT e CSIRT nelle reti della Ricerca per la gestione di interventi immediati legati alla sicurezza della rete Protezione proattiva da violazione dei sistemi, in coordinamento con gli APM nazionali e internazionali delle Reti Certification Authority: –coordinamento internazionale certificati X.509 –Autenticazione, Autorizzazione, Accounting Partecipanti: DE, IT, FR, UK, DK, NO, CH, PL, SI, ES, NL Progetto Europeo, 24 mesi (Aprile 2002 - Marzo 2004) Contatto per il GARR: Roberto.Cecchini@firenze.infn.it

37 37 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 SErvice QUality over Interconnected Domains (SEQUIN) Studio, Progettazione e Realizzazione di QoS a livello IP in GEANT e nelle Reti della Ricerca Europee Coordinamento con Task Force TF-TANT e TF-NGN Tra l’altro: definizione Servizio Premium IP end to end su scala europea [gia’ reso operativo su GEANT] Progetto Europeo, 18 mesi (Nov. 2000 - Apr. 2002) [concluso] Partecipanti: Switch, DFN, Renater, GARR, UKERNA, Pol34, Grnet Contatto per il GARR: Mauro.Campanella@garr.it

38 Il GARR e le Reti della Ricerca internazionali

39 39 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 La rete della ricerca Europea TEN-155 (1998-2001) Progetto e Rete TEN-155 (evoluzione della rete TEN-34) Cofinanziamento CE (4 th FP) per 80M€ su un costo di ~170M€ Durata 36 mesi (1/12/98 – 30/11/01) Partecipanti: 20 NREN europee Rete operativa dall’1 Dic. 1998 Peculiarita’ di TEN-155: –Backbone a 155-622Mbit/sec –Accesso iniziale fino a 155M Gbit/sec –Peering con tutte le reti della ricerca –Supporto VC, VPN Accesso GARR-B –200Mbit/sec su 2x155Mbps ATM: –155Mbit/sec produzione –45Mbit/sec sperimentazione

40 40 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 La Rete della Ricerca Europea GÉANT (2001-2004) Progetto e Rete GÉANT (evoluzione della rete TEN-155) Cofinanziamento CE (5 th FP-IST-RN1) per 80M€ su un costo di ~170M€ Durata 48 mesi (1/12/00 – 30/11/04) Partecipanti: 32 NREN europee Rete operativa dall’1 Dic. 2001 Peculiarita’ di GÉANT: –Backbone a 10Gbit/sec –Accesso iniziale fino a 2.5 Gbit/sec –Uso di circuiti su lambda –Peering con tutte le reti della ricerca –Supporto per QoS, VPN, MCAST 2001 2001 Accesso GARR a 2.5Gbit/sec per produzione e 2.5Gbit/sec per sperimentazione

41 41 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 L’evoluzione delle Reti della Ricerca Europee Pan-European Research Networks: Caratteristiche Accesso GARR GÉANT 2001-2004 32 countries 2.5-10 Gbps Backbone IPv4 [v6] 2.5[+2.5]Gbps TEN-155 1998-2001 19 countries 155-622 Mbps Backbone IP, ATM 200Mbps TEN-34 1997-1998 18 countries 34 Mbps Backbone IP, ATM 34Mbps EuropaNET 1993-1997 18 countries 2 Mbps Backbone IP, CDN 2Mbps COSINE 1986-1993 15 countries 64 Kbps Backbone IP, X25 64Kbps TEN-34 network emerged from the TEN-34 project in 1997. The accompanying Advanced ATM Testing programme was carried out by Task Force TEN (TF-TEN). The QUANTUM project produced the TEN-155 network in 1998; its accompanying testing programme is called QUANTUM Testing Programme (QTP), carried out by Task Force TANT (TF-TANT, Testing of Advanced Networking Technologies). In the case of GÉANT, the project and network will carry the same name. The Managed Bandwidth Service and the testing programme will be continued as part of GÉANT, the latter by TF-NGN (Task Force New Generation Networks) and by other projects like SEQUIN. Fattore di crescita peering GARR: >100 in 5 anni

42 42 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 La rete a supporto delle Computing Grid Problemi particolarmente complessi oggi richiedono sofisticate infrastrutture di calcolo (software e hardware) Ad esempio: per i futuri esperimenti di Fisica delle Alte Energie la potenza di calcolo necessaria non sara’ piu’ “confinabile” in un singolo sito –potenza di calcolo (K-SI95  7.500   200.000 PIII 800MHz !!! ) –  PetaByte di dati I modelli di calcolo distribuito oggi esistenti non sono sufficenti a risolvere il problema: –clusters  fabrics –produzioni/analisi locali  produzioni/analisi distribuite –collaborazioni internazionali sempre piu’ grandi Grid

43 43 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Che cos’e’ la “Grid Technology”? L’obiettivo principale dei progetti di Grid e’ lo sviluppo di un insieme coerente di risorse di calcolo (“Grid”), distribuite su scala geografica. La Grid dovra’ garantire la gestione di data-sets di differenti “Virtual Organizations” (fino alla scala del “Peta-Byte”) utilizzando computing power e storage distribuiti. Una Griglia Computazionale dovra’ fornire una interfaccia uniforme ai suoi utilizzatori (ed alle sue risorse), distribuendo un servizio affidabile e accessibile da “qualsiasi luogo” Paradigma delle Grid: – analogia con le griglie-elettriche (si inserisce un “dispositivo” nella presa nel muro e si opera senza preoccuparsi delle centrali elettriche di produzione, della rete di distribuzione, del trasporto su cavi ad alta tensione, etc.); –si usa qualsiasi risorsa di calcolo e di storage disponibile sulla rete, similmente a quanto si fa col WWW.

44 44 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 LHC Data Grid Hierarchy (by H.Newman at HEP-CCC 18-nov-2002) Tier1 Tier2 Center Online System CERN 700k SI95 ~1 PB Disk; Tape Robot FNAL: 200k SI95; 600 TB IN2P3 Center INFN Center RAL Center Institute Institute ~0.25TIPS Workstations ~100-400 MBytes/sec 2.5 Gbps 100 - 1000 Mbits/sec Tens of Petabytes by 2007-8. An Exabyte within ~5 Years later. Physics data cache ~PByte/sec ~2.5 Gbits/sec Tier2 Center ~2.5 Gbps Tier 0 +1 Tier3 Tier 4 Tier2 Center Tier2 Experiment CERN/Outside Resource Ratio ~1:2 Tier0/(  Tier1)/(  Tier2) ~1:1:1

45 45 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002

46 46 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 GÉANT

47 47 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 ICFA SCIC: R&E Backbone and International Link Progress (by H.Newman, 18-nov-2002) [1/2] GEANT Pan-European Backbone (http://www.dante.net/geant)http://www.dante.net/geant –Now interconnects >31 countries; many trunks 2.5 and 10 Gbps OK UK: SuperJANET Core at 10 Gbps –2.5 Gbps NY-London, with 622 Mbps to ESnet and Abilene (???) France (IN2P3): 2.5 Gbps RENATER backbone by mid-October –Lyon-CERN Link being Upgraded to 1 Gbps Ethernet OK –Proposal for dark fiber to CERN by end 2003 ! SuperSINET (Japan): 10 Gbps IP and 10 Gbps Wavelength Core –Tokyo to NY Links: Now 2 X 2.5 Gbps; Need to get to Starlight CA*net4 (Canada): Interconnect customer-owned dark fiber nets across Canada at 10 Gbps, started July 2002 –“Lambda-Grids” by ~2004-5 GWIN (Germany): 2.5 Gbps Core; Connect to US at 2 X 2.5 Gbps; (???) Support for SILK Project: Satellite links to FSU Republics Russia: Now 155 Mbps links to Moscow – Moscow-Starlight Link to 155 Mbps (US NSF + Russia Support) – Moscow-Stockholm Link; connect to GEANT at 155 Mbps

48 48 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002

49 49 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002

50 50 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002

51 51 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002

52 52 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002

53 53 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Canet*3 network map

54 54 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002

55 55 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Accesso GARR a GEANT [GEANT Backbone] 10 Gbit/sec 2.5 Gbit/sec (fibra locale) GE (1Gbit/sec) PoP GEANT Milano PoP GEANT Francoforte PoP GEANT Ginevra PoP GARR Milano| (sperimentazione) PoP GARR Milano| (produzione)

56 56 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Accesso GARR a GEANT [GEANT Backbone] 10 Gbit/sec 2.5 Gbit/sec (fibra locale) GE (1Gbit/sec) PoP GEANT Milano PoP GEANT Francoforte PoP GEANT Ginevra PoP GARR Milano| (sperimentazione) PoP GARR Milano| (produzione)

57 57 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002

58 58 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Accesso CERN a GEANT [GEANT Backbone] 10 Gbit/sec 2.5 Gbit/sec (fibra locale) GE (1Gbit/sec) PoP GEANT Ginevra PoP GEANT Milano PoP GEANT Parigi CERN (sperimentazione) PoP SWITCH Ginevra (produzione)

59 La evoluzione del GARR e della sua Rete

60 60 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 La Storia della Rete GARR (5/5) 1973-1990: reti indipendenti di CNR, ENEA,INFN e Universita’. 1990-1994: rete GARR, prima rete unitaria di Universita’ e Ricerca 1994-1998: rete GARR-2, evoluzione di GARR-1 1998-2002: rete GARR-B (Broadband) 2003-2006: rete GARR-G (Giganet)

61 61 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Evoluzione delle tecnologie trasmissive Dal rame alla fibra, moltiplicazione delle fibre Fibra multimodale e fibra monomodale (G65x) Dai circuiti su fibra ai circuiti su ‘lambda’ Evoluzione tecnologica: piu’ lambda per fibra + maggiore velocita’ per lambda ==> ==> maggiore capacita’ per fibra. ‘Illuminate’ solo il 5-6% delle fibre installate IRU: Indefeasible Right of Use Effetto sul ‘prezzo’ delle killer technology Nuovo tipo di fibre ===> nuove tecnologie trasmissive Coesistenza di piu’ operatori: competizione e accordi di interoperabilita’

62 62 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Flexible OADM Passive Low Cost OADM Format and Bit Rate Transparent 8 Ch. OADM Modularity up to 32 Capacity BSMBSM BSMBSM A/D 1 A/D 8 Ch 8 Ch 1 Local interface Band 1 Band 4 Band 2 Band 3

63 63 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Evoluzione degli apparati per la trasmissione dati Dal TDM all’HD-WDM. L’integrazione dei servizi (dati, video, voce, etc.) Le alte velocita’ (2.5,10,40,160Gbit/sec) Nuovo tipo di fibre ===> nuove tecnologie trasmissive Dai circuiti su fibra ai circuiti su ‘lambda’ Optical Networks (R&D): Circuit switching, Optical switching, Optical Routing Tecnologie apparati di Routing e interfacce di linea Wireless e Protocolli (IPv4 ==> IPv6 ==> ?) Turnover degli apparati sempre piu’ frequente Coesistenza di piu’ costruttori: competizione e standard per l’interoperabilita’

64 64 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Evoluzione della Rete SDH DWDM ATMIPGbEEscon... Strato Server Ottico Strato Client IP, ATM, SDH, GbE,... Apparato SDH OXC OADM Router IP Elaboratore con porte GbE,... Switch ATM

65 65 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Progetto GARR-G Pilot Scopo: studio di fattibilita’ di GARR-Giganet –Indagine con operatori di telecomunicazioni (TI, Infostrada, Wind, Interoute, e-Via, Albacom, Atlanet+Edisontel, Autostrade TLC) –Indagine con Fornitori di Apparati (CISCO, Juniper, Riverstone, Marconi, Alcatel, Foundry, Spirent, RIPE-NCC) –Test di circuiti a 2.5G su Lambda con terminazione SDH con generatori di traffico Smartbit e slow-monitor con Ripe-Box –Test di Giga-switch-router CISCO, Juniper e Riverstone –Test di Multiplexer SDH Alcatel 1660SM (Milano-Pisa-Roma) Risultato: Documento Tecnico-Implementativo Progetto GARR-Giganet Durata: 30 mesi (Lug.2000-Dic.2002) Partecipanti (GARR): CNR, INFN, Universita’ di Pisa, Universita’ di Milano Contatto per il GARR: massimo.carboni@garr.it

66 66 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Alcatel 1660SM PISAGARR (Centro SERRA) Alcatel 1660SM MILANOGARR Direzione GARR-B Alcatel 1660SM GARR-G Pilot (stato all’ 1/3/2002) Lan Milano Lan Pisa SH+RM HP Server PC L0 Lan Roma ROMAGARR L1 hub 1x2.5Gbps 2x2.5Gbps Giga BACKBONE 3x2.5Gbps

67 67 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 GARR-G Pilot 3 circuiti Telecom Italia a 2.5G su lambda –Tecnologia basata su Fibra G.653 e apparati WDM Marconi MSH73 –Test di apparati CISCO 12016, Juniper M20 e Riverstone 8600 –Generatori di traffico Spirent-Smartbit e slow-monitor con RIPE-Box 2 circuiti Interoute a 2.5G su Lambda tra Pisa e Milano –Tecnologia basata su Fibra G.655 e apparati WDM Alcatel 1640WM –Test di 2 circuiti a 2.5G su Lambda con terminazione SDH Infrastruttura Atlanet end-to-end WDM (16 ) tra Pisa e Roma –Tecnologia basata su Fibra G.655 e apparati WDM Marconi PLA16 –Test di 1 circuito a 2.5G su Lambda con terminazione PLT16 –Possibile test a 10Gbps (SDH o Giga Ethernet)

68 68 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Obiettivi GARR con GARR-Giganet (2003-2006) * “Consortium” GARR per le Università e Enti Pubblici di Ricerca, aperto anche a istituti di ricerca privati * Investimenti in infrastrutture nelle regioni meridionali * Connessione delle scuole * Servizi avanzati: QoS (peer to peer), VPNs, IPv6 nativo e dual stack con IPv4, Multicast, etc. * Supporto per richieste di Larga Banda (Grids, Tele-medicine, Distance Learning, etc.) * Applicazioni Multimediali (Musei e Biblioteche digitali) * Sviluppo di Reti Regionali, MAN e LAN estese * Supporto per sperimentazione Progetti Lambda Switching * Sicurezza della Rete (per quanto e’ possibile…)

69 69 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Napoli RT Bologna RT Milano RT GARR – AS137 iMSDP GEANT – AS20965 eMSDPeMBGP iMSDP La rete GARR mantiene un collegamento internazionale multicast tramite Geant verso tutte le reti della ricerca Europea e Nordamericana. Il collegamento multicast e’ ottenuto mediante peering MSDP e MBGP (Multiprotocol Border Gateway Protocol). Il routing multicast all’interno della rete GARR utilizza il protocollo PIM (Protocol Indipendent Multicast) per l’inoltro del traffico, ed il protocollo MSDP (Multicast Source Discovery Protocol) per la notifica della presenza di sorgenti attive. I Rendez-Vous Point sono definiti sui router di trasporto di Bologna e Napoli Routing Multicast in GARR-B

70 70 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Propagazione dei worm Nimda Code Red II Numero di righe per giorno in error_log del server web di GARR-CERT

71 71 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Struttura della Rete GARR-G (2003-2006) Infrastruttura di trasporto di capacita’ aggregata di 100Gbit/sec Capacita’ trasmissiva dei singoli circuiti di backbone tra 155Mbit/sec e 10Gbit/sec (su SDH, lambda, dark fiber) OVERPROVISIONING Ridondanza link e apparati di switch-routing PoP: ~10 punti di presenza primari (Giga-PoP) (2.5-10Gbit/sec) ~20 punti di presenza secondari (Mega-PoP) (155M-2.5Gbit/sec) Peering internazionali (ricerca e commodity) adeguati Peering commodity anche a livello regionale I PoP GARR saranno ospitati in sedi “neutre” gestite da GARR Servizi di supporto (NOC, CERT, etc.)

72 72 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Accessi a GARR-G –Circuiti di accesso tra 2Mbit/sec e 1Gbit/sec [2003-2004] [accessi a piu’ alta velocita’ possibili subito per sperimentazione e dopo il 2004 per produzione] –Accessi da MAN e da extended LAN al backbone [distinti per sito] –ATM non piu’ usato sul Backbone, ma supportato sugli accessi fino a 155Mbit/sec –Affidabilita’ e ridondanza accessi (backup) –IP best effort e Servizi Avanzati (VPN,QoS,IPv6,Multicast,etc.) funzionalita’ peer-to-peer –Tariffazione basata su BGA (Banda Garantita di Accesso), capacita’ del circuito e 95 o percentile –[semplificazione procedure convenzioni, contratti, rendicontazioni]

73 73 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Gestione Progetto GARR-B (1998-2002) MURSTINFN CRCS (MURST) OTS-GARR (MURST) DIR.GARR-B (INFN) Convenzione Quadro Nomina

74 74 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 “Consortium” GARR (dal 2003) Consorzio privato di enti pubblici CRCS-MIUR Associazione Consortium GARR Consiglio d’Amm.ne Consortium (7 membri) Comitato Tecnico-Scientifico Direzione GARR Indirizzo

75 75 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Sommario attivita’ GARR in corso Caratteristiche della rete GARR-Giganet definite in base alle necessita’ dei suoi utilizzatori, sia in termini di banda richiesta che di tipologia di servizi Rete GARR-G sulla linea di partenza: –Gara per fornitura di connettivita’ in atto –Housing PoP GARR presso i siti piu’ idonei –Gara per fornitura apparati in preparazione –Ridefinizione tariffe (BGA/BEA/percentile) “Consortium” GARR inizia ad operare dall’anno 2003 Partecipazione ai Progetti Europei del 6.o PQ Workshop, Conferenze, Formazione

76 76 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 1990-1994: rete GARR 12Mbit/sec 1994-1998: rete GARR-2 30-200Mbit/sec 1998-2002: rete GARR-B 2.5-10Gbit/sec 2003-2006: rete GARR-G... Fattore di crescita backbone rete GARR: >50 in 4 anni Evoluzione del Backbone di Rete Nazionale

77 77 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Accesso al Global Internet da GARR-B –Giugno 1997: 20Mbps Milano (TEN-34) –Agosto 1999: 45Mbps Napoli - NY –Giugno 2000: 155Mbps Napoli - NY –Settembre 2000: 622Mbps Milano - NY –Mar-Mag 2002: 2.5Gbps Milano (GX), 622Mbps Roma (Telia) Fattore di crescita peering GARR: >100 in 5 anni Evoluzione dei Peering di Commodity internazionale

78 78 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 L’evoluzione delle Reti della Ricerca Europee Pan-European Research Networks: Caratteristiche Accesso GARR GÉANT 2001-2004 32 countries 2.5-10 Gbps Backbone IPv4 [v6] 2.5[+2.5]Gbps TEN-155 1998-2001 19 countries 155-622 Mbps Backbone IP, ATM 200Mbps TEN-34 1997-1998 18 countries 34 Mbps Backbone IP, ATM 34Mbps EuropaNET 1993-1997 18 countries 2 Mbps Backbone IP, CDN 2Mbps COSINE 1986-1993 15 countries 64 Kbps Backbone IP, X25 64Kbps TEN-34 network emerged from the TEN-34 project in 1997. The accompanying Advanced ATM Testing programme was carried out by Task Force TEN (TF-TEN). The QUANTUM project produced the TEN-155 network in 1998; its accompanying testing programme is called QUANTUM Testing Programme (QTP), carried out by Task Force TANT (TF-TANT, Testing of Advanced Networking Technologies). In the case of GÉANT, the project and network will carry the same name. The Managed Bandwidth Service and the testing programme will be continued as part of GÉANT, the latter by TF-NGN (Task Force New Generation Networks) and by other projects like SEQUIN. Fattore di crescita peering GARR: >100 in 5 anni

79 79 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 conclusione La rete GARR, in collaborazione con le altre reti della ricerca europee, e’ in grado di mantenere continuita’ di funzionamento e garantire banda passante adeguata per soddisfare qualsiasi richiesta di applicazione scientifica Tutti i gruppi di ricerca dell’INFN sono invitati a dare contributo allo sviluppo della rete GARR: - in termini di requirements (sia a livello nazionale che internazionale) - in termini di collaborazione a progetti di R&D.

80 80 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 La QoS per l’utente, arduo...


Scaricare ppt "La rete per l’INFN: oggi e domani per LHC Riunione sul Calcolo INFN CSN1 Perugia, 11-12 Novembre 2002."

Presentazioni simili


Annunci Google