La rete per l’INFN: oggi e domani per LHC Riunione sul Calcolo INFN CSN1 Perugia, 11-12 Novembre 2002.

Slides:



Advertisements
Presentazioni simili
Dipartimento di Ingegneria Idraulica e Ambientale - Universita di Pavia 1 Caduta non guidata di un corpo rettangolare in un serbatoio Velocità e rotazione.
Advertisements

1 Internet: PRIMI PASSI Fabio Navanteri lunedì 11 novembre 2013lunedì 11 novembre 2013lunedì 11 novembre 2013lunedì
Valutazione d’Istituto A.S. 2008/2009
Osservatorio del Credito in provincia di Palermo
1 MeDeC - Centro Demoscopico Metropolitano Provincia di Bologna - per Valutazione su alcuni servizi erogati nel.
Il mercato dellICT in Italia nel 1° semestre ottobre 2006 – Slide 0 Il mercato dellICT in Italia nel 1° semestre 2006 Giancarlo Capitani Amministratore.
Lezioni di Astronomia 3- Le stelle Bologna 8 aprile 2010
1 Pregnana Milanese Assessorato alle Risorse Economiche Bilancio Preventivo P R O P O S T A.
Indagine Congiunturale 2011 Confcooperative Emilia Romagna CONFERENZA STAMPA CONFCOOPERATIVE EMILIA ROMAGNA Bologna, 30 Luglio 2013.
TECHNICAL WORKSHOP La collaborazione tra BIBLIOSAN, ACNP e NILDE: stato dellarte e prospettive. Bologna, 05 LUGLIO 2005 CNR – Area della Ricerca di Bologna.
La Larga Banda della Pubblica Amministrazione AlexCurti.it.
Frontespizio Economia Monetaria Anno Accademico
IL NOSTRO LABORATORIO. Di INFORMATICA.. Presentazione: Nel nostro laboratorio abbiamo 24 postazioni con dei computer di tipo Desktop con queste caratteristiche:
IL NOSTRO LABORATORIO. Di INFORMATICA..
Il nostro laboratorio di informatica.
IL NOSTRO LABORATORIO. Di INFORMATICA.. Presentazione: Nel nostro laboratorio abbiamo 24 postazioni con dei computer di tipo Desktop con queste caratteristiche:
Nel nostro laboratorio abbiamo 24 postazioni con dei computer di tipo Desktop con queste caratteristiche: Sistema Operativo: Windows 2000 CPU: Intel celeron.
La rete in dettaglio: rete esterna (edge): applicazioni e host
I MATEMATICI E IL MONDO DEL LAVORO
ELEZIONI REGIONALI 2010 PRIMI RISULTATI E SCENARI 14 aprile 2010.
Canale A. Prof.Ciapetti AA2003/04
Ufficio Studi UNIONCAMERE TOSCANA 1 Presentazione di Riccardo Perugi Ufficio Studi UNIONCAMERE TOSCANA Firenze, 19 dicembre 2000.
Aspetti critici rete LAN e WAN per i Tier-2
I lavoratori italiani e la formazione UNA RICERCA QUANTITATIVA SVOLTA DA ASTRA, IN COLLABORAZIONE CON DOXA, PER ANES (febbraio 2005)
MP/RU 1 Dicembre 2011 ALLEGATO TECNICO Evoluzioni organizzative: organico a tendere - ricollocazioni - Orari TSC.
COMPLETAMENTI Mil.Tslc All
Cos’è un problema?.
Concetti introduttivi
1 THE INTERNET: una rete di reti La storia in breve Le regole della comunicazione.
Gli italiani e il marketing di relazione: promozioni, direct marketing, digital marketing UNA RICERCA QUANTITATIVA SVOLTA DA ASTRA RICERCHE PER ASSOCOMUNICAZIONE.
Mercato mondiale dell’ICT ( )
4 Cosa è una rete? ã Punto di vista logico: sistema di dati ed utenti distribuito ã Punto di vista fisico: insieme di hardware, collegamenti, e protocolli.
STILI DI APPRENDIMENTO ED EVOLUZIONE INTERFACCE
Ropol09anci INDAGINE SU PATTO DI STABILITA 2009 IN PIEMONTE ANCI PIEMONTE Torino, 29 giugno 2009.
CHARGE PUMP Principio di Funzionamento
Istituto Nazionale di Fisica Nucleare Roma,12 febbraio 2001 Netgroup meeting Situazione attuale e attivita futura - R.Gomezel 1 Netgroup meeting Situazione.
1 Riunione Testbed - 17 gennaio Agenda - stato del testbed di INFN-GRID (L. Gaido) - le risorse del CNAF (A. Italiano) - report sullo stress test.
Technical Board 21 novembre 2000 WP5 - Network Luciano Gaido 1 Progetto INFN-GRID WP5 - Network Technical Board Cnaf, 21 novembre 2000.
Settimana: 3-7 marzo Orariolunedimartedi Mercoledi 5 Giovedi 6 Venerdi lezione intro alla fis mod DR lezione intro alla fis mod DR.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
Corso di Informatica per Giurisprudenza Lezione 7
Modulo 1: 1.3 Le Reti.
Q UESTIONI ETICHE E BIOETICHE DELLA DIFESA DELLA VITA NELL AGIRE SANITARIO 1 Casa di Cura Villa San Giuseppe Ascoli Piceno 12 e 13 dicembre 2011.
Storia di internet 1957: Il governo degli Usa istituisce l’Arpa (Advanced Research Projects Agency); 1969: Arpa dà vita ad Arpanet (che inizialmente collegava.
1 Negozi Nuove idee realizzate per. 2 Negozi 3 4.
ISOIVA (LOCALE) TO ISOIVA (WEB) RIPARTIZIONE INFORMATICA UFFICIO APPLICATIVI AMMINISTRATIVI 13/04/2011 UNIVERSITÀ DEGLI STUDI DI FERRARA 1.
ORDINE DI CHIAMATA a 1minuto e 2 minuti PRINCIPALI TEMPI DELLA COMPETIZIONE ORDINE DI CHIAMATA a 1minuto e 2 minuti PRINCIPALI TEMPI DELLA COMPETIZIONE.
Alcatel Presentation - DIRCOM - July Provincia di Foggia Presentazione 21 Dicembre 1998 Auditorium Biblioteca Provinciale.
Università degli Studi di Bergamo Facoltà di Lettere e Filosofia Informatica per le discipline umanistiche Note sulla telematica Marco Lazzari A.A
“Osservare per Conoscere”: un’indagine sullo stato di salute della
ISTITUTO COMPRENSIVO “G. BATTAGLINI” MARTINA FRANCA (TA)
Qualified EXchange Network
E.Toscana – Progetto RTRT SAT Pisa, 23 Giugno 2006 Il progetto RTRT SAT: gli obiettivi, lo stato di avanzamento, le ipotesi di sviluppo Laura Castellani.
Un trucchetto di Moltiplicazione per il calcolo mentale
LA BANDA LARGA RETE PRIVATA DELLE PUBBLICHE AMMINISTARZIONI DELLEMILIA- ROMAGNA Servizio Informatica Provincia di Ravenna.
Alcuni dati sullinnovazione tecnologica nella scuola e nelluniversità Roma, 22 luglio 2005 Direzione Generale Sistemi Informativi.
Esempi risolti mediante immagini (e con excel)
La Nuova Rete per le Telecomunicazioni del Porto di Venezia Ing. Alberto Gusella Venezia, 27 marzo 2002.
La RETE dell’INAF-Osservatorio Astronomico di PADOVA
La rete GARR stato ed evoluzione a GARR-Giganet
NO WASTE Progetto continuità scuola primaria scuola secondaria Salorno a.s. 2013_
Un’analisi dei dati del triennio
A cura dell’Ing. Claudio TRAINI
CCR 14-15/03/2006 Status Report Gruppo Storage CCR.
1 Ministero dell’Istruzione, dell’Università e della Ricerca Dipartimento per la Programmazione e la Gestione delle risorse umane, finanziarie e strumentali.
Tecnologie di rete avanzate prospettive e progetti Workshop CCR 2003, Pæstum 9-12/6/2003 M.Carboni, Consortium GARR.
WORKSHOP GARR_08 GARR-X: il futuro della Rete _ Milano 1-4 aprile 2008 Modelli di MAN ed integrazione in GARR-X Marco Marletta Workshop GARR_08 Milano.
Stato di GARR-X Claudia Battista Workshop CCR INFN - Isola d’Elba 17 maggio 2011.
GARR – chi siamo Il Consortium GARR progetta e gestisce la rete telematica nazionale dell'Università e della Ricerca. Attualmente è costituito come associazione.
Aggiornamento potenziamento collegamenti e stato del Progetto GARR-X Claudia Battista CCR-INFN - 3 marzo 2008.
Transcript della presentazione:

La rete per l’INFN: oggi e domani per LHC Riunione sul Calcolo INFN CSN1 Perugia, Novembre 2002

2 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 “il GARR” e “la Rete GARR” GARR e’ il nome dell’associazione tra Universita’ ed enti di ricerca governativi promossa da CRUI, CNR, ENEA e INFN con la ‘benedizione’ del MIUR. GARR e’ anche il nome assegnato alla Rete informatica dell’ Universita’ e della Ricerca Scientifica italiana. La Rete GARR interconnette tutte le Universita’ (Statali e non) e tutte le sedi degli enti di ricerca scientifica (CNR, ENEA, INFN, Osservatori, etc.), nonche’ istituzioni culturali o di ricerca a carattere accademico, scientifico e tecnologico per un totale di circa 300 siti.

3 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 La Storia della Rete GARR Armonizzazione e sinergia tra Universita’ e Enti di Ricerca : reti indipendenti di CNR, ENEA,INFN e Universita’ : rete GARR(-1), prima rete unitaria di Universita’ e Ricerca : rete GARR-2, evoluzione di GARR : rete GARR-B (Broadband) : rete GARR-G (Giganet)

4 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 La Storia della Rete GARR (1/5) : reti indipendenti di CNR, ENEA,INFN e Universita’ (consorzi CILEA,CINECA,CSATA, etc.) –Banda passante di accesso e trasporto tra 9.6 e 64Kbps (ma inizialmente anche dial up a Bit/sec) –collegamenti internazionali: - CNR(Pisa)-USA a 64Kbit/sec (SatNet, Maggio ’86) - INFN-CNAF(Bologna)-CERN(Ginevra) a 2Mbit/sec (Luglio ’89) - Accessi diretti e indiretti a EBONE e EARN –Partecipazione a Iniziativa Europea COSINE (2.o PQ europeo) –Protocolli ‘proprietari’, Bitnet, Decnet, TCP/IP e X25 –Applicazioni di remote login, mail, file transfer/access –‘gateway’ per l’interconnessione tra le reti

5 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 La Storia della Rete GARR (2/5) : rete GARR, prima rete unitaria di Universita’ e Ricerca infrastruttura su 7 PoP interconnessi a 2 Mbit/sec (AS137) Milano-CILEA, Bologna-CINECA, Bologna-CNAF, Pisa-CNUCE, Frascati-ENEA, Roma-INFN, Bari-CSATA –collegamenti internazionali da INFN-CNAF (Bologna): CERN-Ginevra (2Mbit/sec dal 27 Luglio 1989) ESNet-Princeton (64Kbit/sec) Reti Europee COSINE (64Kbps su X25) e Europanet (2Mbps su IP) –accessi sedi universitarie e enti di ricerca fino a 2Mbit/sec –Protocollo TCP-IP e compatibilita’ Decnet e Bitnet –Partecipazione ai progetti europei del 3.o Programma Quadro –GARR fondatore e membro di Associazioni RARE, RIPE e ISOC. –GARR membro di EARN –cofinanziamento MURST di 5GL (CRCS-MURST) –Gestione amm.va Progetto: CILEA. –Gestione GARR-NOC: CINECA

6 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 La Storia della Rete GARR (3/5) : rete GARR-2, evoluzione di GARR-1 –infrastruttura basata su 15 PoP (in sedi di universita’, di consorzi o di enti di ricerca) interconnessi con circuiti di capacita’ compresa tra 2Mbps e 34Mbit/sec (15 AS) e capacita’ aggregata del backbone da 30Mbit/sec iniziali a 200Mbit/sec a finali –collegamenti internazionali (AS137): ESNet-(USA) a 1.5 Mbit/sec (fino a Marzo 2000) EuropaNet e CERN a 2Mbit/sec (fino a meta’ ’97) TEN-34 (ATM-24Mbit/sec con Ginevra e ATM-20Mbit/sec con Francoforte) a 34Mbit/sec (dalla meta’ del ’97) –protocolli TCP-IP e compatibilita’ con Decnet; gw con Bitnet –accessi a velocita’ tra 64Kbit/sec e 34Mbit/sec in CDN,F/R e ATM –Partecipazione a Progetti R&D su ATM nel 4.o PQ europeo –GARR fondatore e membro dell’associazione TERENA (fusione di RARE e di EARN) e della Societa’ DANTE (1995) –rete autofinanziata da CNR, ENEA, INFN, Universita’ e Consorzi –Gestione amm.va Progetto coordinata da OTS-GARR –Gestione GARR-NOC: INFN-CNAF

7 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 La Storia della Rete GARR (4/5) : rete GARR-B (Broadband) –Convenzione Quadro MURST-INFN per realizzazione e gestione ‘Progetto GARR-B’ (promotori: CRUI, CNR, ENEA, INFN) –autofinanziamento per sedi in aree ‘fuori obiettivo’ –cofinanziamento MURST (ex-488) per le sedi in ‘aree di obiettivo’ –Rete Nazionale (progetto iniziale) 16 punti di presenza (PoP) per l’accesso delle sedi degli enti backbone su 4 nodi di trasporto, (capacita’ aggregata di ~2.5Gbps) ATM (VC e VPN) e IPv4 circa 200 circuiti di accesso ai PoP in F/R o CDN fino a 155Mbit/sec (per un aggregato di ~1.8Gbit/sec) (al Marzo 2002) commodity nazionale a Roma (NAMEX) e Milano (MIX) [350Mbps] – Collegamenti con le Reti della Ricerca internazionali TEN-34 (fino a Febbraio ‘99) a 34Mbit/sec TEN-155 (Feb.99-Nov.2001) a 200Mbit/sec GEANT (dal Dicembre 2001) a 2.5Gbit/sec –Global Internet (da 20Mbit/sec [Giu.’97] a 2.5Gbit/sec [Mar.’02])

8 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 La Rete del Progetto GARR-B Fase2 (1999) 4 nodi di Backbone su dorsale ridondata a 155M 16 PoP di accesso collegati a 34M- 155M con il Backbone Capacita’ Aggregata del Backbone: circa 2.5Gbps (al Marzo 2002) Siti GARR connessi ai PoP con velocita’ tra 2M e 155Mbps Peering di commodity e di ricerca internazionale a 155 Mbps vedi: C.Vistoli, “Progetto tecnico GARR-B”, CRCS-97/2

9 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Gestione Progetto GARR-B ( ) MIUR (DURST) INFN CRCS (MIUR) OTS-GARR (MIUR) Direzione Progetto GARR-B (INFN-GARR) Convenzione Quadro Nomina

10 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Gestione Progetto GARR-B Alla Direzione INFN-GARR sono demandate la realizzazione e la gestione del Progetto GARR-B. La Direzione INFN-GARR, secondo quanto previsto dal Progetto GARR-B e in accordo con le decisioni discusse in GARR-OTS ed approvate dalla CRCS, cura: –la pianificazione, l’evoluzione, il coordinamento tecnico e il funzionamento della rete (gruppo GARR-TEC, in accordo con gli APM (Access Port Manager) dei siti connessi alla rete –il coordinamento della sperimentazione di nuove tecnologie della rete GARR e la partecipazione nei comitati e nei progetti internazionali –la gestione amministrativa e scientifica Servizi di network del GARR sono: GARR-NOC (call centre, GARR-LIR(assegnazione indirizzi e reti IP, GARR-NIC (domini di II livello SOLO per GARR, GARR-CERT (CSIRT, security, [INFN- Firenze] GARR-MCAST(multicast, Web-Cache, FTP-Mirror [CILEA] Usenet News [SerRA, Universita’ di Pisa]

11 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 APA, APM e AUP del GARR Le AUP (Acceptable Use Policies) sono le norme di comportamento per gli utenti della rete GARR ( –Sono armonizzate con quelle delle Reti della Ricerca dei paesi europei –Tra l’altro, vietano espressamente il transito di traffico commerciale sulla Rete. L’APA (Access Port Administrator) di una sede GARR e’ il responsabile “amministrativo” dell’accesso alla Rete. –E’ il delegato del Rettore dell’Universita’ o del Direttore del Laboratorio di Ricerca per gli aspetti amministrativi e strategici –Fa riferimento alle AUP e le fa rispettare –Interagisce con la Direzione GARR-B per questioni amministrative –Interagisce con la sua Comunita’ di Riferimento (CRUI, CNR, etc.) L’APM (Access Port Manager) e’ il responsabile “tecnico” dell’accesso di una sede GARR alla Rete. –E’ nominato dall’APA e le sue prerogative sono descritte in –Interagisce con i gruppi di Network Services (NOC, CERT, etc. ) del GARR

Lo stato dell’arte del Progetto di Rete GARR-B (Fase 4, Novembre 2002)

13 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Infrastruttura di Rete Nazionale (GARR-B Fase4, Novembre 2002) 7 Nodi di Backbone : MI-G, BO-G, RM-G, MI, BO, RM, NA 3 Circuiti di Backbone a 155Mbps: RM-NA, NA-MI, MI-BO 3 Circuiti di Backbone a 2.5Gbps: triangolo MI-G,BO-G,RM-G 5 Circuiti Inter B-B : MI-G a 2.5G, BO-G a 2*155M, RM-G a 2*155M Capacita’ Aggregata del Backbone: circa 11Gbps 22 PoP: 2*MI, TO(155M), GE(2*34M), PD(155M), TS(2*34M), 2*BO, FI (155M), PI(155M), PD (155M) 2*RM, Frascati (155M), CA(2*34M), AQ (2*34M), PG(34M), NA, PA(34M), CT(2*34M), BA(2*34M), CS(34M) 30 Router e 17 Switch ATM di Backbone Accessi Utente: circa 300 siti con circuiti tra 2Mbps e 1Gbps Peering di Commodity:

14 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 GARR-B Fase 4 (Novembre 2002) Backbone – 3*155Mbps (RM-NA-MI-BO) – 3*2.5Gbps (MI-BO-RM-MI) – 1*2.5Gbps+4*155M inter BB 22 PoP di accesso dei siti GARR Accessi: ~300 Peering di Ricerca ( su Milano-G) - (produzione) - (sperimentazione) Peering di Commodity Nazionali: - Roma - Milano Peering di commodity internazionali: - (31/03/02) - (15/05/02) ) - [backup su GEANT]

15 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov : rete GARR 12Mbit/sec : rete GARR Mbit/sec : rete GARR-B Gbit/sec : rete GARR-G... Fattore di crescita backbone rete GARR: >50 in 4 anni Evoluzione del Backbone di Rete Nazionale

16 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Connettivita’ Internazionale Peering Ricerca Europea (GEANT) –[Chiusura accesso a 200Mbps a TEN155 il 30 novembre 2001] –Accesso a 2.5Gbps per produzione (IPv4, IP-Premium, IP-LBE, Multicast) –Accesso a 2.5Gbps per sperimentazione (QoS,VC,VPN,etc.) Peering Ricerca Intercontinentale –3*2.5Gbit/sec tra GEANT e NordAmerica (Abilene,Esnet, Canarie, …) –155M tra GEANT e Giappone, 2Mbps con SudCorea, 155M con Russia –Transito attraverso Abilene per tutte le altre reti della Ricerca mondiali. Peering Commodity Internazionale (Global Internet) –[Chiusura circuito diretto MI-NY a 622 Mbps il Marzo 2002]) –Circuito Global Crossing da Milano (2.5Gbps ridondati dal 14/3/02) –Circuito Telia da Roma (622Mbps dal 30/5/02). Peering 6Net –Accesso a 2*155M (IPv6 nativo)

17 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Peering nazionali (Giugno 2002) NAP Milano (MIX) –155Mbps ATM attraverso MIX: –Infostrada, Inet, etc. –94 peering con ISP privati NAP Roma (NAMEX) –200Mbps attraverso NAMEX: –Interbusiness, Wind, etc. –89 peering con ISP privati

18 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Accesso al Global Internet da GARR-B –Giugno 1997: 20Mbps Milano (TEN-34) –Agosto 1999: 45Mbps Napoli - NY –Giugno 2000: 155Mbps Napoli - NY –Settembre 2000: 622Mbps Milano - NY –Mar-Mag 2002: 2.5Gbps Milano (GX), 622Mbps Roma (Telia) Fattore di crescita peering GARR: >100 in 5 anni Evoluzione dei Peering di Commodity internazionale

19 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Accessi a GARR-B Fase 4 (Novembre 2002) Circa 300 siti di istituzioni accademiche e di ricerca - 75 Universita’ (statali e non statali) - 56 siti CNR - 9 siti ENEA - 37 siti INFN - 7 siti ASI - 12 siti INAF (Osservatori Astronomici) - 2 siti INFM - 8 siti INGV - 12 Biblioteche (Centrali e Nazionali) e ICCU - 41 siti di altre istituzioni di ricerca - 3 Consorzi di Supercomputing (CILEA,CINECA,CASPUR) - sede MIUR di P.le Kennedy (a 34Mbit/sec) - sede MIUR di V.le Trastevere (a 8Mbit/sec)

20 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Capacita’ aggregata di Accesso [BGA] di tutti i siti GARR (Giugno 2002) Highly developed areas Less developed areas Total access capacity

21 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Capacita’ aggregata di accesso (BGA) delle sedi INFN

22 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Accessi Sedi INFN alla rete GARR (1/3)

23 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Accessi Sedi INFN alla rete GARR (2/3)

24 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Accessi Sedi INFN alla rete GARR (3/3)

25 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Weathermap di GARR-B

26 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Andamento delle Tariffe (ascissa in Mbit/sec, ordinata in MLit/anno)

La partecipazione del GARR ai Progetti di Ricerca e Sviluppo Internazionali

28 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Partecipazioni Internazionali –TERENA (TF-NGN, Serenate, CSIRT, …) –IETF (Messaging, IPv6, Optical,…) –RIPE (Registry, Routing, IPv6, DNS,…) –INTERNET2 (Multicast, videoconferenza, …) –Collaborazioni trasversali con altri Progetti Europei

29 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Partecipazione GARR ai Programmi (in corso) della Commissione Europea Nome ProgettoInizioDurataCosto GARR Contributo CE CAESAR Fase 1 e 2 (ALIS 01/04/ mesi -80% GEANT rete europea della Ricerca (IST-RN1) 01/11/ mesi13.2 ML €48% 6NET (IPv6 Backbone)01/01/ mesi €50% EUMEDCONNECT Fase 1 e 2 (EUMEDIS) 01/01/ (47) mesi -80% eCSIRT (security)01/04/ €55%

30 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Progetto Europeo GEANT GEANT e’ un Progetto approvato nell’ambito del 5.PQ della Unione Europea per l’interconnessione delle Reti della Ricerca Europee e tra queste e le reti della ricerca: -del Nordamerica -del Sudamerica -del bacino del Mediterraneo -dei Paesi Asiatici sul Pacifico -in futuro, forse, dei Paesi sull’Oceano Indiano e dell’Africa Questo Progetto, successore di TEN-34 e TEN-155 (Trans European Network) del 4.o PQ e di EuropaNet del 3.o PQ, ha una durata di 48 mesi ( ), un costo stimato di circa 170Meuro e un cofinanziamento europeo di 80Meuro. Al Progetto GEANT partecipano 32 reti della ricerca europee, tra cui il GARR per l’Italia Lo sviluppo del Progetto e’ regolato dal Consorzio (virtuale) delle Reti della Ricerca Europee

31 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 EUMEDIS-EUMedConnect EUMEDIS e’ un Programma della Unione Europea per lo sviluppo della Societa’ dell’Informazione a beneficio di 12 paesi del Mediterraneo. Il Programma prevede la cooperazione tra i paesi dell’unione europea e i paesi del mediterraneo su diversi temi. Esso e’ suddiviso in: -Strand 1: 35 Meuro per applicazioni (16 Progetti approvati) -Strand 2: 10 Meuro per infrastruttura di rete (fino a Giugno 2006) 1.Per lo Strand 2 e’ stato accettato e approvato un solo progetto, cioe’ EUMEDCONNECT, per la Interconnessione tra GEANT e le Reti della Ricerca di: -Marocco, Algeria, Tunisia, Egitto, Palestina, Giordania, Siria, Libano, Turchia (cofinanziati da EUMEDIS) -Malta, Cipro, Israele (cofinanziati dal 5.o e 6.o PQ-IST) 2.Al Progetto EUMEDCONNECT partecipano anche le reti della ricerca di Spagna, Francia, Italia (GARR) e Grecia (coordinatore DANTE)

32 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 ALIS-CAESAR ALIS e’ un Programma della Unione Europea per lo sviluppo della Societa’ dell’Informazione a beneficio di tutti i paesi dell’America Latina. Il Programma prevede la cooperazione tra i paesi dell’unione europea e i paesi del Centro e Sudamerica su diversi temi. 1.L’Unione Europea ha affidato al Consorzio delle Reti della Ricerca Europee il progetto, denominato CAESAR, per la Interconnessione tra la Rete della Ricerca Europea GEANT e le Reti della Ricerca di tutti i paesi dell’America Latina Al Progetto CAESAR partecipano, in rappresentanza delle Reti della Ricerca Europee, le organizzazioni per le reti della ricerca di Spagna, Francia, Italia (GARR) e Portogallo (coordinatore DANTE)

33 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Progetto Europeo 6NET 6NET e’ un Progetto approvato nell’ambito del 5.PQ-IST della Commissione Europea (durata 24 mesi da Gen.2002 a Dic.2003) Ha per scopo il test a livello internazionale di un’infrastruttura nativa di rete basata su protocollo IPv6 e di applicazioni native IPv6. Il Progetto 6NET, cui partecipano reti della ricerca europee, tra cui il GARR, e’ in stretta collaborazione con il Progetto analogo EURO6IX, cui partecipano principalmente operatori di tlc. Partecipanti italiani (GARR): CNR, INFN, 10 Universita’ e CASPUR Contatto per il GARR:

34 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Network North America Asia-Pacific Provided by 6NET partners Circuit dedicated – initially 155Mbit/s Dedicated circuit added for redundancy (optional) Tunneled solution for cost reasons UK NL DE CH IT AT GR SE FR The

35 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 The PoP TORINO PoP BOLOGNA PoP ROMA 6NET BACKBONE POLITECNICO DI TORINO UNIVERSITA’ DI MILANO UNIVERSITA’ DI FERRARA UNIVERSITA’ DI BOLOGNA INFN/CNAF UNIVERSITA’ DI FIRENZE CNR / IAT UNIVERSITA’ DI ROMA3 CASPUR UNIVERSITA’ DI NAPOLI MILANO PoP PISA GARR 6NET-GW UNIVERSITA’ DI BARI UNIVERSITA’ DI PISA Network in Italy GARR POLITECNICO DI MILANO (s.j.)

36 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 eCSIRT:Sicurezza della Rete Sistemi di calcolo sicuri e protetti (esigenza primaria per le griglie computazionali) CERT e CSIRT nelle reti della Ricerca per la gestione di interventi immediati legati alla sicurezza della rete Protezione proattiva da violazione dei sistemi, in coordinamento con gli APM nazionali e internazionali delle Reti Certification Authority: –coordinamento internazionale certificati X.509 –Autenticazione, Autorizzazione, Accounting Partecipanti: DE, IT, FR, UK, DK, NO, CH, PL, SI, ES, NL Progetto Europeo, 24 mesi (Aprile Marzo 2004) Contatto per il GARR:

37 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 SErvice QUality over Interconnected Domains (SEQUIN) Studio, Progettazione e Realizzazione di QoS a livello IP in GEANT e nelle Reti della Ricerca Europee Coordinamento con Task Force TF-TANT e TF-NGN Tra l’altro: definizione Servizio Premium IP end to end su scala europea [gia’ reso operativo su GEANT] Progetto Europeo, 18 mesi (Nov Apr. 2002) [concluso] Partecipanti: Switch, DFN, Renater, GARR, UKERNA, Pol34, Grnet Contatto per il GARR:

Il GARR e le Reti della Ricerca internazionali

39 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 La rete della ricerca Europea TEN-155 ( ) Progetto e Rete TEN-155 (evoluzione della rete TEN-34) Cofinanziamento CE (4 th FP) per 80M€ su un costo di ~170M€ Durata 36 mesi (1/12/98 – 30/11/01) Partecipanti: 20 NREN europee Rete operativa dall’1 Dic Peculiarita’ di TEN-155: –Backbone a Mbit/sec –Accesso iniziale fino a 155M Gbit/sec –Peering con tutte le reti della ricerca –Supporto VC, VPN Accesso GARR-B –200Mbit/sec su 2x155Mbps ATM: –155Mbit/sec produzione –45Mbit/sec sperimentazione

40 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 La Rete della Ricerca Europea GÉANT ( ) Progetto e Rete GÉANT (evoluzione della rete TEN-155) Cofinanziamento CE (5 th FP-IST-RN1) per 80M€ su un costo di ~170M€ Durata 48 mesi (1/12/00 – 30/11/04) Partecipanti: 32 NREN europee Rete operativa dall’1 Dic Peculiarita’ di GÉANT: –Backbone a 10Gbit/sec –Accesso iniziale fino a 2.5 Gbit/sec –Uso di circuiti su lambda –Peering con tutte le reti della ricerca –Supporto per QoS, VPN, MCAST Accesso GARR a 2.5Gbit/sec per produzione e 2.5Gbit/sec per sperimentazione

41 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 L’evoluzione delle Reti della Ricerca Europee Pan-European Research Networks: Caratteristiche Accesso GARR GÉANT countries Gbps Backbone IPv4 [v6] 2.5[+2.5]Gbps TEN countries Mbps Backbone IP, ATM 200Mbps TEN countries 34 Mbps Backbone IP, ATM 34Mbps EuropaNET countries 2 Mbps Backbone IP, CDN 2Mbps COSINE countries 64 Kbps Backbone IP, X25 64Kbps TEN-34 network emerged from the TEN-34 project in The accompanying Advanced ATM Testing programme was carried out by Task Force TEN (TF-TEN). The QUANTUM project produced the TEN-155 network in 1998; its accompanying testing programme is called QUANTUM Testing Programme (QTP), carried out by Task Force TANT (TF-TANT, Testing of Advanced Networking Technologies). In the case of GÉANT, the project and network will carry the same name. The Managed Bandwidth Service and the testing programme will be continued as part of GÉANT, the latter by TF-NGN (Task Force New Generation Networks) and by other projects like SEQUIN. Fattore di crescita peering GARR: >100 in 5 anni

42 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 La rete a supporto delle Computing Grid Problemi particolarmente complessi oggi richiedono sofisticate infrastrutture di calcolo (software e hardware) Ad esempio: per i futuri esperimenti di Fisica delle Alte Energie la potenza di calcolo necessaria non sara’ piu’ “confinabile” in un singolo sito –potenza di calcolo (K-SI95    PIII 800MHz !!! ) –  PetaByte di dati I modelli di calcolo distribuito oggi esistenti non sono sufficenti a risolvere il problema: –clusters  fabrics –produzioni/analisi locali  produzioni/analisi distribuite –collaborazioni internazionali sempre piu’ grandi Grid

43 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Che cos’e’ la “Grid Technology”? L’obiettivo principale dei progetti di Grid e’ lo sviluppo di un insieme coerente di risorse di calcolo (“Grid”), distribuite su scala geografica. La Grid dovra’ garantire la gestione di data-sets di differenti “Virtual Organizations” (fino alla scala del “Peta-Byte”) utilizzando computing power e storage distribuiti. Una Griglia Computazionale dovra’ fornire una interfaccia uniforme ai suoi utilizzatori (ed alle sue risorse), distribuendo un servizio affidabile e accessibile da “qualsiasi luogo” Paradigma delle Grid: – analogia con le griglie-elettriche (si inserisce un “dispositivo” nella presa nel muro e si opera senza preoccuparsi delle centrali elettriche di produzione, della rete di distribuzione, del trasporto su cavi ad alta tensione, etc.); –si usa qualsiasi risorsa di calcolo e di storage disponibile sulla rete, similmente a quanto si fa col WWW.

44 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 LHC Data Grid Hierarchy (by H.Newman at HEP-CCC 18-nov-2002) Tier1 Tier2 Center Online System CERN 700k SI95 ~1 PB Disk; Tape Robot FNAL: 200k SI95; 600 TB IN2P3 Center INFN Center RAL Center Institute Institute ~0.25TIPS Workstations ~ MBytes/sec 2.5 Gbps Mbits/sec Tens of Petabytes by An Exabyte within ~5 Years later. Physics data cache ~PByte/sec ~2.5 Gbits/sec Tier2 Center ~2.5 Gbps Tier 0 +1 Tier3 Tier 4 Tier2 Center Tier2 Experiment CERN/Outside Resource Ratio ~1:2 Tier0/(  Tier1)/(  Tier2) ~1:1:1

45 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002

46 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 GÉANT

47 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 ICFA SCIC: R&E Backbone and International Link Progress (by H.Newman, 18-nov-2002) [1/2] GEANT Pan-European Backbone ( –Now interconnects >31 countries; many trunks 2.5 and 10 Gbps OK UK: SuperJANET Core at 10 Gbps –2.5 Gbps NY-London, with 622 Mbps to ESnet and Abilene (???) France (IN2P3): 2.5 Gbps RENATER backbone by mid-October –Lyon-CERN Link being Upgraded to 1 Gbps Ethernet OK –Proposal for dark fiber to CERN by end 2003 ! SuperSINET (Japan): 10 Gbps IP and 10 Gbps Wavelength Core –Tokyo to NY Links: Now 2 X 2.5 Gbps; Need to get to Starlight CA*net4 (Canada): Interconnect customer-owned dark fiber nets across Canada at 10 Gbps, started July 2002 –“Lambda-Grids” by ~ GWIN (Germany): 2.5 Gbps Core; Connect to US at 2 X 2.5 Gbps; (???) Support for SILK Project: Satellite links to FSU Republics Russia: Now 155 Mbps links to Moscow – Moscow-Starlight Link to 155 Mbps (US NSF + Russia Support) – Moscow-Stockholm Link; connect to GEANT at 155 Mbps

48 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002

49 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002

50 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002

51 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002

52 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002

53 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Canet*3 network map

54 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002

55 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Accesso GARR a GEANT [GEANT Backbone] 10 Gbit/sec 2.5 Gbit/sec (fibra locale) GE (1Gbit/sec) PoP GEANT Milano PoP GEANT Francoforte PoP GEANT Ginevra PoP GARR Milano| (sperimentazione) PoP GARR Milano| (produzione)

56 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Accesso GARR a GEANT [GEANT Backbone] 10 Gbit/sec 2.5 Gbit/sec (fibra locale) GE (1Gbit/sec) PoP GEANT Milano PoP GEANT Francoforte PoP GEANT Ginevra PoP GARR Milano| (sperimentazione) PoP GARR Milano| (produzione)

57 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002

58 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Accesso CERN a GEANT [GEANT Backbone] 10 Gbit/sec 2.5 Gbit/sec (fibra locale) GE (1Gbit/sec) PoP GEANT Ginevra PoP GEANT Milano PoP GEANT Parigi CERN (sperimentazione) PoP SWITCH Ginevra (produzione)

La evoluzione del GARR e della sua Rete

60 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 La Storia della Rete GARR (5/5) : reti indipendenti di CNR, ENEA,INFN e Universita’ : rete GARR, prima rete unitaria di Universita’ e Ricerca : rete GARR-2, evoluzione di GARR : rete GARR-B (Broadband) : rete GARR-G (Giganet)

61 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Evoluzione delle tecnologie trasmissive Dal rame alla fibra, moltiplicazione delle fibre Fibra multimodale e fibra monomodale (G65x) Dai circuiti su fibra ai circuiti su ‘lambda’ Evoluzione tecnologica: piu’ lambda per fibra + maggiore velocita’ per lambda ==> ==> maggiore capacita’ per fibra. ‘Illuminate’ solo il 5-6% delle fibre installate IRU: Indefeasible Right of Use Effetto sul ‘prezzo’ delle killer technology Nuovo tipo di fibre ===> nuove tecnologie trasmissive Coesistenza di piu’ operatori: competizione e accordi di interoperabilita’

62 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Flexible OADM Passive Low Cost OADM Format and Bit Rate Transparent 8 Ch. OADM Modularity up to 32 Capacity BSMBSM BSMBSM A/D 1 A/D 8 Ch 8 Ch 1 Local interface Band 1 Band 4 Band 2 Band 3

63 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Evoluzione degli apparati per la trasmissione dati Dal TDM all’HD-WDM. L’integrazione dei servizi (dati, video, voce, etc.) Le alte velocita’ (2.5,10,40,160Gbit/sec) Nuovo tipo di fibre ===> nuove tecnologie trasmissive Dai circuiti su fibra ai circuiti su ‘lambda’ Optical Networks (R&D): Circuit switching, Optical switching, Optical Routing Tecnologie apparati di Routing e interfacce di linea Wireless e Protocolli (IPv4 ==> IPv6 ==> ?) Turnover degli apparati sempre piu’ frequente Coesistenza di piu’ costruttori: competizione e standard per l’interoperabilita’

64 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Evoluzione della Rete SDH DWDM ATMIPGbEEscon... Strato Server Ottico Strato Client IP, ATM, SDH, GbE,... Apparato SDH OXC OADM Router IP Elaboratore con porte GbE,... Switch ATM

65 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Progetto GARR-G Pilot Scopo: studio di fattibilita’ di GARR-Giganet –Indagine con operatori di telecomunicazioni (TI, Infostrada, Wind, Interoute, e-Via, Albacom, Atlanet+Edisontel, Autostrade TLC) –Indagine con Fornitori di Apparati (CISCO, Juniper, Riverstone, Marconi, Alcatel, Foundry, Spirent, RIPE-NCC) –Test di circuiti a 2.5G su Lambda con terminazione SDH con generatori di traffico Smartbit e slow-monitor con Ripe-Box –Test di Giga-switch-router CISCO, Juniper e Riverstone –Test di Multiplexer SDH Alcatel 1660SM (Milano-Pisa-Roma) Risultato: Documento Tecnico-Implementativo Progetto GARR-Giganet Durata: 30 mesi (Lug.2000-Dic.2002) Partecipanti (GARR): CNR, INFN, Universita’ di Pisa, Universita’ di Milano Contatto per il GARR:

66 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Alcatel 1660SM PISAGARR (Centro SERRA) Alcatel 1660SM MILANOGARR Direzione GARR-B Alcatel 1660SM GARR-G Pilot (stato all’ 1/3/2002) Lan Milano Lan Pisa SH+RM HP Server PC L0 Lan Roma ROMAGARR L1 hub 1x2.5Gbps 2x2.5Gbps Giga BACKBONE 3x2.5Gbps

67 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 GARR-G Pilot 3 circuiti Telecom Italia a 2.5G su lambda –Tecnologia basata su Fibra G.653 e apparati WDM Marconi MSH73 –Test di apparati CISCO 12016, Juniper M20 e Riverstone 8600 –Generatori di traffico Spirent-Smartbit e slow-monitor con RIPE-Box 2 circuiti Interoute a 2.5G su Lambda tra Pisa e Milano –Tecnologia basata su Fibra G.655 e apparati WDM Alcatel 1640WM –Test di 2 circuiti a 2.5G su Lambda con terminazione SDH Infrastruttura Atlanet end-to-end WDM (16 ) tra Pisa e Roma –Tecnologia basata su Fibra G.655 e apparati WDM Marconi PLA16 –Test di 1 circuito a 2.5G su Lambda con terminazione PLT16 –Possibile test a 10Gbps (SDH o Giga Ethernet)

68 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Obiettivi GARR con GARR-Giganet ( ) * “Consortium” GARR per le Università e Enti Pubblici di Ricerca, aperto anche a istituti di ricerca privati * Investimenti in infrastrutture nelle regioni meridionali * Connessione delle scuole * Servizi avanzati: QoS (peer to peer), VPNs, IPv6 nativo e dual stack con IPv4, Multicast, etc. * Supporto per richieste di Larga Banda (Grids, Tele-medicine, Distance Learning, etc.) * Applicazioni Multimediali (Musei e Biblioteche digitali) * Sviluppo di Reti Regionali, MAN e LAN estese * Supporto per sperimentazione Progetti Lambda Switching * Sicurezza della Rete (per quanto e’ possibile…)

69 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Napoli RT Bologna RT Milano RT GARR – AS137 iMSDP GEANT – AS20965 eMSDPeMBGP iMSDP La rete GARR mantiene un collegamento internazionale multicast tramite Geant verso tutte le reti della ricerca Europea e Nordamericana. Il collegamento multicast e’ ottenuto mediante peering MSDP e MBGP (Multiprotocol Border Gateway Protocol). Il routing multicast all’interno della rete GARR utilizza il protocollo PIM (Protocol Indipendent Multicast) per l’inoltro del traffico, ed il protocollo MSDP (Multicast Source Discovery Protocol) per la notifica della presenza di sorgenti attive. I Rendez-Vous Point sono definiti sui router di trasporto di Bologna e Napoli Routing Multicast in GARR-B

70 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Propagazione dei worm Nimda Code Red II Numero di righe per giorno in error_log del server web di GARR-CERT

71 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Struttura della Rete GARR-G ( ) Infrastruttura di trasporto di capacita’ aggregata di 100Gbit/sec Capacita’ trasmissiva dei singoli circuiti di backbone tra 155Mbit/sec e 10Gbit/sec (su SDH, lambda, dark fiber) OVERPROVISIONING Ridondanza link e apparati di switch-routing PoP: ~10 punti di presenza primari (Giga-PoP) (2.5-10Gbit/sec) ~20 punti di presenza secondari (Mega-PoP) (155M-2.5Gbit/sec) Peering internazionali (ricerca e commodity) adeguati Peering commodity anche a livello regionale I PoP GARR saranno ospitati in sedi “neutre” gestite da GARR Servizi di supporto (NOC, CERT, etc.)

72 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Accessi a GARR-G –Circuiti di accesso tra 2Mbit/sec e 1Gbit/sec [ ] [accessi a piu’ alta velocita’ possibili subito per sperimentazione e dopo il 2004 per produzione] –Accessi da MAN e da extended LAN al backbone [distinti per sito] –ATM non piu’ usato sul Backbone, ma supportato sugli accessi fino a 155Mbit/sec –Affidabilita’ e ridondanza accessi (backup) –IP best effort e Servizi Avanzati (VPN,QoS,IPv6,Multicast,etc.) funzionalita’ peer-to-peer –Tariffazione basata su BGA (Banda Garantita di Accesso), capacita’ del circuito e 95 o percentile –[semplificazione procedure convenzioni, contratti, rendicontazioni]

73 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Gestione Progetto GARR-B ( ) MURSTINFN CRCS (MURST) OTS-GARR (MURST) DIR.GARR-B (INFN) Convenzione Quadro Nomina

74 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 “Consortium” GARR (dal 2003) Consorzio privato di enti pubblici CRCS-MIUR Associazione Consortium GARR Consiglio d’Amm.ne Consortium (7 membri) Comitato Tecnico-Scientifico Direzione GARR Indirizzo

75 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Sommario attivita’ GARR in corso Caratteristiche della rete GARR-Giganet definite in base alle necessita’ dei suoi utilizzatori, sia in termini di banda richiesta che di tipologia di servizi Rete GARR-G sulla linea di partenza: –Gara per fornitura di connettivita’ in atto –Housing PoP GARR presso i siti piu’ idonei –Gara per fornitura apparati in preparazione –Ridefinizione tariffe (BGA/BEA/percentile) “Consortium” GARR inizia ad operare dall’anno 2003 Partecipazione ai Progetti Europei del 6.o PQ Workshop, Conferenze, Formazione

76 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov : rete GARR 12Mbit/sec : rete GARR Mbit/sec : rete GARR-B Gbit/sec : rete GARR-G... Fattore di crescita backbone rete GARR: >50 in 4 anni Evoluzione del Backbone di Rete Nazionale

77 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 Accesso al Global Internet da GARR-B –Giugno 1997: 20Mbps Milano (TEN-34) –Agosto 1999: 45Mbps Napoli - NY –Giugno 2000: 155Mbps Napoli - NY –Settembre 2000: 622Mbps Milano - NY –Mar-Mag 2002: 2.5Gbps Milano (GX), 622Mbps Roma (Telia) Fattore di crescita peering GARR: >100 in 5 anni Evoluzione dei Peering di Commodity internazionale

78 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 L’evoluzione delle Reti della Ricerca Europee Pan-European Research Networks: Caratteristiche Accesso GARR GÉANT countries Gbps Backbone IPv4 [v6] 2.5[+2.5]Gbps TEN countries Mbps Backbone IP, ATM 200Mbps TEN countries 34 Mbps Backbone IP, ATM 34Mbps EuropaNET countries 2 Mbps Backbone IP, CDN 2Mbps COSINE countries 64 Kbps Backbone IP, X25 64Kbps TEN-34 network emerged from the TEN-34 project in The accompanying Advanced ATM Testing programme was carried out by Task Force TEN (TF-TEN). The QUANTUM project produced the TEN-155 network in 1998; its accompanying testing programme is called QUANTUM Testing Programme (QTP), carried out by Task Force TANT (TF-TANT, Testing of Advanced Networking Technologies). In the case of GÉANT, the project and network will carry the same name. The Managed Bandwidth Service and the testing programme will be continued as part of GÉANT, the latter by TF-NGN (Task Force New Generation Networks) and by other projects like SEQUIN. Fattore di crescita peering GARR: >100 in 5 anni

79 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 conclusione La rete GARR, in collaborazione con le altre reti della ricerca europee, e’ in grado di mantenere continuita’ di funzionamento e garantire banda passante adeguata per soddisfare qualsiasi richiesta di applicazione scientifica Tutti i gruppi di ricerca dell’INFN sono invitati a dare contributo allo sviluppo della rete GARR: - in termini di requirements (sia a livello nazionale che internazionale) - in termini di collaborazione a progetti di R&D.

80 E.Valente, La rete per l’INFN: oggi e domani per LHC, CSN1-Perugia 11/12 nov 2002 La QoS per l’utente, arduo...