Progetto INFN-GRID La Grid: una nuova soluzione per il calcolo degli esperimenti dell INFN a.ghiselli Infn-Cnaf, Bologna Cagliari, 13 settembre 2000.

Slides:



Advertisements
Presentazioni simili
Trieste, 26 novembre © 2005 – Renato Lukač Using OSS in Slovenian High Schools doc. dr. Renato Lukač LinuxDay Trieste.
Advertisements

Anno Diaconale f Federazione delle Chiese Evangeliche in Italia ufficio volontariato internazionale via firenze 38, roma tel. (+39) fax.
Centro Internazionale per gli Antiparassitari e la Prevenzione Sanitaria Azienda Ospedaliera Luigi Sacco - Milano WP4: Cumulative Assessment Group refinement.
L’esperienza di un valutatore nell’ambito del VII FP Valter Sergo
Logistica collaborativa per i distretti industriali.
Cache Memory Prof. G. Nicosia University of Catania
© 2010 Colt Telecom Group Limited. All rights reserved. Cloud Computing Lapproccio Colt Dionigi Faccedna.
FOXBIT property. The diffusion or disclosure of this document or the contained information without explicit authorization/agreement is prohibited. Any.
The standard CDF-GUI client submits the job to the LcgCAF head node which is the CDF-UI. This delegates the job to the Resource Broker component. The Resource.
Midrange Modernization Conference 1 Scenari evolutivi per le soluzioni basate su AS/400 Walter Poloni Direttore Developer & Platform Evangelism Microsoft.
1 Teaching Cloud Computing and Windows Azure in Academia Domenico Talia UNIVERSITA DELLA CALABRIA & ICAR-CNR Italy Faculty Days 2010.
Vincenzo Campanale PM Security & Management System Center, DSI e la Roadmap.
A. Oppio, S. Mattia, A. Pandolfi, M. Ghellere ERES Conference 2010 Università Commerciale Luigi Bocconi Milan, june 2010 A Multidimensional and Participatory.
DG Ricerca Ambientale e Sviluppo FIRMS' FUNDING SCHEMES AND ENVIRONMENTAL PURPOSES IN THE EU STRUCTURAL FUNDS (Monitoring of environmental firms funding.
GRUPPO TELECOM ITALIA Research Partner Program 10 Maggio 2006 Reti Fisse: quali prospettive ? Tavola Rotonda.
Udine 1 Udine – Richieste Attivamente coinvolti totali 3FTE M.P.Giordani, P.Palestri, L.Selmi A.Micelli (dottorando) A.Cristofoli (laureando.
1.E un algoritmo ricorsivo: Tutti le istanze di oggetti raggiungibili da un oggetto persistente diventano anchessi persistenti.
4/12/00M.Mazzucato – GR1 - Roma1 The INFN Regional Center(s) as main node(s) of the INFN Grid Mirco Mazzucato On behalf of Expts Comp. Coord. and tech.
Valutazione del Globus Toolkit Massimo Sgaravatto INFN Padova.
CSN giugno Comunicazioni Riunione R-ECFA ai LNF 21&22 maggio; buona impressione data dallEnte. Follow-up? Giornata PT ai LNGS 3&4.
B. Pernici Introduzione e stato dei lavori Roma, 24 novembre 2005.
B. Pernici WP 8 Exploitation Roma, 24 novembre 2005.
Directory services Directory offline –Elenchi telefonici –Guide TV –Cataloghi acquisti Directory online –Application specific (lotus notes, MS Exchange.
Biometry to enhance smart card security (MOC using TOC protocol)
Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
Introduzione alle griglie computazionali - a.a LEZIONE LEZIONE N. 12 Grid Monitoring modello GMA GridICE GridICE demo Introduzione alle griglie.
Comunicazione on-line, reti e virtualità Matteo Cristani.
Infrastruttura & Competenze ICT ENEA
Fanno ormai parte della nostra vita di tutti i giorni….
PLANCK LFI N. Mandolesi Consorzio PLANCK-LFI Incontro con Prof. P. Benvenuti IASF/CNR - Sez. di Bologna, Gennaio 2004.
Nanoscience Laboratory Silicon nanophotonics Metamaterials Nanobiotechnologies, antioxidants and human health Few lab members.
Introduzione Grid1 Introduzione ai Sistemi Grid. Introduzione Grid2 Generalità Un sistema Grid permette allutente di richiedere lesecuzione di un servizio.
WP 10 – Applicazioni Astrofisica – stato Leopoldo Benacchio INAF Osservatorio Astronomico di Padova Pisa maggio 03.
VARO SRL LOGISTIC, QUALITY, SERVICE
ATE / 31 Lezione 3 i sistemi automatici di misurazione - gli ATE.
1 Isfol – Institutional Communication and Documentary Activities Istituto per lo sviluppo della formazione professionale dei lavoratori ReferNet Italian.
National Project – on going results Potenza 7/10 November 06 IT-G2-SIC-066 – Social Enterprise and Local Development.
LHCf Status Report Measurement of Photons and Neutral Pions in the Very Forward Region of LHC Oscar Adriani INFN Sezione di Firenze - Dipartimento di Fisica.
Scuola di Dottorato della Facoltà di Scienze MM. FF. NN., Università di Milano Bicocca ELEMENTI DI ORGANIZZAZIONE AZIENDALE Funzione finanza e controllo:
Technical Board 21 novembre 2000 WP5 - Network Luciano Gaido 1 Progetto INFN-GRID WP5 - Network Technical Board Cnaf, 21 novembre 2000.
Testbed del CNAF per lo Stress Test di CMS Alessandro Italiano INFN-CNAF INFN-GRID Testbed Meeting 17 Gennaio 2003.
S. Bolognesi (1) from CMS A. Di Simone (2) from ATLAS 1 Università di Torino ed INFN Torino 2 Università di Roma Tor Vergata ed INFN Roma 2 V workshop.
E. Ferro, LNL, 7 dicembre DataGRID overview + WP4 Installation Enrico Ferro INFN-LNL.
Palermo, may 2010 F.Doumaz, S.Vinci (INGV-CNT- Gruppo di telerilevamento)
Ischia, giugno 2006Riunione Annuale GE 2006 Exploiting the Body Effect to Improve Analog CMOS Circuit Performances *P. Monsurrò, **S. Pennisi, *G.
NetApp: NON solo storage Metro Cluster e Cluster Mode
Gli ambienti di apprendimento Firenze, 3 marzo 2006.
Scuola Superiore SantAnna Simulazione di protocolli RT per Reti di Sensori Wireless in ambiente NS-2 Giuseppe Lipari, Paolo Pagano.
Robotica e Futuro Competenze per la Vita Personale, Professionale e Imprenditoriale Alfonso Molina Professor of Technology Strategy, University of Edinburgh.
Last quarter work and future activities
13-15 Ottobre 2004 P. Capiluppi - II Workshop Atlas-CMS - Napoli Data Challenging Paolo Capiluppi Dipartimento di Fisica e INFN, Bologna.
Project Review Novembrer 17th, Project Review Agenda: Project goals User stories – use cases – scenarios Project plan summary Status as of November.
1 © 2004, Cisco Systems, Inc. All rights reserved. Il ruolo della Rete nella strategia aziendale David Bevilacqua Operations Director Enterprise 29 Settembre.
6° CONVEGNO NAZIONALE MILANO 16 giugno 2010 LE ORGANIZZAZIONI CAMBIANO COL FARE Il Change Management che fa accadere le cose The Leading Network of Fashion,
Italian Family Policies and Pre- School Childcare in view of the Best Interest of the Child and Best Quality of Early Care Services. Towards the Lisbon.
soluzioni professionali
20 maggio 2002 NETCODE Set up a thematic network for development of competence within the Information Society.
Negli ultimi anni, la richiesta di poter controllare in remoto la strumentazione e cresciuta rapidamente I miglioramenti nell’hardware e nel software insieme.
Tier2 di Milano Componenti e Monitoring Luca Vaccarossa Milano 14 dicembre 2007.
Lezione n°27 Università degli Studi Roma Tre – Dipartimento di Ingegneria Corso di Teoria e Progetto di Ponti – A/A Dott. Ing. Fabrizio Paolacci.
Final Review Meeting Livorno, Italy January 30-31, 2012
1 INFN-GRID a.ghiselli INFN-CNAF Commissione Calcolo 14 Novembre 2000.
Gaetano Maron, Presentazione T2 LNL-Padova, Legnaro 22 dicembre Il Servizio Tecnologie Informatiche ed Elettroniche dei LNL Gaetano Maron.
From 8 to 80 boxes. From FBSNG to Condor CPU Satura !
Assegnazione risorse Stato INFN CNAF,
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
Analisi dei dati dell’Esperimento ALICE
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
P. Giannetti per il gruppo FTK
Process Group Work Performance Information 4.4 Direct & Manage
Transcript della presentazione:

progetto INFN-GRID La Grid: una nuova soluzione per il calcolo degli esperimenti dell INFN a.ghiselli Infn-Cnaf, Bologna Cagliari, 13 settembre 2000

Contenuto: -introduzione -Elementi architetturali -Testbed & Network

INFN-GRID Progetto 3-ennale Partecipazione degli esperimenti di LHC: Alice, Atlas, CMS, LHCb e di altri esperimenti e progetti quali Virgo e APE. Partecipazione del servizio calcolo delle sezioni e del cnaf Workplan suddiviso in 5 Work Packages (complementare e di supporto a DATAGRID)

workplan WP1, evaluation of Globus toolkit, M.Sgaravatto, F.Prelz WP2, integration with DATAGRID and adaptation to the national grid project: –WP2.1 workload management, C.Vistoli, M.Sgaravatto –WP2.2, data management, L.Barone, L.Silvestris –WP2.3, application monitoring, U.Marconi, D. Galli –WP2.4, computing fabric & mass storage, G.Maron, M.Michelotto WP3 Applications and Integration : –Alice: R.Barbera, Castellano, P.Cerello –Atlas: L.Luminari, B.Osculati, S.Resconi –CMS: G.Bagliesi, C.Grandi, I.Lippi, L.Silvestris –LHCb: R.Santacesaria, V.Vagnoni WP4 National Testbed, A.Ghiselli, L.Gaido WP5 network, T.Ferrari, L.Gaido

Gestione del progetto Collaboration Board Technical Board Executive Board Per sito: coordinatore locale, rappresentante per ogni esperimento + EB, TB Coordinatore tecnico Coordinatori dei WP Esperti delle applicazioni Project manager Coordinatori del calcolo degli esperimenti Coordinatore tecnico Rappresentante INFN in DATAGRID

La Grid E un sistema costituito da : risorse di calcolo, server di dati, strumenti …distribuiti geograficamente e accessibili attraverso una rete molto efficiente, un software che fornisce una interfaccia uniforme e garantisce un utilizzo delle risorse in modo efficiente e capillare.

Il software di Grid è un set di servizi per -Obtaining information about grid components -Locating and scheduling resources -Communicating -Accessing code and data -Measuring performance -Authenticating users and resources -Ensuring the privacy of communication …. -From The GRID edited by I.Foster and C.Kesselman

Modello di task execution sulla Grid Client b Client c Client a Site 1 Site 2 Server B Directory Service Server C Server D SchedulerMonitor WAN (0) Monitor server and network Status periodically (1) (2) (3) (4) (1)Query server (2)Assign server (3)Request exec. (4)Return computed result

Perché la grid ora? Caratteristiche del calcolo degli esperimenti di LHC : –Collaborazioni molto numerose e distribuite geograficamente –Elevata quantità di dati da analizzare Risorse di calcolo distribuite : –Disponibilità di cluster di PC con elevata capacità di calcolo Reti: –affidabilità, alta banda locale e geografica, servizi QoS

Evoluzione della tecnologia WAN –Bandwidth(bps) 2M(89), 34M(97), bps, Gbps –Transm. Tech., Digital H., SDH/Sonet, ATM, PoS, Optical networks/DWDM –Per hop latency ~ from hundred of msec to few msec –TCP, UDP, RTP, reliable multicast … over IP –Fault tolerance and QoS support –Driving applications: telefony, www, videoconf., video on demand, true distributed applications like distributed computing, online control of scientific instrument, teleimmersion…. GRID

i mattoni per passare dalla rete di trasmissione dati alla rete di servizi di calcolo sono disponibili !

Grid architecture What is involved in building a grid? –Users –Applications –Services –resources (end systems, network, data storage, …)

classpurposeMake use ofconcerns End userSolve problemsapplicationsTransparency performance Application developers Develop applications Programming models and tools Ease of use, performance Tools developers Develop tools Programming models Grid servicesAdaptivity, performance, security Grid developers Provide basic grid services Local system services simplicity, connectivity, security System administrators Manage grid resources Management toolsBalancing local and global concerns GRID USERS

HEP computing Key elements: -Data type and size per LHC exp.: RAW(1MB per event, B/year/exp.), ESD(100KB per event), AOD(10KB per event) -Data processing: event reconstruction, calibration, data reduction, event selection,analysis, event simulation -Distributed, hierarchical regional centers architecture: Tier 0 (CERN), Tier 1, …desktop -large and distributed user community

HEP computing cont. Applications classes: 1)Traditional applications running on single computer and with local I/O 2)Scheduled Client/Server applications running on multiple computers and with local or remote I/O 3)Interactive Client/Server applications 4)Grid oriented applications integrated with grid services

Global Grid Architecture Grid Fabric Layer Applications Comm. protocols Data servers Remote monitoring PC-Cluster Schedulers Network Services (QoS) Optical technology Grid Services Layer Resource and appl. Independent services InformationResource mgmt (GRAM) Security (GSI)Data accessFault detection... Batch traditional Applications Client/Server Interactive Appl. Client/Server Batch Applications Grid enabled Applications Application Toolkit Layer HTB Data Mover Monitoring tools workload management Application monitoring Data management WP1 WP2.1 WP2.2 WP2.3 WP2.4 WP5 WP3

TESTBED & NETWORK Workpackage

The INFN-GRID TESTBED WP has the mandate to plan, organize, and enable testbed for end-to-end experiments applications. It will be based on the computing infrastructures set-up by the INFN community in the years for the needs of the experiments which will exploit the GRID. these infrastructures will be mainly the Tier1-Tier3 Regional Centers prototypes for the LHC experiments.

It will be based on an high performance NETWORK planned by the WP 5 with the bandwidth and the services required by the experiments applications (WP3). The INFN GRID testbed will be connected to the European testbed and through it to the other national grids participating to the European project. cont.

The project activities will provide a layout of the necessary size to test in real life the middleware, the application development, the development of the LHC experiment computing models during this prototyping phase and the necessary support to LHC experiment computing activities The national testbed deployment will be synchronised with DataGrid project activities.

Testbed baselines Data intensive computing: to address the problem of storage of a large amount of data Hierarchical Tier-n Regional Centers model as recommended by Monarc will be prototyped and tested. Production oriented testbed: straightforward demonstrator testbeds for: –prototyping and –continuously prove the production capabilities of the overall system; –advanced testbeds which stretch the system to its limits.

Cont. Real goals and time-scales: – "real Experiment applications". –By the end of year 2003, all the LHC Experiments have to have a "reasonable-scaled" (order of 10%)to proceed to final "full scale" implementation. Integrated system: efficient utilization of the distributed resources, integrated in a common grid, while maintaining the policies of the experiments. MONARC simulation tool in the design and optimization of the computing infrastructure, both local and distributed.

Experiments capacity in Italy cms 8000 SI95, 21 TB SI95 40 TB SI95, 80 TB atlas 5000 SI95, 5 TB 8000 SI95, 10 TB SI95, 20 TB alice 6800 SI95 6,4 TB SI95 12 TB SI95 22 TB virgo…… …….

Gerarchia dei Centri Regionali CERN Tier 0 Tier 1 Tier 2 Tier 3 Tier 4 FranceItaly 2.5Gbps UK Fermilab Tier2 center sezione 2.5Gbps 622Mbps 2.5Gbps desktop 100Mbps-1Gbps

HEP computing : GRID Layout Model Data Server CPU Server desktop CPU Server Multi-level RC hierarchy desktop CERN DATAGRID CPU Server Tier 1 Tier 2 Tier 3-4

GARR-B Topology 155 Mbps ATM based Network access points (PoP) main transport nodes TORINO PADOVA BARI PALERMO FIRENZE PAVIA GENOVA NAPOLI CAGLIARI TRIESTE ROMA PISA LAQUILA CATANIA BOLOGNA UDINE TRENTO PERUGIA LNF LNGS SASSARI LECCE LNS LNL USA 155Mbps T3 SALERNO COSENZA S.Piero FERRARA PARMA CNAF ROMA2 cern Regional Centers CMS primary T.1 T2/3 Atlas primary T.1 T2/3 Alice primary T.1 T2/3 LHCb T.1 T2/3 600Mbps Mappa dei siti per i prototipi dei RC MILANO

Testbed progressively growing from quantum to production Grid

Deliverables Deliverable Description Delivery Date D1.1 Widely deployed testbed of GRID basic services 6 months D1.2 Application 1 (traditional applications) testbed 12 months D1.3 Application 2 (scheduled client/server applications) testbed 18 months Application n (cahotic client/server applications) testbed 30 months D1.4 Grid fabric for distributed Tier 124 months D1.5 Grid fabric for all Tier hierarchy36 months

Milestones Mileston e DescriptionDate M1.1Testbeds topology6 Months M1.2Tier1, Tier2&3 computing model experimentation 12 Months M1.3Grids prototypes18Months M1.4Scalability tests24 Months M1.5Validation tests36 Months

Common resources PC * Upgraded Interfaces on routers ---- L2 GE switch----- VPN layout

Testbed network layout description Upgraded access on production net VPN at 34Mbps----- VPN at 155Mbps VPN at Gbps

Testbed participants layout setup coordinators(computing resources + network layout) WP participants application developers Users >Total 20 FTE

What we are ready to do To interconnect Globus-based grids Globus commands (globus-run,…) Globus tools (gsiftp,…..) GARA tests……

Testbed resources Now –small PBS PC-cluster and SUN-cluster (cnaf) –WAN condor pool (about 300 nodes) By the end of 2000: quantum grid –More sites with PBS and LSF clusters –More PCs in the clusters Spring 2001 –Experiment computing power