Progetto EGEE “Enabling GRID for E-Science in Europe”

Slides:



Advertisements
Presentazioni simili
Il check-up dell’innovazione
Advertisements

Dipartimento di Ingegneria Idraulica e Ambientale - Universita di Pavia 1 Caduta non guidata di un corpo rettangolare in un serbatoio Velocità e rotazione.
TAV.1 Foto n.1 Foto n.2 SCALINATA DI ACCESSO ALL’EREMO DI SANTA CATERINA DEL SASSO DALLA CORTE DELLE CASCINE DEL QUIQUIO Foto n.3 Foto n.4.
E835 & Hera-B Concezio Pisa, 21/12/2004. E835 (aka Jet-FNAL) timeline dell'esperimento –Presa dati conclusa nel Alcune analisi tuttora in corso.
Lezioni di Astronomia 3- Le stelle Bologna 8 aprile 2010
Frontespizio Economia Monetaria Anno Accademico
DISEGNO TECNICO INDUSTRIALE
23/01/01Alberto Masoni – GR1 - Roma1 I MODELLI DI CENTRI REGIONALI POSIZIONE DI ALICE ITALIA CENTRO ITALIANO: CPU 450 KSI95, DISCO 400 TB (INSIEME TIER-1.
L. Perini CSN1 -Roma 23 Gen Centri Regionali per il calcolo di ATLAS in Italia Tier-1 e Tiers-N : funzioni, localizzazione, necessita di h/w, personale.
Programmazione 1 9CFU – TANTE ore
P. Capiluppi Organizzazione del Software & Computing CMS Italia I Workshop CMS Italia del Computing & Software Roma Novembre 2001.
Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
Workshop su GRID computing e calcolo avanzato Napoli, 6 maggio 2003
Ufficio Studi UNIONCAMERE TOSCANA 1 Presentazione di Riccardo Perugi Ufficio Studi UNIONCAMERE TOSCANA Firenze, 19 dicembre 2000.
1 STATO DELLINTEGRAZIONE TRA I 4 PROGETTI AVVISO 1575/2004 ATTIVITA DEL GRUPPO TECNICO OPERATIVO Riunione del Comitato Tecnico sullInteroperabilità MUR,
Proposta di integrazione e consolidamento delle risorse presenti nellinfrastruttura Grid dellItalia Meridionale (L. Merola, )
Consorzio COMETA - Progetto PI2S2 UNIONE EUROPEA B rainstorming del Consorzio COMETA sul PON Dr. Giuseppe Andronico INFN.
Aspetti critici rete LAN e WAN per i Tier-2
Zeus proposte di asseganzione in corso danno Sebastiano Albergo Giovanni Chiefari Raffaello Dalessandro CSN1 - Pisa 21 Giugno 2004.
1 Riunione del 29 Marzo 2007 IL PROGETTO SCoPE Prof. Giuseppe Marrucci LAvviso 1575/2004 ed i quattro progetti vincitori Lo stato dellarte del progetto.
1 Riunione del 29 Marzo 2007 IL PROGETTO SCoPE Prof. Guido Russo I lavori Le apparecchiature Il portale.
Dipartimento di Ingegneria Idraulica e Ambientale - Universita di Pavia 1 Scritte scritte scritte scritte scritte scritte scritte Scritte scritte Titolo.
Dipartimento di Ingegneria Idraulica e Ambientale - Universita di Pavia 1 Simulazione di un esperimento di laboratorio: Caduta di un corpo quadrato in.
WP 14 Grid Applications for Geophysics Istituto Nazionale di Geofisica e Vulcanologia INGV Progetto FIRB Grid.it Documento di rimodulazione.
Mercato mondiale dell’ICT ( )
STILI DI APPRENDIMENTO ED EVOLUZIONE INTERFACCE
Grid Computing Sergio Andreozzi. Chi è interessato ad analizzare i dati generati da LHC? Circa 5,000 scienziati –distribuiti nel mondo –appartenenti ad.
Tier1 - cpu KSI2k days ATLAS KSI2k days CMS. Tier1 - storage CASTOR disk space CMS requires: T1D0, T0D1 ATLAS requires: T1D0, T0D1 and T1D1.
1 Riunione Testbed - 17 gennaio Agenda - stato del testbed di INFN-GRID (L. Gaido) - le risorse del CNAF (A. Italiano) - report sullo stress test.
25 ottobre 2002infn1 FIRB-Grid WP3,5 Grid deployment.
Technical Board 21 novembre 2000 WP5 - Network Luciano Gaido 1 Progetto INFN-GRID WP5 - Network Technical Board Cnaf, 21 novembre 2000.
1 Il testbed di LCG Riunione Testbed – CNAF, 17 gennaio 2003 L. Gaido.
Il calcolo distribuito in ATLAS
Conclusioni M. Paganoni workshop CMS Italia, Napoli 13-14/2/07.
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
1 M. Biasotto – Legnaro, 22 Dicembre 2005 Prototipo Tier 2 di Legnaro-Padova INFN Legnaro.
2 3 4 RISERVATEZZA INTEGRITA DISPONIBILITA 5 6.
Melfi, 1 aprile 2011 – MediaShow 1 Social Network: possibilità di uso consapevole nella didattica Uso, consapevolezza, opportunità, proposte Caterina Policaro.
1 Negozi Nuove idee realizzate per. 2 Negozi 3 4.
Scheda Ente Ente Privato Ente Pubblico. 2ROL - Richieste On Line.
1 Guida per linsegnamento nei corsi per il conseguimento del CERTIFICATO DI IDONEITÀ ALLA GUIDA DEL CICLOMOTORE.
Bando Arti Sceniche. Per poter procedere è indispensabile aprire il testo del Bando 2ROL - Richieste On Line.
La pianificazione e la gestione di progetti complessi a finanziamento pubblico Dott.ssa Luisella Bianco Responsabile Business Division: Project Management.
27/04/ Fondazione Geometri Emilia Romagna Rete GNSS So.G.E.R. Partner ufficiale I servizi della Rete GNSS So.G.E.R. a disposizione dellutenza Bologna.
EGEE is a project funded by the European Union under contract IST Using SRM: DPM and dCache G.Donvito,V.Spinoso INFN Bari
La “Griglia” informatica Fabrizio Gagliardi CERN EGEE Project Director
* * Data Challenge 04 Stato dei centri di produzione in Italia.
Sviluppare un programma in C che, dato un array da 100 elementi interi caricato con numeri casuali compresi tra [10,100], sia in grado di cercare il valore.
Grid Computing: tecnologie abilitanti e applicazioni per eScience MURST Impiego del Fondo Speciale per lo Sviluppo della Ricerca di Interesse Strategico.
+21 Aspettative economiche – Europa Dicembre 2013 Indicatore > +20 Indicatore 0 a +20 Indicatore 0 a -20 Indicatore < -20 Unione Europea Totale: +14 Indicatore.
Big Data e Big Science Alberto Di Meglio CERN openlab CTO DOI: /zenodo.8610.
La rete GARR stato ed evoluzione a GARR-Giganet
7 ottobre 2002P. Checchia Padova Cons. di sezione1 Resoconto CSN1 Lecce settembre 2003 Cosiderazioni generali Bilancio 2004: 28 M€ (era 38.5 compreso l’anticipo.
Un’analisi dei dati del triennio
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
Analysis unibo una proposta. Work flow di una tipica analisi 1.Simulazione di piccoli campioni di eventi per studio segnale 2.Generazione in grande.
20 Settembre 2005CSN1 - Napoli - Zeus: proposte dei referee ZEUS: proposte dei referee Sebastiano Albergo Giovanni Chiefari Raffaello Dalessandro.
INFO Informatics Division Deputy Director Ing. Silvio Migliori ( )
IL GIOCO DEL PORTIERE CASISTICA. Caso n. 1 Il portiere nella seguente azione NON commette infrazioni.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
Calcolo esperimenti LHC 2004 F. Ferroni, P. Lubrano, A. Martin, M. Morandin, M. Sozzi.
Halina Bilokon ATLAS Software di fisica DC1 – DC2 DC1 aprile fine 2003 (versioni di software  3.x.x – 7.x.x)  Validation del Software  Aggiornamento.
Gaetano Maron, Presentazione T2 LNL-Padova, Legnaro 22 dicembre Il Servizio Tecnologie Informatiche ed Elettroniche dei LNL Gaetano Maron.
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
L’infrastruttura del progetto ReCaS Paolo Lo Re on behalf of ReCaS collaboration.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
EU-IndiaGrid Project Joining European and Indian grids for escience
Alberto Masoni EU-IndiaGrid Project Manager INFN Sezione di Cagliari
Transcript della presentazione:

Progetto EGEE “Enabling GRID for E-Science in Europe” (6° Progr. Quadro UE) Leonardo Merola Riunione di gr. I NAPOLI - 18/12/2002

Una soluzione su scala mondiale per: Accesso a grandi moli di dati GRID ( “La Griglia” ) Una soluzione su scala mondiale per: Calcolo distribuito Accesso a grandi moli di dati Nata in ambito scientifico, si sta evolvendo anche verso il campo industriale, commerciale, governativo World Wide WEB World Wide GRID

Accesso a Computers e Dati in modo “trasparente” all’utente Collegameno di una qualunque apparecchiatura alla presa elettrica in modo “trasparente” all’utente Accesso a Computers e Dati in modo “trasparente” all’utente

Modello di calcolo distribuito per gli esperimenti a LHC Multi-level Regional Center hierarchy Data Server CPU Server desktop CERN Tier 0 Tier 1 Tier 2 Tier 3-4 Il “Middleware”, una via di mezzo tra hardware e software, deve assicurare la compatibilità fra i vari ambienti.

Struttura a Tiers di ATLAS CNAF US MI RM1 NA PV GE … Il numero e la localizzazione dei Tier3 è in fase di discussione

Il CERN è il coordinatore del progetto THE EUROPEAN PROJECT Progetto triennale (2001-2003) “DataGRID” finanziato per 9.8 milioni di Euro, da utilizzare sopratutto per contratti di personale qualificato allo scopo di realizzare il ”Middleware” e realizzare “Testbed” su casi reali. Il CERN è il coordinatore del progetto

Struttura del progetto DataGRID: 10 Workpackages

Il Progetto INFN-GRID Programma triennale per lo sviluppo dell’infrastruttura di GRID per le sue 26 unità operative. Stessa struttura a workpackages di DATAGRID L’obiettivo è realizzare entro la seconda metà del 2003 prototipi di “Tier1,2,3” per il calcolo a LHC, nella misura del 10-20% della realizzazione da completare per il 2006.

La collaborazione IG-BIGEST The Italian Grid for eBusiness eIndustry eGovernment EScience and Technology Scopi: Provide coordination to research, study, design, deploy and operate the Grid components needed to support the modern scientific, business and government colloborative activities in Italy and to integrate this infrastructure with similar ones in Europe and the rest of the world Create Italian Research Area (IRA)

Partecipanti IG-BIGEST

Il progetto GRID.IT FIRB 2001/03 – Fondo per gli Investimenti della Ricerca di Base: Progetto GRID.IT: PIATTAFORME ABILITANTI PER GRIGLIE COMPUTAZIONALI A ELEVATE PRESTAZIONI ORIENTATE A ORGANIZZAZIONI VIRTUALI SCALABILI TOT: 8 M€ funded, of which 1.1 M€ for young researchers All’INFN: 1580 k€ funded, of which 300 k€ for young researchers

CNR: Agenzia 2000, Strategic projects “5%”, … ASI: ASI-PQE2000, Cosmo-SkyMed, National Space Program (PSN), E-Science (PON): Centri di Eccellenza per l’e-Learning UniSA-UniBN SPACI (PON): Southern Partnership for Advanced Computational Infrastructures UniLe ISUFI, ICAR-CNR Na (Murli), UniCal

Modello di Grid FIRB Risorse comuni Grid comune E servizi INGV INAF Altri Risorse E servizi Grid comune Bio Risorse E servizi INFN-LCG Risorse E servizi

Atività di Ricerca GARR Large-bandwidth Optical Net Applications for Astrophysics Geophysics High Energy Physics Comp. Chemistry Earth Observation Bio-informatics Applications for E-Science&Engineering High-perf. Components Scientific Libraries Cost models Resource Management Problem Solving Environments Programming Tools and Environment Data Intensive core services Scheduling Monitoring Commmunic. Grid Portals Security Knowledge Services Resource Brokers Middleware GARR Large-bandwidth Optical Net High-perf. Networks

Coinvolgimento INFN in GRID.IT Responsabilita’ della gestione dell’Unita’ di Ricerca (UR) n.4 che comprende anche INAF, INGV e la biologia con le Universita’ di PD e GE e il CNR di Milano Responsabilita’ della gestione del WP3 della UR n.4, cui compete l’implementazione dei servizi Grid per tutte le applicazioni Responsabilita’ della gestione del WP5 della UR n. 4, che deve estendere le funzionalita’ del Data Management secondo le necessita’ dei nuovi settori coinvolti.

Le attivita’ del WP3 sono focalizzate sul deployment e management di una grid di produzione per la comunita’ scientifica nazionale, saranno coordinate con quelle del WP6, che sara’ invece focalizzato sul deployment e management di una grid di produzione per LCG. Tutte le risorse della grid INFN dovranno essere gestite in modo uniforme e il piu’ possibile condiviso, rispettando le priorita’ dei singoli esperimenti.

La sezione di Napoli sarà uno dei 4 nodi infrastrutturali principali (con Padova, Bologna/CNAF e Catania) Risorse: 25 nodi biprocessori, 1 art.2222 Partecipanti: L.M., Mastroserio, Tortone, Esposito Attività principale: Monitoring e testing

ATLAS Data Size Raw Data (anche generati con MC): 2 MB/evento. ESD, Event Summary Data, output della ricostruzione: 500 KB/evento AOD, Analysis Object Data, formato "pubblico" di analisi: 10 KB/evento DPD, Derived Physics Data, formato privato di analisi, tipo ntupla: 1 KB/evento

Tempi di CPU (PIII 500 MHz @ 20 SI95) Ricostruzione di un evento: 640 SpecInt95*sec Simulazione di un evento: 3000 SpecInt95*sec Generazione di un evento AOD: 25 SpecInt95*sec Generazione di un evento DPD: 5 SpecInt95*sec Analisi di un evento AOD o DPD: 3 SpecInt95*sec

Risorse HW ATLAS a regime (2006) CPU (MSI95) Tape (PB) Disk (PB) CERN (T0+T1) 0,4 6,7 0,5 Each RC 0,2 `6`Ext. RC‘s 1,2 2,4 Total 1,6 7,9 2,9 1 T2: @ 10-20% RC 2003: @ 10% delle risorse a regime @ 50 CPU + 4 TB

Funzioni dei Tiers In linea con le posizioni di ATLAS internazionale, si assegna in esclusiva al Tier1 tutto cio' che ha Raw come input (reprocessing etc.) e tutto cio' che ha ESD come input. I Tier2 hanno storage completo degli AOD, e sono usati per l'analisi e la produzione MC. I Tier3 producono MC nei cicli spare e storano i dati che servono per le analisi "locali".

D US CERN J F I grid tools used at 11 sites CPUs: 46 RM1 40 CNAF 16 NA 10 LNF J F I

DC1 : Phase II Q4/2001 – Q2/2003: DC2: Q3/2003 – Q2/2004: Goals Pile-Up Production (High and Low Luminosity) Large scale Grid test in November/December in preparation for reconstruction Reconstruction start March 2003 DC2: Q3/2003 – Q2/2004: Full deployment of Event Data Model & Detector Description Geant4 replacing Geant3 (fully?) Pile-up in Athena Test the calibration and alignment procedures Use LCG common software Use widely GRID middleware Perform large scale physics analysis Further tests of the computing model Scale As for DC1: ~ 10**7 fully simulated events

Risorse INFN-ATLAS Tier1+Tier2 da 120 CPU’s a 300 per assicurare share 10% in DC2 A regime ATLAS e la sua parte italiana intendono conferire tutte le loro risorse Tier1 e Tier2 a LCG. ~ 60% risorse in Tier1, ~ 30% diviso equamente fra i Tier2. DC3: Q3/2004 – Q2/2005: Goals to be defined; Scale: 5 x DC2 DC4: Q3/2005 – Q2/2006: Goals to be defined; Scale: 2 X DC3

FP6 2002: Il Progetto EGEE 6° Programma Quadro Europeo: Allocati 300 M€ per supportare l’integrazione delle GRID nazionali in una infrastruttura generale europea (con 5 Centri Operativi GRID e 50 Centri operativi nazionali) e collaborare con: l’ US Cyber Infrastructure (1020 M$) e la Japan Asian-Pacific Grid (500 M$)

Separate calls for proposals! Procedures IST Programme Structuring the ERA Programme Research Infrastructures 665 MEuro GÉANT, GRIDs, other ICT-RI 100 + 200 MEuro 2.655 MEuro 3.825 MEuro Integrated Projects Networks of Excellence Specific Targeted Projects Coordinated actions Support actions Integrated Infrastructure Initiatives Coordinated actions Support actions Separate calls for proposals!

€300m for Géant, Grids, other ICT Research Infrastructures in FP6 Budget overview €300m for Géant, Grids, other ICT Research Infrastructures in FP6 ICT RI-Budget in FP5 (to compare): €161m Additional budget for Grids in other IST areas Geant: €80m Grids: €30m Others: €41m (including admin. Costs)

GARR-B Fase 4 (Nov. 2002) Backbone 3*155Mbps (RM-NA-MI-BO) 3*2.5Gbps (MI-BO-RM-MI) 1*2.5Gbps+4*155M inter BB 22 PoP di accesso dei siti GARR Accessi: ~300 siti @2M-1Gbps Peering di Ricerca (su Milano-G) - GEANT@2.5G

Indicative roadmap of calls 1. Budget from Structuring the ERA Programme (€200m) Year 2003 Year 2006 Year 2005 Year 2004 € 50m €100m 2. Budget from IST (€100m) € ?m

1a Call per Integrated Infrastructure Initiative: 17 Dicembre 2002 Richiesta: ~35 M€ Cost sharing: Interessi NA: Overall management: 10% Interface to applications: 10% V Hardware infrastructure 10% Middleware re-engineering: 35% Grid deployment and operation centers: 35% V Call successive (3 in tutto): ~100 M€

Progetti INFN collegati FIRB PROGETTI GRID: EDG, EDT, GLUE (EU-US) PROGETTO LHC COMPUTING GRID FP6 EU INFN TIER1/2/3 GARR CALCOLO ESPERIMENTI: LHC, VIRGO,APE, BABAR… In rosso : Attività in cui sono coinvolti la sezione INFN e il gruppo I

Appendice: GARR e GEANT

La Storia della Rete GARR 1973-1990: reti indipendenti di CNR, ENEA,INFN e Universita’. 1990-1994: rete GARR1, prima rete unitaria di Universita’ e Ricerca 1994-1998: rete GARR2, evoluzione di GARR1 1998-2002: rete GARR-B (Broadband) 2003-2006: rete GARR-G (Giganet)

GARR-B Fase 4 (Nov. 2002) Backbone 3*155Mbps (RM-NA-MI-BO) 3*2.5Gbps (MI-BO-RM-MI) 1*2.5Gbps+4*155M inter BB 22 PoP di accesso dei siti GARR Accessi: ~300 siti @2M-1Gbps Peering di Ricerca (su Milano-G) - GEANT@2.5G

La Rete della Ricerca Europea GÉANT (2001-2004) Progetto e Rete GÉANT (evoluzione della rete TEN-155) Cofinanziamento CE (5th FP-IST-RN1) per 80M€ su un costo di ~170M€ Durata 48 mesi (1/12/00 – 30/11/04) Peculiarita’ di GÉANT: Backbone a 10Gbit/sec Accesso iniziale fino a 2.5 Gbit/sec Accesso GARR a 2.5Gbit/sec