Il calcolo a LHC F. Ferroni, P. Lubrano, A. Marini, G. Salina, M. Sozzi, M. Taiuti A. Martin, M. Morandin CSNI - Assisi 22-9-2004.

Slides:



Advertisements
Presentazioni simili
Primary Italian Saying How You Are.
Advertisements

P. Capiluppi Organizzazione del Software & Computing CMS Italia I Workshop CMS Italia del Computing & Software Roma Novembre 2001.
Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
GLAST Italia 1 Riunione Glast Italia – Pisa, 18/02/2002 GLAST:Stato della collaborazione internazionale ed italiana R.Bellazzini I.N.F.N.- Pisa.
BRISCOLA GO ON AVANTI. Storia I giochi di carte hanno le origini più disparate e vengono collocati in differenti epoche, la Briscola risale al La.
Conclusioni M. Paganoni workshop CMS Italia, Napoli 13-14/2/07.
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
* * Data Challenge 04 Stato dei centri di produzione in Italia.
Lavori di gruppo sulla Mesopotamia
L’Unione Europea e la Scuola da anni hanno stretto un patto e per colmare il divario di apprendimento fra le diverse realtà didattiche dei vari Paesi,
La vita Nato il 26/04/1564 a Stratford-on- Abon. Frequentò la Grammar School . Nei primi anni dell a sua giovinezza lavora con il padre. William.
Relazione referee di Kopio A. Di Ciaccio CSN1-Trieste -6 luglio 2005.
L. Perini Riunione CSN1, Frascati Il Calcolo di CDF: Relazione dei referees Fabrizio Gagliardi, Laura Perini e Valerio Vercesi.
16 Maggio 2005CSN1 - Roma1 MEG : relazione dei referees G. Carugno P. Cenci R. Contri P. Morettini M. Sozzi.
CMS RPC R&D for phase 2 Two types of upgrades proposed for the CMS RPC muon system: 1.Aging and longevity: installed in 2007, must continue to operate.
3 Aprile CSN1 P. Capiluppi Tier2 CMS Italia.
PINK FLOYD DOGS You gotta be crazy, you gotta have a real need. You gotta sleep on your toes. And when you're on the street. You gotta be able to pick.
16 Maggio CSN1 Computing-Software-Analysis CMS-INFN TEAM Analisi in CMS: stato e prospettive del supporto italiano.
6 Febbraio 2006CSN1 - Roma1 MEG : relazione dei referees P. Cenci R. Contri P. Morettini M. Sozzi.
R.N. - Referees LHCB-CSN1 09/021 LHCB : proposte dei referees Giulio D’Agostini Chiara Meroni Rosario Nania.
CMS RPC R&D for phase 2 Two types of upgrades proposed for the CMS RPC muon system: 1.Aging and longevity: installed in 2007, must continue to operate.
1 CSN1 - Lecce 22/09/2003 Babar Relazione e proposte finanziarie Referee: M. de Palma, P. Lubrano, C. Luci, L. Perini,A. Staiano.
LHCB G. Martellotti CSN RRB Ottobre 2004 # gestione overcosti RICH e MU # - profili dispesa CORE e CF - M&O A.
G. Martellotti Roma RRB 16 Aprile Presentazione M&O cat A (per LHCb i M&O cat B sono gestiti autonomamente e non sono scrutinati fino al 2005/2006)
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
1 M&O cat A - consuntivo provvisorio modifica del preventivo 2004 M&O cat B ancora non sono previsti. (saranno presentati al RRB di Aprile) Profili.
Taccani1 7.4 Identification ANALISI DEI PERICOLI Hazard Analysis Identificazione Valutazione Misure di Controllo Control Measures Assessment.
CSN Maggio 2005 P. Capiluppi Il Computing Model (LHC) nella realta’ italiana u I Computing models degli esperimenti LHC gia’ presentati a Gennaio.
CSN1-Assisi L.Perini1 BaBar Calcolo L. Perini per i referees: L.Perini,A.Staiano…
Indagine sulla necessita’ di costruire un terzo foyer al CERN Anna Di Ciaccio CSN1 –Frascati-
Azione esterna dell’Unione europea – Come rafforzare il ruolo dell’Europa Elisabetta Capannelli, Commissione Europea
SUMMARY Time domain and frequency domain RIEPILOGO Dominio del tempo e della frequenza RIEPILOGO Dominio del tempo e della frequenza.
TOTEM: Relazione e proposte finanziarie Referee: G: Chiefari, M. Curatolo, M. de Palma CSN1 - Trieste 22/09/2006.
Tier-2 Tier-2 ATLAS (Osservazioni sulla proposta dei referee del calcolo LHC) Lamberto Luminari CSN1 – Roma, 3 Aprile 2006.
3 Luglio 2006CSN1 - Catania1 MEG : relazione dei referees P. Cenci R. Contri P. Morettini M. Sozzi.
Mobilità tra i Paesi del Programma KA103 A.A. 2014/2015 (KA103) Mobility Tool+ e il Rapporto Finale Claudia Peritore Roma luglio 2015.
Calcolo esperimenti LHC 2004 F. Ferroni, P. Lubrano, A. Martin, M. Morandin, M. Sozzi.
Gruppo di referaggio: Forti (chair), Bossi, Ferrari, Menasce, Morandin, Simone, Taiuti, Zoccoli TIER2: Update F. Bossi, CSN1 Trieste 7/7/05.
L A R OUTINE D EL M ATTINO Ellie B.. Io mi sono svegliata alle cinque del mattino.
Il calcolo LHC in Italia: commenti Gruppo di referaggio Forti (chair), Belforte  Bossi, Menasce, Simone, Taiuti, Ferrari, Morandin, Zoccoli.
6/4/2004 S. Patricelli - CSN1 - Roma 1 Preparazione RRB di Aprile Addendum al MoU per HLT/DAQ (CERN-RRB )* Consuntivi 2003 M&O (CERN-RRB
Calcolo LHC Francesco Forti, Università e INFN – Pisa Per il gruppo di referaggio: F. Bossi, C. Bozzi, R. Carlin, R. Ferrari, F.F., D.Martello, M.Morandin,
CSN M. Diemoz CMS – RRB24 SOLDI INVESTITI BENE...
STATO DEI PROGETTI TIER2 F. Bossi CCR, Roma, 20 Ottobre 2005 ( per il gruppo di referaggio)
Lo scenario del Linear collider LHC vs ILC: LHC è un progetto del CERN (strettamente europeo) È regolato dal Council cioè dagli stati membri 1 voto per.
Relative pronouns Forms and uses. Relative pronouns Uses and functions of the relative CHI Translates he who, she who, those who, everybody who Does not.
1 CSN1 - Lecce 26/09/2003 TOTEM Relazione e proposte finanziarie Referee: G: Chiefari, M. Curatolo, M. de Palma.
Storage (ieri, oggi e domani) Luca dell’Agnello INFN-CNAF.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
Referees di ATLAS-CMS: commenti sulle attività di upgrade M.Grassi S.Miscetti A.Passeri D.Pinci V.Vagnoni Sulla base di quanto presentato nell’incontro.
Comenius Project “Math is B.E.A.U.” that is Beautiful Easy Amusing Useful ITALIAN WORKGROUP ENNISKILLEN (U.K.) May 2011.
6/1/2016ATLAS Milano1 Agenda :. 6/1/2016ATLAS Milano2 Agenda : A)AGGIORNAMENTO SITUAZIONE RELIABILITY SITO -potrebbe essere utile discutere le nostre.
1 referee-BaBar CSN I, Roma Gennaio 2008 RELAZIONE DEI REFEREE DI BaBar e SuperB M.De Palma, C.Luci, C.Troncon, B.Gobbo(calcolo),D. Pedrini
Call 5: ACTIVE – 3 rd Meeting G. Darbo – INFN / Genova 8 July 2013 o ACTIVE – 3 rd Meeting G. Darbo – INFN / Genova Indico agenda:
19/4/2013 D. Menasce, M. Serra - Referaggio Progetti INFRA e WLCG 1.
Riunione CSN1, Roma, Gennaio 2012F. Bedeschi, INFN-Pisa 1 Riunione CSN1  Comunicazioni  Comunicazioni varie  Riunioni future  Similfellows  Regole.
Calcolo a LHC Concezio Bozzi, INFN Ferrara per il gruppo di referaggio: F. Bossi, CB, R. Ferrari, D. Lucchesi, D. Martello, [M. Morandin], S. Pirrone,
10 Ottobre CSN1 P. Capiluppi Tier2 CMS Italia 3Bari  In comune con Alice 3Legnaro  In comune con Alice 3Pisa 3Roma1  In comune con Atlas Sedi.
ATLAS Italia – Sestri Levante, 15 Giugno 2010 G. Carlino – Richieste Run Efficiency = time for physics / total time LHC Efficiency = time with colliding.
P. Morettini 19/5/ Paolo Morettini - ATLAS Italia - Napoli.
L.Perini Milano: 10 Gennaio Ex-ATLAS-Grid (Tier2 incluso) l Ruolo dei Tiers in ATLAS e grid l Le persone di Milano e le attività l Le infrastrutture.
CNAF. storage Siamo in una fase di tuning con lo storage, che al momento sembra essere un collo di bottiglia 1.~10 giorni fa vista saturazione GPFS.
TOTEM review a LHCC C. Cecchi CSN1, Parma 24/09/2010 CSN1, Parma 23/09/10C. Cecchi  STATO DELL’ESPERIMENTO & PHYSICS PLAN 2010/2011  INSTALLAZIONE DI.
Futuro di EGI EGI è menzionato esplicitamente nel draft delle nuove calls EU ( H2020 ) Da ultima versione (per me) data 18-9 di –HORIZON 2020 – WORK PROGRAMME.
Diritto di firma in ATLAS Italia 29/10/2010L. Rossi –ATLAS Italia - Pisa1 La firma sui lavorsi scientifici di ATLAS e’ un diritto di tutti quelli che contribuiscono.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Calorimetro LAR ATLAS Italia Roma 28 novembre 2008
Dichiarazione dei servizi di sito nel GOCDB
From 8 to 80 boxes. From FBSNG to Condor CPU Satura !
Transcript della presentazione:

Il calcolo a LHC F. Ferroni, P. Lubrano, A. Marini, G. Salina, M. Sozzi, M. Taiuti A. Martin, M. Morandin CSNI - Assisi

Oggi parliamo di: CSNI - Assisi Amarcord -La definizione dei soggetti piu’ importanti -Lo stato dell’arte -Le prospettive degli esperimenti -Le complicazioni di politica scientifica -La proposta di finanziamento -Un ringraziamento e un saluto

Le date chiave: La nascita della percezione della Grid Cari Colleghi,vi invito a far parte di un gruppo di referee, presieduto da F. Ferroni,con il compito di valutare la proposta GRID, in fase di preparazionesotto la guida di M. Mazzucato.Ferroni, Marini, Taiuti, Salina forniranno il loro parere alleCommissioni Scientifiche 1, 2, 3, 4 e 5 rispettivamente.. ………………..omissis…………………………………… Vi ringrazio per la collaborazione e vi saluto cordialmente,Enzo Iarocci

Le date chiave: Il CERN prende coscienza che avere un ruolo centrale implica fantasia, sopratutto finanziaria Based on the findings and recommendations of the CERN LHC Computing Review the LHC Computing Grid Project was presented by the CERN Management to the CERN Council (15 June 2001).The CERN budget, as presently planned, does not cover the cost in staff or equipment of CERN's share of this project. Therefore, the Members States were asked to consider in particular the resourcing of Phase 1(Prototype) ……omissis……….

Le parole magiche LCG Tier 1 al CNAF GRID.it EDG -----> EGEE o Middleware

La ineluttabile nascita di LCG I requirement degli esperimenti La mancanza di risorse al CERN La necessita’ di politica scientifica del calcolo distribuito L’affermarsi della EC come soggetto principale nel gioco della e-science

I requirement degli esperimenti Raccogliere eventi a rate >= 100 Hz (100Hz*10**7s*1MB/evento ~ 10**15 B da processare un numero imprecisato di volte) Un centro di calcolo al CERN (Tier0) che trasformi i raw-data Una serie di centri di calcolo (Tier1) che sappiano fare storage, calibrazione, reprocessing, produzione MC ed analisi Una serie di centri piu’ piccoli (Tier2) da adibire a compiti di supporto ai Tier1 (i.e. produzione MC) e centrali nell’analisi dati E via scendendo ai Tier3 dove l’analisi dovrebbe regnare sovrana

Nulla di troppo nuovo. ma… Lo storage e’ estremamente piu’ massiccio di qualsiasi cosa vista prima Il numero di macroaree geografiche, nazioni, agenzie, istituti, laboratori, fisici e’ certamente unprecented e offre una infrastruttura di risorse distribuite che sarebbe ingenuo pensare di razionalizzare. La GRID nasce per questo ! Gli esperimenti sono quattro e al di la’ di legittime manifestazioni di indipendenza la completa quadruplicazione delle risorse infrastrutturali (hardware, software, personale) sarebbe pressoche’ impossibile da coprire. Senza contare che almeno un tipo di risorsa (umana) e’ assai limitata.

E che LCG sia dunque Costruire un Tier0 (4 di fatto) che garantisca il first pass processing Coordinare la gestione una rete di Tier (nazionali o di esperimento) che sfruttando le risorse di GRID permetta un accesso trasparente ai dati (prodotti, calibrati, ricostruiti, riprocessati, analizzati) La chiave magica che doveva aprire tutte le porte della GRID era il middleware sviluppato nell’ambito di un progetto europeo (supportato e affiancato da vari progetti nazionali -i.e. Grid.it) chiamato European Data Grid (EDG) coordinato dal CERN ma non sotto il controllo di LCG. Questa (che si ripetera’ con EGEE) e’ la parte tricky dell’operazione. Voler avere pagato dalla EC lo sviluppo di una tecnologia di calcolo necessaria all HEP ma senza farlo sembrare !

E che LCG sia dunque (2) Garantire attraverso un processo di interazione con gli esperimenti lo sviluppo di un software comune di base da mantenersi quindi a cura di un gruppo centrale che minimizza dunque la necessita’ di risorse proprie a ogni esperimento. Esempi diversi ma rilevanti nel bene di questa parte sono l’evoluzione di GEANT4 finalmente ripresa in mano dalla comunita’ degli utenti e lo sviluppo dell’event store (POOL) a seguito dell’abbandono di Objectivity Siglare accordi con le funding agency che permettano lo sviluppo della fase prototipale pur in assenza di gran parte delle risorse centrali (CERN) Usare le risorse EDG (e poi EGEE) ancora in questa direzione Far finta di essere ricchi pur essendo miserabili (peccato per la spiacevole arroganza che accompagna questa peculiare situazione)

LCG so far C’e’ evidenza che i progressi in direzione di un Tier 0 ci siano. Una volta quantificate le risorse necessarie allo startup e per i primi 2(?) anni (LCG TDR prossimo anno) questa parte dovrebbe essere in grado di svilupparsi La parte di GRID merita un discorso approfondito. Abbiate pazienza. Lo sviluppo del software per gli esperimenti come detto ha progredito in parti fondamentali (POOL uber alles) ma non e’ esente da critiche di metodo e merito. Questa parte del progetto fa uso di un centinaio di FTE, si proprio cosi’ ! Molti di questi non rispondono al management di LCG (Torre Wenaus, nello specifico); fanno quello per cui sono pagati dalle funding agencies. O te li pigli cosi’ o li rimandi indietro ma non verranno sostituiti. Il management di LCG (rappresentanti degli esperimenti inclusi) e’ colpevole di aver accettato questo modello se non addirittura averlo incoraggiato.

LCG so far (2) I progetti software lanciati dal board di LCG che poteva farlo (SC2) una volta iniziati hanno preso vita propria che e’ sfuggita a ogni forma di controllo. Alcuni progetti hanno una utilita’ tra il nullo e il dannoso pur tuttavia le risorse loro allocate di fatto non possono essere meglio usate. Va detto che gli esperimenti (per loro volonta’ direi) salgono sul ponte di comando di LCG per prendere il te’ al piu’. Il comitato sopra citato (SC2) e’ stato nullificato nella riorganizzazione del progetto avvenuta recentemente ma nonostante le raccomandazioni delle review del LHCC e di altre autorevoli fonti e’ stato mantenuto e anzi forse rimpolpato per avere un altro forum dove lasciar sfogare chi vuole disturbare il manovratore

LC-GRID Il Middleware Il progetto non ha (volutamente) scritto dei requirement che fossero chiari. Va detto che mancava ancora la consapevolezza di cosa fosse realistico fare e in che tempi e con che manpower. Inoltre il rapporto con EDG e’ stato gestito in modo pessimo. Il risultato e’ che il middleware prodotto da EDG e’ arrivato tardi, e’ risultato una somma incoerente di pezzi (qualcuno dei quali ben fatto), di difficile integrazione e gestione. Uno sforzo enorme da parte di personale LCG (in parte italiano) ha permesso di giungere a una release (LCGII) utilizzabile (di fatto nei primi mesi del 2004). Cocci pero’ ne sono stati lasciati molti …………..

LC-GRID (2) Gli americani sono stati de-facto incoraggiati a prendere una strada autonoma che probabilmente avrebbero preso comunque (Grid3) La comunita’ nordica (NorduGrid) non ha avuto alcun motivo per lasciare un sistema ragionevolmente efficiente e passare a uno pesantemente complesso All’inteno del core dei paesi europei soci fondatori di questa impresa non c’e’ stata visione unitaria per guardare avanti e ancora non c’e’ (i.e. IN2P3 a Lyon) Il primo fatto col quale convivere e’ dunque l’esistenza di una molteplicita’ di flavor di GRID da armonizzare in modo che un esperimento possa utilizzare tutte le risorse senza troppa pena

LC-GRID (3) EGEE, il nuovo progetto europeo che segue EDG dovrebbe coprire la ingegnerizzazione del middleware (un eufemismo che sta per scrittura di un pacchetto coerente e robusto) e fornire le risorse (specialmente umane) per la gestione delle operazioni di LCG (OpCenter, CallCenter e quant’altro) Il siccessore di LCGII dovrebbe essere gLite. Non abbiamo ancora elementi di valutazione di questo prodotto. Per convergere sulla definizione comunque c’e’ stata una discussione lunga e tempestosa, indice di una gestione che non si confronta colle realta’ diverse di cui e’ composto il progetto.

LCG: bianco o nero ? Difficile da dire: Non ho una percezione chiara del futuro di questo progetto in tutte le sue parti. C’e’ comunque un passaggio fondamentale che manca. Il TDR di LCG. E qui si sta dipanando una vicenda con aspetti preoccupanti. C’e’ un ordine naturale delle cose: -Gli esperimenti sperimentano un modello di calcolo -Ne descrivono le implicazioni tecnico, scientifico, finanziarie in un Computing-TDR -LCG con gli esperimenti disegna il suo progetto per lo startup e i primi due anni (LCG - TDR) -Si firma un MoU che descrive gli impegni per il computing LHC

Dove e’ il problema ? Modello di computing Computing TDR LCG TDR MoU Computing LCG TDR Modello di computing Computing TDR dovrebbe sembra essere

CMS Computing schedule 2004 –OctRRB for MoUs structures agreement –Dec Computing TDR in initial draft form 2005 –AprilRRB Comp MoUs (Exps and LCG) final document [to be signed in June] –July LCG TDR and CMS Computing TDR submission –Dec Physics TDR submission [Based on “steady state” prod and analysis] 2006 –~Spring (Final) Data Challenge 06 –Dec Computing Systems Operational

Come si deve interpretare ? La volonta’ del CERN di accaparrarsi (nel senso buono diciamo) le risorse mancanti (specialmente di personale) nel piu’ breve tempo possibile L’incoscienza degli esperimenti che sembrano sottovalutare un problema non marginale: non esiste alcuna esperienza di analisi (ne’ concentrata ne’ distribuita) su cui fondare una descrizione di un futuro plausibile

E’ un early warning non la descrizione di un fallimento Alcuni risultati ottenuti durante i Data Challenge degli esperimenti non sono trascurabili e indicano che almeno per la parte deterministica del processo (Produzione MC e Ricostruzione) si possono ottenere i risultati voluti Ci sono anche pero’ segni che il personale del CERN (IT) non sia del tutto all’altezza dei compiti. Per esempio il problema dello storage e la sua evoluzione va guardato con grande attenzione. Sembra che le prove di (in)efficienza fin qui fornite nello storage su cassetta stiano spostando le richieste degli esperimenti su un modello tutto-disco

LHC Computing Grid Project - LCG Project Status Summary POB - 30 August 2004 Les Robertson – LCG Project Leader CERN – European Organization for Nuclear Research Geneva, Switzerland LCG

Key Points (i) Grid Deployment Very many sites have joined, with more nominal capacity than we expected at this time Each experiment has full control over the sites that it accepts to use The accounting system is now in the certification phase There has been continued progress in inter- operation with other grid infrastructures – Grid3 and NorduGrid First service challenge starting The Grid Deployment steering group has been established to oversee –Service challenges –Inter-operability –Operational problem escalation

Key Points (ii) Grid Deployment has entered a new phase Basic middleware is basically working –responsible now for a small fraction of the problems Many performance issues –some solutions are (slowly) being developed –points to priorities for gLite team Many operational issues – –mis-configuration, out of date middleware –resources unsuitable for experiments needs (e.g. insufficient disk space) –slow response by sites to problems – exacerbated by the holiday period, security concerns We are a long way from the grid appearing as a single coherent facility – experiments must adapt to the current state of development

Key Points (vi) Resources at CERN for Phase 2 In the Council paper on cost of completion (March 2002) the funding foreseen in the CERN budget fell short of the estimated costs by CHF 20M The latest planning round for materials and staff stays within the original cost estimates But the deficit with respect to the funding committed at CERN is still CHF 20M The DG proposed in June Council that funding agencies look at the possibilities for continued/new special funding for staff at CERN in Phase 2. So far only Spain has responded to this call. Because of the extension of Phase 1 from 3 to 4 years (delay of LHCC startup) the staff profile (heavily dependent on special funding) falls off rapidly from early 2005 Key staff will shortly receive termination notices Therefore it is essential to decide on how to deal with the funding shortfall in the next months

Advice needed There is some probability that there will be additional funding: –the solution proposed by the DG – for special funding for staff; –moving the cost of tape media to the funding agencies, as was always done for previous experiments; –calling on the CERN contingency – as considered at the time of the cost to completion paper A shortfall of CHF 10M would have a significant effect on the materials budget – increasing the risk that we are not prepared for LHC data analysis, and requiring additional analysis capacity outside CERN. The project leader does not believe that the costs can be cut any further without a clear reduction in the scope of the CERN part of the project But the two solutions proposed to reduce the role of the host lab require outside centres to take on very significant responsibilities. We need to find a solution within three months that enables us to plan the Phase 2 staffing at CERN Al lupo al lupo, datemi tutti I soldi altrimenti mal ve ne incogliera’

E’ il Centro Regionale piu’ efficace nell’ambito di LCG La spinta degli esperimenti non LHC ha contribuito ad accelerarne lo sviluppo (fu dunque una decisione saggia) Il nostro Tier1 al CNAF

Il nostro Tier1 al CNAF: preoccupazioni Personale (cosi’ non ce la facciamo) Meccanismo delle gare (cosi’ rischiamo di buttare soldi e arrivare tardi) Cambio di management (minimizzare i problemi della transizione)

Un numero impressionante ~ 65 giovani lavorano con contratti di vario tipo per Grid.it in senso esteso Rispetto a Perugia (Novembre 2002) il personale e’ raddoppiato Materia di riflessione !

CMS Milestones ) Partecipazione di almeno tre sedi al DC04 {scadenza Marzo}: OK, 100% 2) Integrazione del sistema di Calcolo CMS Italia in LCG {scadenza Giugno}:slitta di 4 mesi, in progress 60% 3) Partecipazione al C-TDR e preparazione al P-TDR {scadenza Ottobre}: lamilestone C-TDR di CMS e' slittata al Luglio 2005, e quella per il P-TDR aGennaio 2006, in-progress 20% 4)Partecipazione al PCP del DC05 {scadnze Dicembre}: la milestone di CMS e'stata annullata e sotituita con le produzioni ed analisi "continue", 0%.

LHCb Milestones 2004 Partecipazione al DC04. La produzione Monte Carlo e' terminata alla fine del mese di Luglio. Dobbiamo procedere all'analisi dei dati simulati. Riteniamo di averesoddisfatto al 100% questa milestone (tra l'altro con un ampio ed efficace utilizzo della Grid italiana).

ATLAS Milestones 2004 Ough…. Troppo complicate, mi sono fatto fare fesso ! (vedi talk di Barberis a Pisa in Giugno) Comunque queste vale la pena di guardarle:

CMS: well done

Le prospettive di CMS Evoluzione da una attività a “Data Challenges” ad una “Permanent Production and Analysis effort” u Questa attivita’ portera’ a:  Definire un CMS Computing Model, “misurato” nella parte dell’analisi  Definire l’uso delle componenti di “Grid” (LCG)  Produrre il Computing TDR di CMS e contribuire a quello di LCG  Definire i contenuti dei Computing MoUs  Produrre il Physics TDR

ATLAS DC2 Phase I Not all problems solved –NorduGrid RLS; Access to the conditions database; Storage elements died … –Grid3 Try to avoid single points of failure (adding new servers) Lack of storage management in some sites –LCG Still some problems with resource broker and information system And data management (copy and register) and stage in/out problems –For all Slowness of the response of the Production Database (Oracle) –Problem that appears after ~6 weeks of running and which is still not fully understood (mix software and hardware problems? being worked with IT-DB). –Has been solved! Consequences: we did not succeed (yet) to run as many jobs as expected per day –In “good time-slots” the rate of about 2000 jobs running at the same time on LCG was sustained for 5-10 days Nevertheless should be completed by end-September and is “Grid” only

Final prototype: DC3 We should consider DC3 as the “final” prototype, for both software and computing infrastructure –tentative schedule is Q to end Q cosmic run will be later in 2006 This means that on that timescale (in fact, earlier than that, if we have learned anything from DC1 and DC2) we need: –a complete s/w chain for “simulated” and for “real” data including aspects missing from DC2: trigger, alignment etc. –a deployed Grid infrastructure capable of dealing with our data –enough resources to run at ~50% of the final data rate for a sizable amount of time (one month) After DC3 surely we will be forced to sort out problems day- by-day, as the need arises, for real, imperfect data coming from the DAQ: no time for more big developments!

LHCb: smart indeed La GRID ha performances di tutto rispetto. LCG ha stabilita’ e robustezza La collaborazione mira al sodo con intelligenza

Dynamically Deployed Agents The Workload Management System: –Put all jobs in its task queue; –Submit immediately in push mode an agent in all CEs which satisfy initial matchmaking job requirements: This agent do all sort of configuration checks; Only once these are satisfied pull the real jobs on the WN. Born as a hack, it has shown several benefit: –It copes with misconfiguration problems minimizing theirs effect. –When the grid is full and there are no free CE, pull jobs to queues which are progressing better. –Jobs are consumed and executed in the order of submission.

Migration to LCG Jun: 80%:20% 25% of DC’04 Aug: 27%:73% 42% of DC’04 May: 89%:11% 11% of DC’04 Jul: 77%:23% 22% of DC’ CPU · Years

Production Share 43 LCG Sites 20 DIRAC Sites DIRAC CNAF 5.56% CNAF 4.10% BA 0.01% CT 0.03% + CA 0.05% FE 0.09% Legnaro 2.08% MI 0.53% NA 0.06% PD 0.10% Roma 0.05% TO 0.72% LCG: 4 RB in use: 2 CERN 1 RAL 1 CNAF

Production Share (II)

Daily Job Production LCG DIRAC 2500 jobs (*) (*) Job = Brunel Step = DST File

E’ vero che ….. Volete triggerare a 4 KHz???? Siete in grado di capirne le conseguenze ?

C’e’ qualcosa che non capisco Dimostrazione che 100Hz passano la ricostruzione (tutti e entro la latency) Dimostrazione della calibrazione dei rivelatori (quando, dove, come) Data reduction e data distribution (chi, dove, quando, come) Relazione tra formati e utilizzo Accesso massiccio e randomico ai dati I famosi primi 100 giorni che non saranno una luna di miele

Parte economica: CMS Nota: Total va a carico di CSN I, LCG va a carico di Grid.it CNAF va a carico di Centro Regionale

Parte economica: CMS Non c’e’ nessuna forma di punizione. C’e’ il tentativo non semplice di far corrispondere le risorse al lavoro da fare includendo delle inefficienze ragionevoli e cercando anche di favorire un riequilibrio del modello (quindi chi e’ stato molto favorito nel passato -LNL- puo’ passare un giro anche se ha lavorato splendidamente) Per I Tier3 il modello e’ troppo fuzzy ancora. La fase di analisi (calibrazioni) fara’ chiarezza

Parte economica: ATLAS Tier Keuro SJ, da discutere quando pronti: "verifica che ATLAS sia ON track per l'inizio del DC3 nel 2005". Tier 3 Genova = 5 KEuro (due bi processori) Lecce = 2.5 Keuro (1 bi processore) Pavia = 5 Keuro (due bi processori) + 3 Keuro (disco) Pisa = 2.5 Keuro (un bi processore) + 3 Keuro (disco) Roma 2 = 5.0 (due bi processori) Roma 3 = 2.5 (un bi processore) + 3 Keuro disco Keuro PC al CERN

Parte economica: ATLAS (2) M.E. Milano: = 9 KEuro (due mu, Perini, Cavalli) Roma 1 = 13.5 Keuro (3 mu, Rapp. Naz., DeSalvo) Pavia = 4.5 Keuro (1 mu Rimoldi)) Roma 3 = 4.5 Keuro (1 mu Farilla)

Non ho motivo per cambiare le mie conclusioni di Giugno

Il capolinea Sono quattro anni e mezzo che il gruppo dei referee del computing LHC (e anche di Grid.it e anche del Tier 1) lavora per aiutare questo grande progetto a decollare e ad assumere la forma necessaria per garantire le scoperte che verranno. Crediamo onestamente di averci messo l’impegno necessario e siamo stati anche ripagati dal vedere le cose crescere pur tra mille difficolta’ Abbiamo anche imparato tanto. Rimettiamo al Presidente dell’INFN il mandato ricevuto (Grid.it e Tier1) e ai Presidenti della CSN I e III quello per il calcolo LHC degli esperimenti. Garantiremo una qualche forma di continuita’ se ritenuta necessaria e comunque forniremo tutto l’aiuto per la fase di transizione. Grazie per averci sopportato !