11 Novembre 2002Laura Perini - CSN1 Perugia1 Calcolo e Software di Atlas Overview Organizzazione ATLAS Softare/Computing e ruolo INFN Data Challenges GRID.

Slides:



Advertisements
Presentazioni simili
Primary Italian Saying How You Are.
Advertisements

ALICE-Italia: IL CALCOLO
P.Capiluppi I Workshop CMS Italia del Computing & Software Roma Novembre 2001 Qualche conclusione e pianificazione per il prossimo futuro.
P. Capiluppi Organizzazione del Software & Computing CMS Italia I Workshop CMS Italia del Computing & Software Roma Novembre 2001.
Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
1 Riunione Testbed - 17 gennaio Agenda - stato del testbed di INFN-GRID (L. Gaido) - le risorse del CNAF (A. Italiano) - report sullo stress test.
25 ottobre 2002infn1 FIRB-Grid WP3,5 Grid deployment.
Conclusioni M. Paganoni workshop CMS Italia, Napoli 13-14/2/07.
Last quarter work and future activities
Distribuzione del numero di alleli condivisi da coppie di fratelli e di non-parenti tipizzati rispettivamente per 5, 9 e 13 markers.
Commissione 1, Roma, 3 Aprile 2007M. Villa Stato del LUCID M. Villa per il LUCID group Storia recente Nuova strategia rivelatore Tests su fascio Tests.
Infrastruttura GRID di produzione e i T2 Cristina Vistoli Cnaf.
CMS RPC R&D for phase 2 Two types of upgrades proposed for the CMS RPC muon system: 1.Aging and longevity: installed in 2007, must continue to operate.
3 Aprile CSN1 P. Capiluppi Tier2 CMS Italia.
16 Maggio CSN1 Computing-Software-Analysis CMS-INFN TEAM Analisi in CMS: stato e prospettive del supporto italiano.
Sezione di Padova Contributo alla costruzione dei layers 6,7 Possibili task per PADOVA:  precedente proposta: R&D della procedura di assemblaggio degli.
Ontologia AA F. Orilia. Lez. 16 Discussione dell'approccio controfattualista di lewis condotta da Antonio De Grandis.
News da LHC… *** Discussion title: CMS Commissioning Notes from 09:00 meeting Current fill (1182) has now been in stable beams for >12 hours. Delivered.
CMS RPC R&D for phase 2 Two types of upgrades proposed for the CMS RPC muon system: 1.Aging and longevity: installed in 2007, must continue to operate.
LHCB G. Martellotti CSN RRB Ottobre 2004 # gestione overcosti RICH e MU # - profili dispesa CORE e CF - M&O A.
Attivita` di TileCal 2013 C.Roda Universita` e INFN Pisa Riunione referees ATLAS Roma 1 C.Roda Universita` e INFN Pisa.
G. Martellotti Roma RRB 16 Aprile Presentazione M&O cat A (per LHCb i M&O cat B sono gestiti autonomamente e non sono scrutinati fino al 2005/2006)
8-Giugno-2006L.Perini Workshop Otranto 1 The ATLAS Tier2 Federation INFN Aims, functions. structure Schedule Services and INFN Grid.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
23 Giugno CSN1 P. Capiluppi CMS Computing 2003 e oltre u Stato e richieste u LCG e CMS u Modello di Calcolo CMS.
1 LHCb Computing Angelo Carbone, INFN-CNAF CSN1, 21/9/06 Aggiornamento richieste Tier Richiesta Tier-2 al CNAF Stato e risultati DC06.
8 Maggio 2002Workshop CCR - La Biodola W2K Coordination Group & HEP-NT Report Enrico M.V. Fasanelli Gian Piero Siroli.
Comunicazioni La storia trasparente della CSN1 Sanzioni in arrivo per l’arcicattivo: Zoccoli: HERA-B A Luglio ti puniremo ! E ora bisogna.
Mobilità tra i Paesi del Programma KA103 A.A. 2014/2015 (KA103) Mobility Tool+ e il Rapporto Finale Claudia Peritore Roma luglio 2015.
Secondo Circolo di Carmagnola I FRONTESPIZI DEGLI INVITI ALLE SERATE COMENIUS Invitations to the Comenius Evenings 9 febbraio febbraio giugno.
Il calcolo a LHC F. Ferroni, P. Lubrano, A. Marini, G. Salina, M. Sozzi, M. Taiuti A. Martin, M. Morandin CSNI - Assisi
Calcolo esperimenti LHC 2004 F. Ferroni, P. Lubrano, A. Martin, M. Morandin, M. Sozzi.
ATLAS Italia Calcolo Overview ATLAS sw e computing Calcolo fatto e previsto - share INFN Resoconto Milestones.
Cosa cambia per CDF  S.Belforte mantiene per ora 20% (1 day/week) su CDF: il necessario per una attivita’ di coordinamento e transizione verso un nuovo.
L A R OUTINE D EL M ATTINO Ellie B.. Io mi sono svegliata alle cinque del mattino.
Computing TDR ATLAS Computing TDR Lamberto Luminari CSN1 – Napoli, 22 Settembre 2005.
Halina Bilokon ATLAS Software di fisica DC1 – DC2 DC1 aprile fine 2003 (versioni di software  3.x.x – 7.x.x)  Validation del Software  Aggiornamento.
CSN M. Diemoz CMS – RRB24 SOLDI INVESTITI BENE...
I testbed ed il loro uso 1 I testbed ed il loro uso L. Gaido, A.Ghiselli CSN1, Perugia novembre 2002.
Alessandra De Cugis Progetto Tempi e Orari del Comune di Milano Time in the cities, a holistic approach for urban time issues, the case of Milan Paper.
Presentazione documenti inviati al RRB e piani futuri Commissione Scientifica Nazionale I 13 ottobre 2003 S. Patricelli Punti principali in discussione.
Sito web di ATLAS Italia - La COMM. 1 ha chiesto (fine 2006) agli esperimenti di preparare una pagina WEB: - obiettivo: fornire una descrizione sintetica.
News LHC recommissioning is continuing Sucessfully achieved so far 4 TeV beams, 0.6 m beta* (at least with few bunches) Some beam splashes last week; still.
Meeting 3 Ottobre 2012 Riunione Gruppo Pisa 3 Ottobre 2012C.Roda1 Outline: presa dati e piani per lo shutdown TileCal Long Shutdown – lavor per su tillecal.
Comenius Project “Math is B.E.A.U.” that is Beautiful Easy Amusing Useful ITALIAN WORKGROUP ENNISKILLEN (U.K.) May 2011.
Michele Punturo INFN Perugia 1. Riunione di oggi Mattina: problemi immediati – Trasferimento dati da LIGO (Luca Rei) – Trasferimento dati da.
17 GennaioTier2 Milano G. Costa 1 17-Gennaio-2006.
Call 5: ACTIVE – 3 rd Meeting G. Darbo – INFN / Genova 8 July 2013 o ACTIVE – 3 rd Meeting G. Darbo – INFN / Genova Indico agenda:
ORGANISATION OF THE EDUCATION SYSTEM IN ITALY 2010/2011.
Crescita I: Paolo Sospiro Università di Macerata Macerata 29 Settembre 2014 Economia dello Sviluppo Università di Macerata.
Activity diagrams Data & Control Flows Esempi
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
10 Ottobre CSN1 P. Capiluppi Tier2 CMS Italia 3Bari  In comune con Alice 3Legnaro  In comune con Alice 3Pisa 3Roma1  In comune con Atlas Sedi.
ATLAS Italia – Sestri Levante, 15 Giugno 2010 G. Carlino – Richieste Run Efficiency = time for physics / total time LHC Efficiency = time with colliding.
L.Perini Milano: 10 Gennaio Ex-ATLAS-Grid (Tier2 incluso) l Ruolo dei Tiers in ATLAS e grid l Le persone di Milano e le attività l Le infrastrutture.
TOTEM review a LHCC C. Cecchi CSN1, Parma 24/09/2010 CSN1, Parma 23/09/10C. Cecchi  STATO DELL’ESPERIMENTO & PHYSICS PLAN 2010/2011  INSTALLAZIONE DI.
MM news & status -Final Design Review -NA for NSW -altre attività MM.
Project IOLI Practical exemple in Italy and in Sicily Il presente progetto è finanziato con il sostegno della Commissione europea. L’autore è il solo responsabile.
Futuro di EGI EGI è menzionato esplicitamente nel draft delle nuove calls EU ( H2020 ) Da ultima versione (per me) data 18-9 di –HORIZON 2020 – WORK PROGRAMME.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Calorimetro LAR ATLAS Italia Roma 28 novembre 2008
Alberto Masoni EU-IndiaGrid Project Manager INFN Sezione di Cagliari
From 8 to 80 boxes. From FBSNG to Condor CPU Satura !
Analisi dei dati dell’Esperimento ALICE
ONEDATA - distributed data caching -
le Attivita' Computing Analisi Muoni: Detector(s) e Trigger
P. Giannetti per il gruppo FTK
SWORD (School and WOrk-Related Dual learning)
Study of Bc in CMSSW: status report Silvia Taroni Sandra Malvezzi Daniele Pedrini INFN Milano-Bicocca.
Transcript della presentazione:

11 Novembre 2002Laura Perini - CSN1 Perugia1 Calcolo e Software di Atlas Overview Organizzazione ATLAS Softare/Computing e ruolo INFN Data Challenges GRID e Computing Model Software (da Dario Barberis)

11 Novembre 2002Laura Perini - CSN1 Perugia2 Computing organization simulationreconstructiondatabasecoordinator QA groupsimulation reconstruction databaseArch. team Event filter Technical Group National Comp. Board Comp. Steering Group Physics Comp. Oversight Board Detector system

11 Novembre 2002Laura Perini - CSN1 Perugia3 Key ATLAS Computing bodies –Computing Oversight Board (COB): ATLAS Spokesman and Deputy, Computing Co-ordinator, Physics Co-ordinator. Role: oversight, not executive. Meets ~monthly. –Computing Steering Group (CSG): Membership first row and first column of Detector/Task Matrix, plus Data Challenge Co-ordinator, Software Controller, Chief Architect, Chair NCB, GRID Coordinator. The top executive body for ATLAS computing. Meets ~monthly. –National Computing Board (NCB): Representatives of all regions and/or funding agencies, GRID-coordinator and Atlas Management ex- officio. Responsible for all issues which bear on national resources: notably provision of resources for World Wide Computing. Meets every two months. –‘Software weekly’: weekly forum open to all ATLAS for discussion of ongoing topics: releases, computing platforms,… –‘Software workshop’: one week computing meeting open to all ATLAS, to review and discuss all aspects of computing. Four a year. –Many specific groups (e.g. Arch. Team, DataBase, Simulation, Recon., etc.) meet regularly. (between weekly and monthly)

11 Novembre 2002Laura Perini - CSN1 Perugia4 ATLAS Detector/Task matrix ( CSG members) F.Touchard M. Bosman V. Vercesi Event Filter A.Amorim M.Wielers Trigger/DAQ S. Tapprogge LVL2 trigger S. GoldfarbA. RimoldiJ.Shank Muon T. LeCompte A. SolodkovF. MerrittA. Solodkov Tile calorimeter Hong MaM. LeltchoukS.RajagopalanJ. Collot Liquid Argon D.FroidevauxF.LuehringD.Rousseau/ D.Barberis D. Barberis Inner Detector D.MalonA.Dell’AcquaD. RousseauN. McCubbin Chair DatabaseSimulationReconstructionOffline Coordinator S. George

11 Novembre 2002Laura Perini - CSN1 Perugia5 Other ATLAS key post-holders –Chief Architect: D.Quarrie (LBNL) : CSG –Physics Co-ordinator: F.Gianotti (CERN) –Software Librarian: S. O’Neale –Planning Officer: T.Wenaus (BNL/CERN): CSG –Detector Description Co-ordinator: D.Quarrie –Chair NCB: A.Putzer (Heidelberg/CERN): CSG –GRID Co-ordinator: L.Perini (Milano): CSG –Data Challenge Co-ordinator: G.Poulard (CERN): CSG –Release Co-ordinator: (rotating) D.Rousseau –Software ‘Controller’: J-F Laporte (Saclay):CSG –Quality Assurance: S.Albrand (Grenoble), P.Sherwood (UCL) –LCG PEB: G.Poulard, SC2: N.McCubbin e D.Froidevaux GDB: N.McCubbin, G.Poulard (in WG2: Resources) L.Perini (Deputy) (in WG1: GRID Middleware Selection for LCG-1)

11 Novembre 2002Laura Perini - CSN1 Perugia6 Organizzazione ATLAS-INFN Dalla fine del 2001 abbiamo costituto un organismo SCASI (Steering Computing and Software Atlas INFN): –L.Perini (Chair,csg,ncb), P.Bagnaia, D.Barberis(csg), A.Farilla, L.Luminari(ncb), L.Merola, L.Nisati, A.Rimoldi, V.Vercesi(csg) Coordinamento e stimolo per l’impegno dei gruppi INFN nel s/w e Computing. Utile per identificare linee di intervento e per dare maggior peso a INFN.

11 Novembre 2002Laura Perini - CSN1 Perugia7 grid tools used at 11 sites

11 Novembre 2002Laura Perini - CSN1 Perugia8 Legenda Figura (fino al 5%) CERN 28.6% US14.2% Germania 10.9% Giappone10.7% Francia 9.6% Italia 5.0% –CPUs Roma1 46, CNAF 40, Milano 20, Napoli 16, LNF 10=122 –122/3200< 4% Abbiamo fatto più del nostro share di CPU ma INFN è il 10% di ATLAS –Dobbiamo recuperare un fattore >2 nella CPU!

11 Novembre 2002Laura Perini - CSN1 Perugia9 ATLAS DC1 Phase II : Nov. 02-Mar –Pile-Up Production (High and Low Luminosity) About the same CPU neeed as for phase 1 70 Tbyte files Additional countries/institutes will join –Large scale Grid test in November/December in preparation for reconstruction Reconstruction start March 2003 – using ATHENA. CPU needed 15 simulation production sites. Ideal for wider GRID use

11 Novembre 2002Laura Perini - CSN1 Perugia10 DC2-3-4-… DC2: Q3/2003 – Q2/2004 –Goals Full deployment of Event Data Model & Detector Description Geant4 replacing Geant3 (fully?) Pile-up in Athena Test the calibration and alignment procedures Use LCG common software Use widely GRID middleware Perform large scale physics analysis Further tests of the computing model –Scale As for DC1: ~ 10**7 fully simulated events (pileup too) DC3: Q3/2004 – Q2/2005 –Goals to be defined; Scale: 5 x DC2 DC4: Q3/2005 – Q2/2006 –Goals to be defined; Scale: 2 X DC3

11 Novembre 2002Laura Perini - CSN1 Perugia11 Risorse per 2003 Risorse INFN-ATLAS Tier1+Tier2 da 120 CPU’s a 300 per assicurare share 10% in DC2: –A regime ATLAS e la sua parte italiana intendono conferire tutte le loro risorse Tier1 e Tier2 a LCG, con la ovvia condizione che il buon funzionamento sia provato Per ora sono committed a LCG 50 CPU a Milano, in parte in corso di acquisto e in parte (30) conferite da Atlas, e lo share ATLAS delle 50 CPU del CNAF committed a LCG nel 2002 – Le richieste 2003 ATLAS includono 140 CPU al Tier1 Espansione CPU LCG a Milano (80 CPU disponibili per Q3-2003) –Inoltre ATLAS dispone di 46 CPU Roma1, 36 altre sedi (Napoli e LNF hanno partecipato a DC1-1 con 16 e 10 CPU rispettivamente, Pisa partecipa a DC1-2 con altre 10)

11 Novembre 2002Laura Perini - CSN1 Perugia12 Infrastruttura h/w ATLAS-INFN Modello di distribuzione con cui siamo partiti: –~ 60% risorse in Tier1, ~ 30% diviso equamente fra 2 Tier2, Roma1 e Milano –Motivato sopratutto da scarsità iniziale di risorse umane per il calcolo. Ma ora si sta creando maggiore disponibilità di persone, importante per gestire bene le maggiori risorse necessarie (vedi modello di CMS) –Discuteremo la candidatura di Napoli a terzo Tier2 –Roma1 e Milano restano della stessa dimensione e ruolo –Roma1 in LCG gia’ a fine 2003? –Proporremo un ruolo chiaro e attivo per i Tier3 pronti ad impegnarsi ora ( Genova, Lecce, Pavia, Pisa, e presto Roma2, Roma3) => richieste a CSN1 già in 2003

11 Novembre 2002Laura Perini - CSN1 Perugia13 ATLAS and GRID Atlas has already used GRID for producing DC1 simulations –Production distributed on 39 sites, GRID used for ~5% of the total amount of data by: NorduGrid (Bergen, Grendel, Ingvar, ISV, NBI, Oslo, Lund, LSCF), who produced all their data using GRID US Grid Testbed (Arlington, LBNL, Oklaoma), where GRID was used for ~10% of their DC1 share (10%=30k hours) Eu-Datagrid rerun 350 DC1 jobs (~ 10k hours) in some Tier1 prototype sites: CERN, CNAF, Lyon, RAL, Nikhef e Karlsrhue ( CrossGrid site): this last production was done in the first half of September and was made possible by the work of the Atlas- EDG task force

11 Novembre 2002Laura Perini - CSN1 Perugia14 ATLAS-EDG task force The Task Force, led by Oxana Smirnova, has members both from ATLAS and EDG: 40 members (!) on the mailing list, ca 10 of them working nearly full-time, Good results have been achieved: –A team of hard-working people across the Europe proved that it is possible to execute real tasks on the EDG Testbed already now –ATLAS software (release 3.2.1) is packed into relocatable RPMs, distributed and validated elsewhere –DC1 production script is “gridified”, working submission script is made –Jobs are run in the right site, correct results are stored Still work needed (in progress) for reaching sufficient stability and easiness of use –Working with 5 sites, full up time all services <30%, corresponding rate of successful jobs (when input data only at CERN 98% success!!!) –Atlas-EDG continuing till end 2002, interim report with recommendations being produced

11 Novembre 2002Laura Perini - CSN1 Perugia15 Plans for the near future In preparation for the reconstruction phase (spring 2003) we foresee further Grid tests in Nov/Dec. –Perform more extensive Grid tests. –Extend the EDG to more ATLAS sites, not only in Europe. –Test a basic implementation of a worldwide Grid. –Test the inter-operability between the different Grid flavors. Inter-operation = submit a job in region A, the job is run in region B if the input data are in B; the produced data are stored; the job log is made available to the submitter. The EU project DataTag has a Work Package devoted specifically to interoperation in collaboration with US IvDGL project: the results of the work of these projects is expected to be taken up by LCG (GLUE framework).

11 Novembre 2002Laura Perini - CSN1 Perugia16 Plans for the near future (continued) ATLAS is collaborating with DataTag-IvDGL for interoperability demonstrations in November. The DC1 data will be reconstructed (using ATHENA) early 2003: the scope and way of using Grids for distributed reconstruction will depend on the results of the tests to be done in Nov/December. –ATLAS is fully committed to LCG and to its Grid middleware selection process: our “early tester” role has been recognized to be very useful for EDG. –We are confident that it will be the same for LCG

11 Novembre 2002Laura Perini - CSN1 Perugia17 Long Term GRID Planning Worldwide Grid tests are essential to define in detail the ATLAS distributed Computing Model. The principles of the cost and resource sharing are described in a paper and were presented in the last ATLAS week (October) and endorsed by the ATLAS Collaboration Board. Il documento referenziato sopra è –PRINCIPLES OF COST SHARING FOR THE ATLAS OFFLINE COMPUTING RESOURCES –Prepared by: R. Jones, N. McCubbin, M. Nordberg, L. Perini, G. Poulard, and A. Putzer Nelle trasparenze seguenti (da A.Putzer CB talk) ne illustro gli aspetti piu’ importanti

11 Novembre 2002Laura Perini - CSN1 Perugia18 The ATLAS Offline Computing Facility (Tier1s+some Tier2s) The typical ATLAS user will copy small samples of the AOD and ESD to his/her local disk and use these data to test his/her programs. If access to more data is needed he/she will use the Grid middleware to access the Distributed Virtual Offline Computing Facility and make use of the necessary resources wherever it is most efficient. Unless very small samples of events are involved, it is envisaged that the programs will be sent to the data. A normal user will have limited access to the resources. AOD production will be done under central management, and so sudden large-scale batch processing on the ESD’s will not occur without warning and agreement. It is assumed that the synchronization of the data, the resource brokerage and the authorization handling is taken care of by the Grid middleware (possibilmente anche l’accounting fra diverse regioni)

11 Novembre 2002Laura Perini - CSN1 Perugia19 Resources Estimates (1) We have to consider two main areas of computing activities: – Large-scale ‘production’;e.g. reconstruction, MC sim. – Data analysis by small groups of users Contrary to the the CPU-time needed to simulate or reconstruct one event, the requirements for the user analyses can only be estimated very roughly. CPU (MSI95) Tape (PB)Disk (PB) Addition ManpowerFTE CERN (T0+T1) 0,46,70,5 Each RC0,2 0,45 `6`Ext. RC‘s 1,2 2,430 Total1,67,92,9

11 Novembre 2002Laura Perini - CSN1 Perugia20 Proposed Cost Sharing(1) The costs for the offline computing to be shared by the ATLAS institutes include: the ‘visible’ part of the regional facilities the networking costs (not in the budget so far) the consumables the manpower to run and maintain the centre (including Grid services) Only the CPU and data intensive part of the ATLAS offline computing, which needs to be performed at the large regional facilities, is foreseen to be covered by the resources and cost sharing.

11 Novembre 2002Laura Perini - CSN1 Perugia21 Proposed Cost Sharing(2) The ATLAS CERN-equivalent computing costs are roughly 15 MCHF/year [1], to be shared by the institutes, following the cost sharing principle laid out in the Maintenance & Operation MoU, in proportion to the number of their scientific staff holding PhD or equivalent qualifications (‘qualified authors’), as is the case for sharing so-called category A costs. The expected sharing between funding agencies will be presented by the ATLAS resource coordination in tables just like the other ATLAS costs.[1] [1] These costs do not include the hardware and manpower for the CERN T0/T1 that are a host- laboratory responsibility and budgeted in the CERN cost to completion Council papers. [1]

11 Novembre 2002Laura Perini - CSN1 Perugia22 Proposed Cost Sharing(3) Institutes can contribute in different ways to the overall costs of the ATLAS Virtual Distributed Offline Computing Facility including in-kind contributions in form of hardware, consumables and manpower in their own country at a regional facility in another country Such in-kind contributions have to be qualified by the ATLAS NCB and will be part of the ATLAS offline computing centre, i.e. rules for accessing and using these resources - by all members of the collaboration -will be defined by the ATLAS management. For the costing, it is proposed to use the equivalent cost at CERN. The NCB will annually review the contributions, and establish the credited value to the ATLAS computing costs.

11 Novembre 2002Laura Perini - CSN1 Perugia23 Stato e sviluppi del software di ATLAS Framework Data Base Event Data Model e Geometria Simulazione Trigger ed Event Filter Test beam e Calibrazioni Ricostruzione Data Challenges Piano di sviluppo ( ) Contributo italiano

11 Novembre 2002Laura Perini - CSN1 Perugia24 Cenni storici e principi generali Fino al 1999, il software di ATLAS era basato su Fortran, Geant3 e Zebra: –suite completa utilizzata per preparare i TDR dei rivelatori ( ) e il Physics TDR (1999) L’”Architecture Task Force” nel 1999 ha deciso che il “nuovo” software di ATLAS si sarebbe basato su: –C++ come linguaggio di programmazione –modularità degli algoritmi di simulazione e ricostruzione –separazione fra rappresentazione dei dati in memoria e su data base (intercambiabilità del data base) –separazione fra dati degli eventi e geometria dei rivelatori –separazione fra simulazione e ricostruzione Il 1º ciclo di sviluppo del “nuovo” software è quasi completo

11 Novembre 2002Laura Perini - CSN1 Perugia25 Framework Il framework sviluppato da ATLAS è “Athena” –basato su Gaudi (collaborazione con LHCb) Essenzialmente completo. Sviluppi recenti (e in corso) nelle seguenti aree: –Data Dictionary: ADL (ATLAS Description Language) per generare automaticamente i convertitori fra le versioni transienti e persistenti degli oggetti (LCG) –Infrastruttura per Pile-Up Lettura di eventi da vari files, “merge” degli hits –Interattività Possibilità di compilare/linkare/testare moduli applicativi

11 Novembre 2002Laura Perini - CSN1 Perugia26 Data Base Il data base utilizzato da ATLAS (a partire dalla fine del 2001) per gli eventi è il sistema ibrido ROOT+MySQL (LCG) –ROOT contiene i dati degli eventi –MySQL ha il catalogo –Transizione da Objectivity/DB in pochi mesi grazie alla separazione transiente/persistente alla base dell’architettura di Gaudi/Athena Classi persistenti generate automaticamente con ADL Sviluppi in corso: –Integrazione dei data base per geometria e eventi –“Conditions”: allineamenti, calibrazioni, altri dati che variano nel tempo (LCG)

11 Novembre 2002Laura Perini - CSN1 Perugia27 Event Data Model L’Event Data Model descrive l’organizzazione dei dati di ogni evento: –transienti (in memoria) –persistenti (nel data base) Il nuovo EDM di ATLAS è basato sulla separazione stretta fra dati dell’evento e geometria del rivelatore: –solo gli identificatori geometrici degli elementi del rivelatore sono usati per correlare i dati dell’evento con la geometria Sviluppo ancora in corso per (quasi) tutti i rivelatori –completamento previsto per inizio 2003

11 Novembre 2002Laura Perini - CSN1 Perugia28 Geometria Singola sorgente di dati geometrici: data base NOVA/MySQL –per il momento riempita solo da atlsim/Geant3 –letta da Geant4 e Athena Problema: i numeri non bastano per definire la geometria, ci vuole anche codice –GeoModel produce la geometria in memoria (in Athena) e la passa a Geant4 e ricostruzione così Geant4 e ricostruzione hanno la stessa geometria ma per Geant3 non c’è nulla di automatico! Infrastruttura tuttora in corso di sviluppo (LCG) Contributo italiano: geometria dei rivelatori di muoni

11 Novembre 2002Laura Perini - CSN1 Perugia29 Simulazione Simulazione completa con Geant4 (integrata in Athena) pronta entro la fine del 2002 Sviluppi in corso: –ottimizzazione della descrizione di ciascun rivelatore (memoria e tempo di esecuzione) –integrazione dei vari rivelatori –definizione degli hits –validazione della fisica di Geant4 Contributo italiano: –geometria dei rivelatori di muoni –infrastruttura –validazione della fisica di Geant4

11 Novembre 2002Laura Perini - CSN1 Perugia30 Trigger ed Event Filter Trigger di 1º livello: –trigger  (simulazione dettagliata, ottimizzazione e algoritmi) High Level Triggers (2º livello ed Event Filter): –architettura (Event Filter Dataflow) –algoritmi per trigger L2  –algoritmi per trigger  e E T –muoni di bassa energia (TileCal) –b-tagging on-line –utilizzo di (moduli di) programmi di ricostruzione off- line nell’Event Filter

11 Novembre 2002Laura Perini - CSN1 Perugia31 Test Beam e Calibrazioni I test beam dei vari rivelatori sono gli ambienti naturali dove esercitare il nuovo software: –decodifica del formato “raw data” (ByteStream) –sviluppo di algoritmi di allineamento e calibrazione –simulazioni di singoli moduli con Geant4 –validazione della fisica di Geant4 attraverso il confronto fra dati reali e simulazione Contributo italiano: –software per acquisizione, decodifica, monitoring, allineamento, calibrazione e analisi: MDT e RPC (test beam H8 e X5, test stand con cosmici) Pixel (test beam H8, irraggiamento al PS) LAr e TileCal: integrazione nel test beam combinato (“fetta” di ogni rivelatore di ATLAS)

11 Novembre 2002Laura Perini - CSN1 Perugia32 Ricostruzione Ricostruzione completa in Athena entro gennaio 2003 di eventi generati da atlsim/Geant3 con geometrie TDR ( ) e DC1 (2002): –Inner Detector: iPatRec e xKalman++ –Calorimetri: CaloRec e JetRec –Muoni: MuonBox (F90) e Moore –Ricostruzione combinata: egammaRec, eflowRec, tauRec, MissingET, MuonIdentification, Vertexing Importante contributo italiano: ricostruzione dei muoni (Moore)

11 Novembre 2002Laura Perini - CSN1 Perugia33 Piano di sviluppo (1) fine 2002 – inizio 2003: –completamento del primo ciclo di sviluppo del software OO/C++: Framework Simulazione veloce Event Data Model Geometria Ricostruzione –implementazione della simulazione completa in Geant-4 e integrazione Geant4/Athena

11 Novembre 2002Laura Perini - CSN1 Perugia34 Piano di sviluppo (2) 2003 – 2005: –Secondo ciclo di sviluppo del software OO: consolidamento/ottimizzazione di Event Data Model e Geometria (transiente e persistente) sviluppo di procedure di allineamento e calibrazione sviluppo e integrazione del “Conditions Data Base” simulazione: ottimizzazione di Geant4 (geometria e fisica) simulazione: ottimizzazione della risposta del rivelatore integrazione on-line/off-line: software per Trigger ed Event Filter ricostruzione: sviluppo di una strategia globale basata su componenti modulari intercambiabili

11 Novembre 2002Laura Perini - CSN1 Perugia35 Contributo Italiano (1) Il nostro contributo allo sviluppo del software di ATLAS è coerente con: –le nostre competenze –gli impegni dei gruppi italiani nello sviluppo e la costruzione dei rivelatori Contributi all’organizzazione: –3 membri del Computing Steering Group: D. Barberis (Inner Detector Software Coordinator) L. Perini (GRID Coordinator) V. Vercesi (Physics & Event Selection Architecture Coordinator) Contributi all’infrastruttura: A. De Salvo (distribuzione di s/w per data challenges) A. Farilla (organizzazione dei Computing Workshops) Produzione per DC1: CNAF, RM1, MI, NA, GE, LNF, LE

11 Novembre 2002Laura Perini - CSN1 Perugia36 Contributo Italiano (2) Simulazione: test di framework, descrizioni geometriche e data base per la simulazione con Geant4: A. Rimoldi (Muon Simulation Task Leader) simulazione dei muoni (geometrie ATLAS e Test Beam) in Geant4 (PV, RM2) validazione della fisica di Geant4 (PV, GE) Trigger ed Event Filter trigger  L1/L2 (RM1, NA) trigger Pixel/b-tagging L2 (GE) trigger  e E T (MI, PV) muoni di bassa energia (PI) architettura Event Filter (PV)

11 Novembre 2002Laura Perini - CSN1 Perugia37 Contributo Italiano (3) Software connesso ai rivelatori e ricostruzione: –Inner Detector: Analisi on-line (UD) e off-line (MI) del test beam dei Pixel Digitizzazione e Clustering dei Pixel (MI) Formato ByteStream e convertitori da/a EDM off-line (UD) Ricostruzione di vertici primari e secondari (GE) –Muoni: Software per test beam e per test stand con raggi cosmici: DAQ, monitoring, analisi (RM1, RM2, RM3, NA, LE, PV) Formato ByteStream e convertitori da/a EDM off-line (RM) CALIB: programma di auto-calibrazione delle MDT (RM1, RM3, CS) MOORE: Muon Object-Oriented REconstruction (RM3, NA, LE) – A. Farilla è Coordinatore di MOORE

11 Novembre 2002Laura Perini - CSN1 Perugia38 Conclusioni Il software di ATLAS è in rapida evoluzione: –il gradiente è positivo Il primo ciclo di sviluppo di software OO è quasi completo –il piano di sviluppo del secondo ciclo verrà definito nei dettagli nei prossimi mesi dal nuovo Computing Coordinator Il software pervade tutto l’esperimento: –è importante avere strategie comuni online e offline –necessita una maggiore integrazione di software e anche di persone –va anche migliorato il controllo della qualità Il contributo italiano al software di ATLAS è importante: –focalizzato nei settori di nostra competenza –riconosciuto dalla collaborazione con nomine a rilevanti responsabilità organizzative