ALICE PDC07 e stato del software AliRoot D. Di Bari – Dip. IA di Fisica di Bari & INFN.

Slides:



Advertisements
Presentazioni simili
23/01/01Alberto Masoni – GR1 - Roma1 I MODELLI DI CENTRI REGIONALI POSIZIONE DI ALICE ITALIA CENTRO ITALIANO: CPU 450 KSI95, DISCO 400 TB (INSIEME TIER-1.
Advertisements

Computing: Attività 2010 Reprocessing e ri-simulazione dati Run7 Extra-production di dati MC alla Y(4S) 10 x cross section bb e cc, 2 x cross section u.
Computing: Attività 2011 Limitate produzioni di MC e skim E il dataset finale (rel24/26) Grosso sforzo per il Long Term Data Access project: cluster di.
ALICE-Italia: IL CALCOLO
P. Capiluppi Organizzazione del Software & Computing CMS Italia I Workshop CMS Italia del Computing & Software Roma Novembre 2001.
Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
Proposta di integrazione e consolidamento delle risorse presenti nellinfrastruttura Grid dellItalia Meridionale (L. Merola, )
Silvia Arcelli 1 Metodi di Ricostruzione in fisica Subnucleare Corso di Metodologie Informatiche Per la Fisica Nucleare e Subnucleare A.A. 2009/2010 I.
Stato del Tier2 di Atlas a Napoli Il ruolo dei Tier2 in Atlas La Federazione Italiana dei Tier2 Il Tier2 di Napoli Napoli, 21 Dicembre 2006 – A.Doria.
Proposta di integrazione e consolidamento delle risorse presenti nellinfrastruttura Grid dellItalia Meridionale (L. Merola, )
Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
Monitoraggio online con la mappa del tracker M.S. Mennea, G. Zito Università & INFN di Bari Riunione Consorzio – Bari 9 Settembre 2005.
La facility nazionale Egrid: stato dell'arte Egrid-Team Trieste, 9 ottobre 2004.
FLN-AP, Ass. Sez. BO, 12/06/2003 Status della collaborazione DELPHI ovvero Leredità di unesperimento LEP.
L'analisi degli eventi acquisiti durante i test di iniezione del fascio e cosmici ad LHC ha mostrato un guadagno delle camere dellHMPID superiore a quello.
Tier1 - cpu KSI2k days ATLAS KSI2k days CMS. Tier1 - storage CASTOR disk space CMS requires: T1D0, T0D1 ATLAS requires: T1D0, T0D1 and T1D1.
25 ottobre 2002infn1 FIRB-Grid WP3,5 Grid deployment.
Il software delle DT Attività in corso Stato della simulazione e ricostruzione hit in ORCA Calibrazione Validazione con dati di Testbeam Testbeam Ottobre.
Conclusioni M. Paganoni workshop CMS Italia, Napoli 13-14/2/07.
EGEE is a project funded by the European Union under contract IST Using SRM: DPM and dCache G.Donvito,V.Spinoso INFN Bari
Prima di iniziare… Durata attività: due lezioni frontali + una lezione laboratorio + compiti per casa Prerequisiti: elementi base architettura dei calcolatori.
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
CSN1 – 7 febbraio 2006 Francesco Forti, INFN-Pisa per il gruppo di referaggio.
Test Storage Resource Manager per SC4 Giacinto Donvito Vincenzo Spinoso.
16 Maggio CSN1 Computing-Software-Analysis CMS-INFN TEAM Analisi in CMS: stato e prospettive del supporto italiano.
Sezione di Padova Contributo alla costruzione dei layers 6,7 Possibili task per PADOVA:  precedente proposta: R&D della procedura di assemblaggio degli.
News da LHC… *** Discussion title: CMS Commissioning Notes from 09:00 meeting Current fill (1182) has now been in stable beams for >12 hours. Delivered.
8-Giugno-2006L.Perini Workshop Otranto 1 The ATLAS Tier2 Federation INFN Aims, functions. structure Schedule Services and INFN Grid.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
Condor standard. Sistema Batch. Tool di installazione D. Bortolotti,P.Mazzanti,F.Semeria Workshop Calcolo Paestum 9-12 Giugno 2003.
LNF Farm E. V. 9/8/2006. Hardware CE, LCFG, HLR, 3 WN: DL 360 1U; SE: DL 380 2U 5 WN: BL 25 P In totale 25 jobs general purpuse (coda Atlas) + una coda.
Attivita' Grid in BaBar Workshop sulle Problematiche di Calcolo e Reti nell'INFN Maggio 2004.
1 LHCb Computing Angelo Carbone, INFN-CNAF CSN1, 21/9/06 Aggiornamento richieste Tier Richiesta Tier-2 al CNAF Stato e risultati DC06.
CMS a Trieste Roma, 05/04/2005 GDR. 2 Cronologia : Matura interesse per LHC in Sezione/Gruppo 1 a Trieste Giro d’orizzonte degli esperimenti.
Halina Bilokon ATLAS Software di fisica DC1 – DC2 DC1 aprile fine 2003 (versioni di software  3.x.x – 7.x.x)  Validation del Software  Aggiornamento.
La Farm di Alice a Torino Workshop sulle problematiche di calcolo e reti Isola d’Elba 6-9 maggio 2002 Mario Sitta (Università del Piemonte Orientale e.
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
INFN-ITSupgrade meeting CERN, 24 Aprile 2013 V. Manzari Agenda:  Stato del progetto con particolare riguardo alle attività di nostra pertinenza  Proposta.
CMS RPC ITALIA' , Settembre Ischia-ITALIA RPC DCS Giovanni Polese.
Storage (ieri, oggi e domani) Luca dell’Agnello INFN-CNAF.
Report R.Gomezel CCR dicembre 2006 Roma.
Consorzio COMETA - Progetto PI2S2 UNIONE EUROPEA SAGE – Un sistema per l’accounting dello storage in gLite Fabio Scibilia Consorzio.
Attività di calcolo ALICE/Bari Visita Referaggio TIER2-Bari 24 Gennaio 2006 D. Di Bari Dipartimento IA di fisica “M. Merlin” e sez. INFN - Bari.
Il progetto ARTISAN Angelo Frascella – ENEA (8 Luglio 2011)
D. Martello Dip. Fisica - Lecce Sintesi piani esperimenti CSN2 CNAF 7-marzo-2007.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
17-18 Dicembre 2014 Second Belle II italian collaboration meeting – Dicembre 2014 Networking e calcolo di Belle II a Napoli - Recas Silvio Pardi.
Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 1 ATLAS Attività di TeV Attività di computing Attività di computing.
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
Attilio Andreazza 1 Milano 27/07/2009 Attività sul tracking Software pixel Attilio: responsabilità generale del software offline pixel –simulazione, ricostruzione,
Overview del middleware gLite Guido Cuscela INFN-Bari II Corso di formazione INFN su aspetti pratici dell'integrazione.
Domenico Elia1 Calcolo ALICE: stato e richieste 2014 Domenico Elia Riunione CSN III / Torino, Commissione Scientifica III Torino, 17 Settembre.
Atlas TDAQ E. Pasqualucci INFN Roma. Sommario Attivita’ di fine 2008 – inizio 2009 Preparazione per i run con fasci Trigger con luminosita’ iniziali 16/9/20092E.
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
ALICE Computing Readiness Workshop Tier-2 CNAF Jan 17-18, ALICE Computing Readiness 1) ALICE Italia: Persone & organizzazione 2) Test & commisioning.
Domenico Elia1 Calcolo ALICE: stato e richieste finanziarie Domenico Elia Riunione Referee Calcolo LHC / Padova, Riunione con Referee Calcolo.
ALICE Computing Readiness Workshop Tier-2 CNAF Jan 17-18, ALICE Computing Readiness 1) ALICE Italia: Persone & organizzazione 2) Test & commisioning.
FESR Trinacria Grid Virtual Laboratory Workload Management System (WMS) Muoio Annamaria INFN - Catania Primo Workshop TriGrid VL Catania,
Calcolo ALICE1 Calcolo ALICE: stato e richieste Domenico Elia e Massimo Masera Referee Calcolo LHC / Pisa, Riunione con Referee Calcolo LHC Pisa,
L.Perini Milano: 10 Gennaio Ex-ATLAS-Grid (Tier2 incluso) l Ruolo dei Tiers in ATLAS e grid l Le persone di Milano e le attività l Le infrastrutture.
Sessione "EGI Production Infrastructure" martedì 14 Settembre ore 14 From EGEE to EGI: status of the EGI infrastructure, results and roadmap: – ROC_CE.
Offline Report Finale Grid! I Corso di formazione INFN su aspetti pratici dell'integrazione di applicazioni in GRID Domenico D’Urso Roberto.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
1 ALICE IL CALCOLO DI ALICE IN ITALIA Bologna, 6 marzo 2007 M. Masera
Domenico Elia1 Calcolo ALICE: stato e richieste finanziarie (aggiornamenti) Domenico Elia Riunione Referee Calcolo LHC / Bologna, Riunione con.
Calorimetro LAR ATLAS Italia Roma 28 novembre 2008
Dichiarazione dei servizi di sito nel GOCDB
From 8 to 80 boxes. From FBSNG to Condor CPU Satura !
Atlas Milano Giugno 2008.
Transcript della presentazione:

ALICE PDC07 e stato del software AliRoot D. Di Bari – Dip. IA di Fisica di Bari & INFN

D. Di BariRiunione CNAF-Bologna agosto ALICE Grid Fino ad oggi 65 entry points (62 siti), 4 continenti –Africa (1), Asia (4), Europa (53), Nord America (4) –21 stati, 1 consorzio (NDGF) –6 Tier Tier-2 –globalmente ~5000 CPUs (pledged), 1.5PB disk, 1.5PB Tape –Intervallo di CPU offerte: CPUs –PIII, PIV, Itanium, Xeon, AMD –distribuzioni Linux (SL3/4, Mandriva, Suse to Ubuntu, no Gentoo)

D. Di BariRiunione CNAF-Bologna agosto ALICE Grid (2) 62 siti attivi

D. Di BariRiunione CNAF-Bologna agosto ALICE Offline Compiti di ALICE offline: –“ospitare” i servizi centrali di produzione: Grid catalogue, task queue, job handling, authentication, API services, user registration –organizza (sotto la guida dei requirements dei PWGs) e esegue i job di produzione – updata e valida i servizi nei siti (insieme con i “regional experts”) –Fornisce supporto all’analisi svolta dagli utenti –I Siti: –Ospitano le VO-boxes (interfaccia ai servizi del sito) –fanno funzionare i servizi locali (gLite) –Mettono a disposizione CPU e storage Questo modello ha funzionato con modifiche minori per parecchi anni e tuttora funziona soddisfacentemente

D. Di BariRiunione CNAF-Bologna agosto Physics Data Challenge in ALICE “Esercizio” del modello di produzione di ALICE –Produzione / storage/ replica dei dati –Validazione di AliRoot –Validazione del software di Griglia e funzionamento –User analysis (non ancora parte integrante del PDC) Da aprile 2006 il PDC è “running” in modo continuo

D. Di BariRiunione CNAF-Bologna agosto Storia dei job di produzione del PDC Average of 1500 CPUs running continuously since April 2006

D. Di BariRiunione CNAF-Bologna agosto PDC - zoom sugli ultimi 2 mesi 2990 jobs in average, saturating all available resources

D. Di BariRiunione CNAF-Bologna agosto Performance dei siti di produzione -Fino a ~ 10% dei siti non in produzione costantemente di cui: -metà schedulano upgrades -metà hanno problemi di failure di Grid o dei servizi locali - I T1 sono in generale più stabili dei T2 - Alcuni T2 are molto meglio di un qualunque T1 - Il raggiungimento di una migliore stabilità dei servizi nei siti è di alta priorità La disponibilità dei servizi centrali è > 95%

D. Di BariRiunione CNAF-Bologna agosto Stato della produzione Totale 85,837,100 26/ :00

D. Di BariRiunione CNAF-Bologna agosto Contributo dei siti Standard distribution: 50/50 T1/T2 contribution

D. Di BariRiunione CNAF-Bologna agosto Contributo dei siti italiani Distribuzione standard: 50/50 T1/T2 20% of the total resources

D. Di BariRiunione CNAF-Bologna agosto AliRoot AliRoot ha 8 anni di vita –Framework unico per simulazione e ricostruzione basato su ROOT –Utlizzato per i Technical Design Report dei rivelatori e per il PPR –Integrato con il DAQ, il DCS e l’ HLT –Piattaforme: Linux (SLC3 & SLC4 A32/64, Opteron), Solaris e MacOS Simulazione –FLUKA: interfaccia validata, ma non ancor in produzione –G4: validazione dell’interfaccia avviata –Geometria, servizi e strutture come da costruzione Ricostruzione –Efficienza e PID ai livelli previsti dal TDR o meglio per PbPb (dn/dy ch ≤8000) e pp –I parametri di ricostruzione sono presi in gran parte dal “Conditions Data Base” –Procedure di “Quality Assurance” messe a punto per diversi rivelatori --> in completamento –In preparazione: mappa misurata del campo magnetico Evoluzione del codice: ancora piuttosto rapida –Ottimizzazione per performance e occupazione di memoria –Clean-up del codice: coding conventions e effective C++

D. Di BariRiunione CNAF-Bologna agosto GDC DAQ FXS HLT FXS DCS FXS DAQ Monitoring AliEn FC CAF CASTO R T2 T1 T0 Reco HLT Simulate d RAW Shuttl e LDC ECS DCS Train analysis DA DA DA DA DA 2 pass calibratio n 2 pass alignment ESD friends ? Train analysis MC productio n Analysis Prompt analysis CPU quotas Disk quotas MonitoringQuotas MonitoringQuotas MonitoringQuotas xrootd xrootd xrootd fts CEs CEs xrootdQA ESD / Reco QA QA QA QA QA MC QA Full Dress rehersal

D. Di BariRiunione CNAF-Bologna agosto Ricostruzione Ottima efficienza di tracciamento nel barrel già a basso p T. Bassa frazione di fake Risoluzione in p T : qualche % fino a 100 GeV/c p T (GeV/c)

D. Di BariRiunione CNAF-Bologna agosto Ricostruzione (2)p-p Ricostruzione del vertice: Ottima già in p-p, con efficienza di ricostruzione del primario ~1 quando le condizioni di trigger sono soddisfatte. Vertici secondari per heavy flavour e V 0 PID combinato bayesiano nel barrel con ITS, TPC, TOF, TRD, HMPID

D. Di BariRiunione CNAF-Bologna agosto AliRoot (2) Analisi –Tool sviluppati nell’ambito dei Physics Working Groups –Framework comune basato su TSelector (per utilizzare Proof) –(Ri)definizione degli AOD in corso Calibrazione e allineamento –Framework per l’offline: pronto –Framework per l’online: in sviluppo/test –Algoritmi per l’allineamento e la calibrazione online: in corso di sviluppo Dati –Valutazione finale in corso per la dimensione dei dati (con gradi di incertezza diversi): RAW ESD AOD –Validazione dei meccanismi di codifica/decodifica dei dati raw Documentazione –Esiste una documentazione per AliRoot nel suo complesso –La documentazione dettagliata del software a livello di singolo detector è ancora carente –La documentazione dei tool di grid: da consolidare –Vengono organizzati dei tutorial a cadenza mensile

D. Di BariRiunione CNAF-Bologna agosto On-Off framework Shuttle Framework –Core: fatto –DAQ File Exchange Server & Logbook: validato –HLT File Exchange Server: implementato –DCS File Exchange Server: in sviluppo Pre-processamento (i.e. valutazione dei parametri) –Preprocessori per gran parte dei rivelatori  implementati e validati o pronti per la validazione –Framework di Data Acquisition per DCS e HLT: manca Interfaccia xrootd-CASTOR2: in corso di test

D. Di BariRiunione CNAF-Bologna agosto Visualizzazione Framework sviluppato in collaborazione con il team di ROOT La versione attuale risponde a molti requisiti richiesti Tool in rapido sviluppo attraverso l’interazione con gli utenti

D. Di BariRiunione CNAF-Bologna agosto AliRoot: in sintesi… Negli ultimi mesi c’è una forte pressione per arrivare ad avere: –Simulazione e ricostruzione realistiche  uso del OCDB –Calibrazione del OCDB: Codifica dei Detector Algorithms Codifica dei tool di preprocessing –Allineamento: Framework per “spostare” i volumi allineabili rispetto a posizione di baseline Tool di allineamento Core offline team: validazione del lavoro fatto dai gruppi legati ai detector Forte coinvolgimento dei gruppi italiani

D. Di BariRiunione CNAF-Bologna agosto Partecipazione gruppi italiani Coordinamento PWG –PWG2: Luciano Ramello –PWG3: Federico Antinori Responsabili offline project per detector –ITS: Massimo Masera –TOF: Silvia Arcelli –HMPID: Domenico Di Bari Core offline team –2 fellow Cern pagati dall’INFN SHUTTLE Allineamento Computing board: 8/32 italiani Non solo responsabilità: decisiva partecipazione di ricercatori italiani agli item di fisica!

D. Di BariRiunione CNAF-Bologna agosto PDC07 – slides di riserva

D. Di BariRiunione CNAF-Bologna agosto Efficiencies/debugging Workload management for production –Under control and is near production quality –We keep saying that, but this time we really mean it –Improvements (speed, stability) are expected with the new gLite version 3.1, still untested Support and debugging –The overall situation is much less fragile now –Substantial improvements in AliEn and monitoring are making the work of the experts supporting the operations easier –gLite services at the sites are well understood and supported User support is still very much in its infancy –The issues with user analysis are often unique and sometimes lead to development of new functionality –But at least the response time (if not the solution) is quick

D. Di BariRiunione CNAF-Bologna agosto General The Grid is getting better –Running conditions are improving –The Grid middleware in general and AliEn in particular are quite stable After a long and hard work by the developers –Even user analysis, much derided in the past few months is finally not a painful exercise The operation is more streamlined now –Better understanding of running conditions and problems by the experts We continue with the usual PDC’07 programme –Simulation/reconstruction of MC event –Validation of new middleware components –User analysis –And in addition the Full Dress Rehearsal (FDR)

D. Di BariRiunione CNAF-Bologna agosto AliRoot – slides di riserva

D. Di BariRiunione CNAF-Bologna agosto GDC DAQ FXS HLT FXS DCS FXS DAQ Monitoring AliEn FC CAF CASTO R T2 T1 T0 Reco HLT Simulate d RAW Shuttl e LDC ECS DCS Train analysis DA DA DA DA DA 2 pass calibratio n 2 pass alignment ESD friends ? Train analysis MC productio n Analysis Prompt analysis CPU quotas Disk quotas MonitoringQuotas MonitoringQuotas MonitoringQuotas xrootd xrootd xrootd fts CEs CEs xrootdQA ESD / Reco QA QA QA QA QA MC QA Full Dress rehersal

D. Di BariRiunione CNAF-Bologna agosto FDR status (by FC) The FDR is delayed, following the LHC start- up delay –Many dependent Grid software development tasks are delayed accordingly –Site resources and upgrades are coming later –Some essential parts of the system are not ready yet –We need a more or less stable conditions to execute the FDR The delay is giving us more time to prepare and execute the exercise well Detector code: DAs in all frameworks and AliRoot will play essential role

D. Di BariRiunione CNAF-Bologna agosto FDR status (2) Main input to the exercise is the test data from the detector commissioning phase –Starting in September First step – DAQ registration in the Grid File Catgalogue is ready –Small quantities of test data are already registered and Grid reconstruction/analysis is about to being Essential part of the FDR is the gathering of conditions data through the Shuttle system –This depends critically on the readiness of the condition data providers –And is the main focus of the current preparation

D. Di BariRiunione CNAF-Bologna agosto Strategia di uso delle risorse I job sono assegnati laddove ci sono i dati –Uso limitato del VOMS (Virtual Organization Management System) Vengono inviati alla grid Job Agents e non job “veri” –Questo annulla l’impatto di inefficienze del middleware Le risorse sono condivise –Non sono previste assegnazioni di risorse specifiche a gruppi –Accounting di uso delle risorse da parte dei gruppi –Gestione delle priorità: central Task Queue Accesso ai dati solo attraverso GRID

D. Di BariRiunione CNAF-Bologna agosto Calcolo distribuito AliEn –Ambiente di produzione che consente l’accesso alla GRID –Attualmente la stabilità dei servizi centrali è >90% –Sistema in continuo sviluppo: 8 release fino ad ora –Vengono organizzati tutorial periodici. Al momento 200 utenti registrati –Interfacce con GRID diverse da LCG: Operativa a Bergen quella con NorduGrid (da espandere ad altri siti) Da implementare quella con OSG Servizi specifici di ALICE –Installati centralmente al CERN e localmente sulle VO-box Monitoring centralizzato con MonaLisa Movimentazione di dati con FTS (File Transfer Service) –Test di trasferimento di dati raw T0 -> T1 in permanenza da settembre 2006 –Obiettivo: 300 MB/s sostenuti in uscita dal CERN. Ci sono ancora problemi di stabilità

D. Di BariRiunione CNAF-Bologna agosto Data Management Gli strumenti di Data Management non sono ancora sotto controllo –ALICE richiede che i sistemi di gestione dei dati su disco o nastro supportino xrootd –Ci sono test in corso di dCACHE, DPM e CASTOR2 (tutti SE di LCG) con supporto di xrootd: CASTOR2 al CERN (in produzione da un mese circa) dCache: prototipo al GSI DPM: prototipo a Torino –Non sono stati installati in servizio operativo (= a parte i test) Storage Elements al di fuori del Cern –L’accesso ai dati per l’analisi non è stato testato in una situazione realistica