ATLAS: il calcolo Alessandro De Salvo 25-5-2015 A. De Salvo – 25 maggio 2015.

Slides:



Advertisements
Presentazioni simili
E835 & Hera-B Concezio Pisa, 21/12/2004. E835 (aka Jet-FNAL) timeline dell'esperimento –Presa dati conclusa nel Alcune analisi tuttora in corso.
Advertisements

23/01/01Alberto Masoni – GR1 - Roma1 I MODELLI DI CENTRI REGIONALI POSIZIONE DI ALICE ITALIA CENTRO ITALIANO: CPU 450 KSI95, DISCO 400 TB (INSIEME TIER-1.
Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
La facility nazionale Egrid: stato dell'arte Egrid-Team Trieste, 9 ottobre 2004.
Tier1 - cpu KSI2k days ATLAS KSI2k days CMS. Tier1 - storage CASTOR disk space CMS requires: T1D0, T0D1 ATLAS requires: T1D0, T0D1 and T1D1.
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
Analysis unibo una proposta. Work flow di una tipica analisi 1.Simulazione di piccoli campioni di eventi per studio segnale 2.Generazione in grande.
Test Storage Resource Manager per SC4 Giacinto Donvito Vincenzo Spinoso.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
Condor standard. Sistema Batch. Tool di installazione D. Bortolotti,P.Mazzanti,F.Semeria Workshop Calcolo Paestum 9-12 Giugno 2003.
CSN Maggio 2005 P. Capiluppi Il Computing Model (LHC) nella realta’ italiana u I Computing models degli esperimenti LHC gia’ presentati a Gennaio.
Attivita' Grid in BaBar Workshop sulle Problematiche di Calcolo e Reti nell'INFN Maggio 2004.
1 LHCb Computing Angelo Carbone, INFN-CNAF CSN1, 21/9/06 Aggiornamento richieste Tier Richiesta Tier-2 al CNAF Stato e risultati DC06.
Perugia - 12 novembre 2002 M. Morandin - INFN Padova Budget calcolo Babar 2003 e contributo INFN.
ATLAS: il calcolo Alessandro De Salvo A. De Salvo – 5 settembre 2013.
ATLAS: il calcolo Alessandro De Salvo A. De Salvo – 3 maggio 2013.
ATLAS PRIN Alessandro De Salvo A. De Salvo – 12 novembre 2015 Cloud Computing Condivisione di risorse tra gruppi EventIndex LHCONE PoD T2D.
BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015.
26 Giugno 2007CSN1 - Frascati1 Temi di attualità nella CCR Accanto alla tradizionale attività di controllo dei finanziamenti per le infrastrutture di calcolo.
Calcolo a LHC CB 23 maggio 2011 Quadro generale Gare CPU e disco.
Riunione PRIN STOA - Bologna - 18 Giugno 2014 Testbed del T2 distribuito Napoli-Roma Dr. Silvio Pardi INFN-Napoli Riunione PRIN STOA – Bologna 18 Giugno.
D. Martello Dip. Fisica - Lecce Sintesi piani esperimenti CSN2 CNAF 7-marzo-2007.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Lecce 30 Settembre 2015.
Atlas Italia - Milano, 17/11/2009 G. Carlino – News dal Computing 1 1 News dal computing Gianpaolo Carlino INFN Napoli Atlas Italia, Milano, 17/11/09 Nuovo.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
17-18 Dicembre 2014 Second Belle II italian collaboration meeting – Dicembre 2014 Networking e calcolo di Belle II a Napoli - Recas Silvio Pardi.
Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 1 ATLAS Attività di TeV Attività di computing Attività di computing.
Il primo anno di presa dati di LHC L’esperienza di calcolo nell’esperimento ATLAS Attività condotte nel 2010 e prospettive future Lorenzo Rinaldi (INFN-CNAF)
Aggiornamento su ReCaS e Tier-2 Atlas Leonardo Merola Riunione Gr. 1 Napoli – 7 gennaio Riunione Gr. 1 Napoli – 7 gennaio 2015 – L. Merola.
Roma, 13 Luglio 2010 G. Carlino – Referaggio Tier2 ATLAS 1 ATLAS Referaggio Tier2 Attività di TeV Attività di TeV Richieste 2011.
Referaggio sigla CALCOLO D. Bonacorsi, G. Carlino, P. Morettini CCR – Roma 9 Settembre 2014.
Overview del middleware gLite Guido Cuscela INFN-Bari II Corso di formazione INFN su aspetti pratici dell'integrazione.
19 Ottobre 2012ATLAS Milano1 Stato delle risorse locali di calcolo L. Carminati, L. Perini, D. Rebatto, L. Vaccarossa.
Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 1 Referaggio Tier2 ATLAS Attività di Computing 2009 Attività di Computing 2009 Stato dei.
1 Firenze, 6 Settembre 2011 G. Carlino – Relazione Referaggi Computing ATLAS Relezione Riunioni Referaggio Calcolo ATLAS Computing Model News Computing.
Uso della rete geografica e richieste di upgrade CCR 31/3/2015 (Roma) S.Zani.
ATLAS: il calcolo Alessandro De Salvo A. De Salvo – 5 settembre 2013.
1 ALICE I ITER2 DI ALICE IN ITALIA Bologna, 6 marzo 2007 M. Masera
19/4/2013 D. Menasce, M. Serra - Referaggio Progetti INFRA e WLCG 1.
CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 1 ATLAS Referaggio Tier2 Attività di TeV Attività di TeV Richieste.
Referaggio Calcolo ATLAS II Gianpaolo Carlino INFN Napoli Catania, 12 Settembre 2012 Risorse e Richieste 2013 nei preventivi Aggiornamento in seguito all’allungamento.
G. Maggi 24/1/2006 Il Progetto del TIER2 di Bari Giorgio Maggi.
Calcolo a LHC Concezio Bozzi, INFN Ferrara per il gruppo di referaggio: F. Bossi, CB, R. Ferrari, D. Lucchesi, D. Martello, [M. Morandin], S. Pirrone,
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Catania 1 Ottobre 2014.
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
Domenico Elia1CdG Tier1-Tier2 / CNAF ALICE Tier2 sites Domenico Elia CdG Tier1-Tier2 Bologna, 15 Aprile 2015  Infrastruttura e risorse, coordinamento.
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
The INFN Tier-1: progetto di ampliamento Cristina Vistoli – INFN CNAF Referee Meeting Sep
10 Ottobre CSN1 P. Capiluppi Tier2 CMS Italia 3Bari  In comune con Alice 3Legnaro  In comune con Alice 3Pisa 3Roma1  In comune con Atlas Sedi.
Silvia Arezzini 2 luglio 2014 Consiglio di Sezione per Preventivi.
ATLAS Italia – Sestri Levante, 15 Giugno 2010 G. Carlino – Richieste Run Efficiency = time for physics / total time LHC Efficiency = time with colliding.
1 Bari, 21 Settembre 2011 G. Carlino – ATLAS: il calcolo ATLAS: il Calcolo Attività di Computing nel 2011 Attività di Computing nel 2011 Richieste Tier2.
Il calcolo per l’esperimento GERDA Luciano Pandola INFN, Laboratori del Gran Sasso Riunione della CSN2, LNF Frascati, 29 Novembre 2011.
Domenico Elia1 Calcolo ALICE: stato e richieste finanziarie Domenico Elia Riunione Referee Calcolo LHC / Padova, Riunione con Referee Calcolo.
1 Le macchine di questo pool fanno parte di una lan privata (la 125 illustrata a pag.2), di cui t2cmcondor è il gateway. Sono presenti 3 macchine su rete.
Calcolo ALICE1 Calcolo ALICE: stato e richieste Domenico Elia e Massimo Masera Referee Calcolo LHC / Pisa, Riunione con Referee Calcolo LHC Pisa,
L’infrastruttura del progetto ReCaS Paolo Lo Re on behalf of ReCaS collaboration.
Referaggio Calcolo ATLAS Gianpaolo Carlino INFN Napoli CNAF, 11 Maggio 2012 Attività di Computing ATLAS Attività di Computing in Italia Risorse e Richieste.
L.Perini Milano: 10 Gennaio Ex-ATLAS-Grid (Tier2 incluso) l Ruolo dei Tiers in ATLAS e grid l Le persone di Milano e le attività l Le infrastrutture.
Offline Report Finale Grid! I Corso di formazione INFN su aspetti pratici dell'integrazione di applicazioni in GRID Domenico D’Urso Roberto.
Aggiornamento AFS R.Gomezel Commissione Calcolo e Reti Presidenza 5/10/2010-7/10/2010.
ATLAS: il calcolo A. De Salvo A. De Salvo – 1 settembre 2015.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
ATLAS Computing Model Alessandro De Salvo
ATLAS: il calcolo Alessandro De Salvo
ATLAS: il calcolo Alessandro De Salvo
Transcript della presentazione:

ATLAS: il calcolo Alessandro De Salvo A. De Salvo – 25 maggio 2015

ATLAS: Utilizzo risorse Tier 1 in Italia 2 May 2014May 2015 INFN T1 (8.05%) NTUP Expired AOD INFN T1 Napoli T1 Roma Milano Frascati May 2014May PB 70e3 Job Efficiency WCT HITS

ATLAS: Utilizzo risorse Tier 2 in Italia 4 siti T2 (D/S)  Frascati  Milano  Napoli  Roma 1 3 May 2014 May e3 Roma Milano Napoli Frascati Job Efficiency Roma Milano Napoli Frascati May 2014May PB NTUP AOD Expired

ATLAS: Utilizzo risorse Tier 2 in Italia [2] FrascatiMilano NapoliRoma 05/201405/201505/201405/ /201405/201505/201405/2015  Plot di accounting (Faust): la linea verde è il pledge per sito  Buone performance dei siti  Qualche problema a livello ATLAS centrale per riempire i siti fino ad aprile 2015  Multicore job correttamente accountati solo da gennaio 2015 (problema nei sensori di APEL) 4

Network 5 DDM IngoingDDM Outgoing FRASCATI NAPOLI MILANO ROMA Traffico di Rete

Availability = time_site_is_available/total_time Reliability = time_site_is_available/ (total_time-time_site_is_sched_down) Availability / Reliability

Novità 2014/2015 nei siti  Tutti i siti T1 e T2  Tutti i siti sono abilitati per il processing multicore  Buona parte della produzione è ormai multicore, l’analisi ancora no  Gestione dinamica abilitata per ora solo al CNAF (ma seguiranno MI e RM)  Situazione nell’ultimo anno  Tutti i siti molto stabili e con ottime reliability/availability  Problema ad un rack a Roma (2 ventole su 3 rotte) che ha portato ad una riduzione di potenza temporanea della CPU, pur non impattando da un punto di vista ATLAS  Migrazione ad APEL senza grossi problemi, pur avendo dovuto adattare le procedure alle situazioni dei singoli siti  Milano: Condor  RM e NA: multi-sito con singolo publisher  “Prove di matrimonio” tra ATLAS e CMS a RM  Testata con successo una configurazione comune di WN  A breve verranno create le code di overflow, una per ogni esperimento, che permetteranno un overlap incrementale, ove sia possibile 7

Partecipazione italiana alle attività di ATLAS  ATLAS Italia partecipa alle attività di ADC in diversi aspetti  Database (Coordinamento, Frontier, Conditions)  Installazione del software (CVMFS e distribuzione)  Monitoring  Network infrastructure (LHCONE)  Storage  Federazioni di xrootd e HTTPD  DPM  VO management  Altre attività (PRIN)  Cloud Computing  Hadoop (EventIndex)  Network Infrastructure (LHCONE)  Proof on Demand  La partecipazione alle rimanenti attività è largamente limitata dalla disponibilità di persone  Attività sulle GPU, inserite in un FIRB  Interesse della comunità per GPU e multiprocessing/ottimizzazione del codice, ma NON c’è manpower 8

Risorse Attività ATLAS 2016 Lo Scrutiny Group ha approvato ad aprile 2015 le seguenti risorse per ATLAS 9

Risorse Disponibili CPU CPUFrascatiMilanoNapoliRomaTotalePledge HS To be pledge d Le CPU totali a disposizione dei Tier2 comprendono anche risorse non pledged: le CPU obsolete (fino al 2015 e già rifinanziate) ancora in produzione ma in corso di spegnimento CPU per uso locale (cluster proof) o in griglia ma dedicate principalmente alle attività italiane (Tier3) finanziate con fondi vari –Proof on Demand, share per analisi e simulazione MC per il ruolo atlas/it CPU non a completa disposizione dei siti –(es. scope + Recas a NA, ex SuperB, Belle2, a LNF) Nel conto delle CPU pledged NON sono comprese le CPU gara dei rimpiazzi 2015, tranne che per Frascati, ancora da espletare CPU disponibili fine

Risorse Disponibili 2015 – Disco DiscoFrascatiMilanoNapoliRomaTotalePledge Totale disponibile to be pledged Lo storage totale disponibile nei Tier2 comprende anche l’area locale in cui sono conservati i dati di tutti gli utenti italiani (LOCALGROUP), non solo gli utenti locali La dimensione di queste aree è di circa 180 TB per Tier2 In gran parte già occupata, gli utenti dovranno cancellare i dati vecchi non più necessari per fare spazio ai dati del 2015 l’utilizzo di queste aree è irrinunciabile per cui il loro volume va sottratto allo storage da dichiarare pledged Storage disponibile fine

Risorse Obsolete nel 2016 Le CPU obsolete sono le macchine comprate nel 2012 e installate fine 2012 inizi 2013 (non sono comprese le macchine installate successivamente). Le CPU hanno garanzia triennale, tranne quelle acquistate a partire dal 2014 Lo storage obsoleto comprende le SAN comprate nel 2010 e installate >= giugno Garanzia quinquennale La sostituzione del materiale obsoleto, specie per i dischi, è fondamentale per il buon funzionamento dei centri e quindi dell’intero sistema di computing italiano di ATLAS CPU (HS06) Disco (TBn) Frascati Milano Napoli Roma Tot Risorse obsolete

Richiesta Risorse I Le risorse necessarie per il 2016 sono determinate dalla volontà di conservare il ruolo significativo nel computing di ATLAS acquisito negli ultimi anni conservando gli share di risorse pledged per le attività centrali: Tier1: 9% Tier2: 9% CPU e 7% Disco e di garantire la competitività agli utenti italiani mediante l’uso di risorse dedicate nei Tier2 e Tier3 ATLAS Share IT ATLAS IT 2016 ATLAS IT disponibile Totale 2016 CPU T1 (kHS06) 520 9% * 6.3 Disco T1 (PB) 479% * 0.9 Tape T1 (PB) 1169% * 4.6 CPU T2 (kHS06) 5669% Disco T2 (PB) 727% * Pledge

Richiesta Risorse II Le risorse per le attività italiane sono già disponibili e non inclusi nel disponibile “pledged” 2016 e non sono necessarie ulteriori richieste New 2016 Obs 2016 Richieste 2016 K€ CPU T2 (kHS06) Disco T2 (TB) Totale Prezzi stimati: CPU = 12 k€/kHS Disco = 220 k€/PB Totale 14

Richiesta Risorse III Overhead per rete e server aggiuntivi Algoritmo Bozzi (cfr. presentazione CSN1 Bari Settembre 2011): Rete: 6% (cpu) + 5% (disco) = 33.2 k€ Server: 7% (cpu + disco) = 43.9 k€ A cosa servono: Rete: switch di rack Server: servizi di grid A cosa corrispondo questi finanziamenti: Rete: 1÷2 switch con modulo 10 Gbps Per collegare le nuove risorse e/o sostituire i primi switch ormai fuori manutenzione Server: 1÷3 server per sezione 15

Richiesta Risorse 2016 – Riepilogo (A) 16 Prezzi stimati: CPU = 12 k€/kHS Disco = 220 k€/PB CPU Pledged 2015 [kHS06] Disco Pledged 2015 [TBn] CPU Obs 2016 [kHS06] Disco Obs 2016 [TBn] CPU New 2016 [kHS06] Disco New 2016 [TBn] CPU Tot 2016 [kHS06] Disco Tot 2016[TBn] OH Rete [K€] OH Server [K€]Tot[K€] Frascati Milano Napoli Roma Tot Richieste totali e per sito: totale delle richieste

Richiesta Risorse 2016 – Riepilogo (B) CPU Pledged 2015 [kHS06] Disco Pledged 2015 [TBn] CPU Obs 2016 [kHS06] Disco Obs 2016 [TBn] CPU New 2016 [kHS06] Disco New 2016 [TBn] CPU Tot 2016 [kHS06] Disco Tot 2016[TBn] OH Rete [K€] OH Server [K€]Tot[K€] Frascati Milano Napoli Roma Tot Prezzi stimati: CPU = 12 k€/kHS Disco = 220 k€/PB  Richieste totali e per sito: risorse strettamente necessarie  Tagli possibili, in ordine di rilevanza: 1.Riduzione dell’overhead fino al 50% 2.Rimpiazzo delle solo CPU obsolete già nel Riduzione dello spazio locale dei siti (-120 TBn)  Massimo risparmio, ma in condizioni molto complicate per i siti: 173 kEUR

Conclusioni  Il Computing di ATLAS ha dimostrato di essere robusto ed affidabile per il processamento dei dati, sia MC che analisi finale  Computing Model di ATLAS è stato quasi completamente ridisegnato, sia a livello del codice di ricostruzione/analisi sia dei servizi infrastrutturali, incrementandone l’efficienza  I siti italiani sono stati sempre attivi ed efficienti  Le richieste totali del 2016 sono ~700 kEUR, con possibilità di scendere fino a ~530 kEUR considerando solo le risorse strettamente necessarie  Si sta indagando anche la possibilità di estendere di 1 o 2 anni il periodo di manutenzione dello storage in dismissione nel

Backup slides 19

Nuovo Computing Model di ATLAS nel Run2  Nuovo sistema di computing  Rucio (Data Management)  Prodsys-2 (Workload Management)  FAX ed Event Service per ottimizzare l’utilizzo delle risorse  Ottimizzazione della Produzione ed Analisi  Run-1: 75% / 25% (slots occupancy ~ cputime usage)  Run-2: 90% / 10% (stima grossolana)  La maggior parte dell’analisi (Derivation) sarà spostata sulla (group) production  L’analisi rimanente sarà più veloce e I/O intensive  Riduzione del merging e produzione di file più grandi  Code dinamiche in Panda, basate sui requirement dei job  Direct I/O (xrootd e WebDAV/HTTPS) 20

Lifetime dei dati  Modello di lifetime dei dati  Ogni dataset avrà un lifetime settato in fase di creazione  La lifetime può essere infinita (ad esempio per i dati RAW) e può essere estesa, ad esempio se il dataset è stato utilizzato di recente oppure se esiste una eccezione conosciuta  Ogni dataset avrà una retention policy, ad esempio i RAW saranno memorizzati in doppia copia su tape e gli AOD almeno una copia su tape  Durante la loro lifetime I dataset verranno contrassegnati come dati primari, e quindi non cancellabili  I dataset con lifetime spirata verranno contrassegnati come secondari e potranno scomparire in ogni momento dai dischi e dai tape, ad eccezione dei Group disk e LocalGroup disks  Utilizzo maggiore del tape, ma non dal punto di vista degli utenti finali, tranne casi particolari 21

Novità del Computing di ATLAS nel Run2  Utilizzo più efficiente delle risorse  Maggiore flessibilità nel Computing Model (Clouds/Tiers)  Eliminazione dei ruoli stretti T1/T2/T3  Global Panda queue  Global Storage Pool (STABLE, UNSTABLE, VOLATILE)  Diminuzione delle risorse utilizzate (multicore)  Ottimizzazione del workflow delle analisi (Derivation Framework/Analysis Model)  La maggior parte delle analisi:  Processeranno una grande mole di dati  Utilizzeranno meno tempo di CPU  Un singolo job di analisi sui dataset derivati può utilizzare fino a 40MB/s (vs. 4 MB/s nel Run-1 con gli AOD)  Utilizzo di risorse opportunistiche  Grid, Cloud, HPC, Volunteer Computing 22

Risorse opportunistiche: HPC S. Campana – ATLAS Jamboree – Dec

Risorse opportunistiche: Cloud S. Campana – ATLAS Jamboree – Dec

Risorse opportunistiche: Volunteer Computing D. Cameron – Pre-GDB on Volunteer Computing – Nov HOME CERN ARC Control Tower Panda Server ARC CE Boinc server Volunteer PC Boinc Client VM Shared Directory Grid Catalogs and Storage DB on demand BOINC PQ Continuous running jobs almost 300k completed jobs 500k CPU hours 14M events 50% CPU efficiency Currently >10000 volunteers 300 new volunteers/week Volunteers growth Boinc-based Low priority jobs with high CPU-I/O ratio Non-urgent Monte Carlo simulation Need virtualisation for ATLAS sw environment CERNVM image and CVMFS No grid credentials or access on volunteer hosts ARC middleware for data staging The resources should look like a regular Panda queue ARC Control Tower

Storage Federation 26 Goal reached ! >96% data covered We deployed a Federate Storage Infrastructure (*): all data accessible from any location Analysis (and production) will be able to access remote (offsite) files Jobs can run at sites w/o data but with free CPUs. We call this “overflow”. S. Campana – ATLAS Jamboree – Dec 2014

Nuovi tipi di Reprocessing nel Run2  Derivation Framework  Modello in super-streaming, con scopo finale la produzione per (gruppi di) analisi  Potenzialmente può risolvere problemi nell’input di AOD  Esegue operazioni intensive di CPU su eventi selezionati  I lumi-block completi appaiono solo dopo il passaggio del Derivation Framework  AODtoAOD Reprocessing  Risolve problemi che necessitano solo di input di AOD  Intrinsecamente correlato con il Derivation Framework  RAWtoAOD - Fast Reprocessing  Riprocessamento veloce dove vengono aggionate solo le Condition Data  RAWtoAOD - Full Reprocessing  Riprocessamento veloce dove vengono applicate le nuove calibrazioni e viene aggiornato il software 27

Derivation Framework S. Campana – ATLAS Jamboree – Dec

Analysis Model per il Run2 Common analysis data format : xAOD replacement of AOD & group ntuple of any kind Readable both by Athena & ROOT Data reduction framework Athena to produce group derived data sample (DxAOD) Centrally via Prodsys Based on train model one input, N outputs from PB to TB S. Campana – ATLAS Jamboree – Dec

Event facilities 30  Event Service  Event level processing, implementato a livello di ProdSys (e pilot)  L’event service verrà inzialmente utilizzato su risorse tradizionali (grid/cloud) e successivamente anche su HPC e oltre  Inizialmente sarà usato per la simulazione, per poi essere ampliato a tutto il resto, fino all’utilizzo di un Event Streaming Service  Integrazione con G4Hive e Multi-Threading  Event Index  Semplificazione del TagDB di ATLAS, trasformandolo in un indice degli eventi (EventIndex), con puntatori allo storage che contiene gli eventi in vari formati (da RAW a NTUP)  Basato su Hadoop  Imminente sostituzione del TagDB con l’EventIndex

Performance del software  Ricostruzione  Raggiunto il fattore 3 di miglioramento rispetto al Run-1, previsto dal nuovo Computing Model!  Dimensione degli AOD  Raggiunta la dimensione prevista dal Computing Model 31

Infrastruttura italiana ATLAS in Italia continuerà ad usare per il Run2 il Tier1 e i Tier2 allo stesso modo del Run1 Tier1 + 4 Tier2 (Tier2 di tipo ‘S’ – Stable) con risorse sempre più equalizzate Interfaccia primaria di tipo Grid Full mesh con accesso ai dati locali e tramite Federazioni di Storage Cambiamenti in fase di studio o di sviluppo Interfacce di tipo Cloud Prototipo di Tier-2 distribuito Progetto PRIN LHC-StoA, tra NA e RM Possibile estensione a più siti T2 Attualmente il target è quello della condivisione di servizi in HA multiregione, ma può anche essere esteso Attività promettente, limitata solo dall’esigua quantità di manpower che può essere dedicato a tale scopo