ATLAS Stato del Computing

Slides:



Advertisements
Presentazioni simili
Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
Advertisements

Atlas Italia - Milano, 17/11/2009 G. Carlino – News dal Computing 1 1 News dal computing Gianpaolo Carlino INFN Napoli Atlas Italia, Milano, 17/11/09 Nuovo.
Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 1 ATLAS Attività di TeV Attività di computing Attività di computing.
Il primo anno di presa dati di LHC L’esperienza di calcolo nell’esperimento ATLAS Attività condotte nel 2010 e prospettive future Lorenzo Rinaldi (INFN-CNAF)
Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 1 Referaggio Tier2 ATLAS Attività di Computing 2009 Attività di Computing 2009 Stato dei.
1 Firenze, 6 Settembre 2011 G. Carlino – Relazione Referaggi Computing ATLAS Relezione Riunioni Referaggio Calcolo ATLAS Computing Model News Computing.
Il Computing di ATLAS Gianpaolo Carlino Referaggio LHC CNAF, 24 Luglio 2008 Il Computing Challenge I Tier2 I Tier2 Attività e Richieste 2009 Attività e.
Referaggio Calcolo ATLAS II Gianpaolo Carlino INFN Napoli Catania, 12 Settembre 2012 Risorse e Richieste 2013 nei preventivi Aggiornamento in seguito all’allungamento.
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
ATLAS Italia – Sestri Levante, 15 Giugno 2010 G. Carlino – Richieste Run Efficiency = time for physics / total time LHC Efficiency = time with colliding.
Gianpaolo Carlino Bologna, 6 Marzo 2007 Stato dei Tier-2 Italiani di ATLAS Attività nei Tier-2 Attività della Federazione dei Tier-2 Risorse disponibili.
Referaggio Calcolo ATLAS Gianpaolo Carlino INFN Napoli CNAF, 11 Maggio 2012 Attività di Computing ATLAS Attività di Computing in Italia Risorse e Richieste.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
FESR Catania, Trigrid Open Day, Trinacria Grid Virtual Laboratory PROGETTO “ISOSPIN” Supporters : AnnaMaria Muoio, Marcello IaconoManno.
Il Calcolo non LHC in CSN1 G. Carlino, INFN Napoli CSN1 – Firenze 20 Luglio 2015.
Il Computing di ATLAS IV – Test e Commissioning Gianpaolo Carlino Referaggio Computing LHC CNAF, 17/18 Gennaio 2008 Attività di computing in ATLAS nel.
PRIN NAPOLI Enzo Capone, Gianpaolo Carlino, Alessandra Doria, Rosario Esposito, Leonardo Merola, Silvio Pardi, Arturo Sanchez Pineda.
CSN1 – Torino, 17 Maggio 2010 G. Carlino – ATLAS: Calcolo ATLAS Calcolo LHC 2011 Attività di TeV Attività di TeV Risorse.
ATLAS computing Roberto Carlin Commissione I Roma 1/7/08 F. Bossi, C.Bozzi, R. Carlin, R. Ferrari, D. Lucchesi, D. Martello, M. Morandin, M. Taiuti.
CSN1, Ferrara 16 Settembre 2009 G. Carlino – ATLAS, Stato del Computing e Richieste ATLAS Stato del Computing & Richieste 2010 Gianpaolo Carlino.
Il Computing di ATLAS Gianpaolo Carlino CSN1 Roma, 2 Luglio 2008 Il Computing Challenge I Tier2 I Tier2 Attività e Risorse per il 2008 Attività e Risorse.
HLRmon per IGI: nuove funzionalità Enrico Fattibene INFN – CNAF
Utilizzo e Richieste infrastrutture di calcolo esperimenti LHC & non LHC G. Carlino, INFN Napoli CSN1 – Roma 7 Luglio 2016.
Domenico Elia1 Calcolo ALICE: stato e richieste finanziarie (aggiornamenti) Domenico Elia Riunione Referee Calcolo LHC / Bologna, Riunione con.
Il calcolo per l’esperimento GERDA: prospettive per la Fase II Luciano Pandola INFN, Laboratori del Gran Sasso e Laboratori del Sud Workshop della CCR,
Acquisti TIER T2 team e Pistoni per la consulenza sull’hardware.
Resoconto delle attività del Gruppo di Lavoro DR
Verso la presa dati Il Computing di ATLAS
Riunione ALICE Italia - Referee stato e richieste finanziarie
Status Report Gruppo Storage CCR CCR 14-15/03/2006.
Summary di (quasi) tutti gli utenti non presentati…
dCache Test effettuati al CNAF
CALCOLO CSN B.Bertucci.
I costi del Calcolo LHC un update –
Monitoring e loadbalancing dei servizi Grid
Calcolo LHC e Tier2 Concezio Bozzi, INFN – Ferrara
G. Carlino, D. Lucchesi, V. Vagnoni
Massimo Masera CSNIII Roma, 20 marzo 2012
G. Carlino, D. Lucchesi, V. Vagnoni
PRIN Roma1 – status Luciano Barone, Alessandro De Salvo
Il Computing di ATLAS Il Computing Challenge Gianpaolo Carlino I Tier2
Richieste preliminari calcolo non LHC
Stato tape CDG 6/10/2016.
Top status and plans Note sul top per le winter conferences (drafts e non): Measurement of top quark pair production cross-section in dileptons; Search.
Lamberto Luminari CSN Maggio 2005
Metriche SE monitoring G.Donvito G.Cuscela INFN Bari
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
Analisi dei dati dell’Esperimento ALICE
ALICE CALCOLO richieste finanziarie e proposte di assegnazione 2017
Le strategie per l’analisi Workshop CCR e INFN-GRID 2009
Aggiornamento sullo stato del Tier-2 di Catania
ATLAS-Italia Tier-3 Dario Barberis Università e INFN Genova
Attvità Computing – Inverno 08/09
(Breve) Riassunto del workshop WLCG
Referaggio Calcolo ATLAS
CMS.
ATLAS Computing 2008 (Attività, risorse necessarie e richieste)
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
Massimo Masera Catania, 20 dicembre 2012
Job Application Monitoring (JAM)
Interfacce SRM: l'utilizzo di STORM - Overview e prospettive (ALICE)
Stato Computing ATLAS Gianpaolo Carlino INFN Napoli
ATLAS: il calcolo Alessandro De Salvo
PROGETTO “ISOSPIN” Supporters : AnnaMaria Muoio, Marcello IaconoManno
Stima risorse LHC LHC - Tier2 2 periodi
La richiesta si basa sulle seguenti considerazioni:
STATO DI CMS Bari M. Diemoz.
ATLAS Italia Computing Richieste 2007 (Tier-2 e locali)
ATLAS PRIN Roma1 - status Alessandro De Salvo
Report dei referee di Kloe
Transcript della presentazione:

ATLAS Stato del Computing Gianpaolo Carlino INFN Napoli CSN1, Roma 30 Giugno 2009 Attività computing 2009 Richieste sblocco sub judice 1 1

Attività di computing nel 2009 (e alcuni risultati prelimianari di STEP09) test Data Management System Reprocessing ai Tier1 Replica del LFC DB Test Analisi Distribuita (Hammer Cloud) Meccanismi di Fair Share Attività nei Tier2

Data Distribution: 10M test Test del DDM nel caso di distribuzioni di grandi numeri di dataset composti di piccoli file. No throughput test Numeri 10,000 datasets (10 M di file) da distribuire in 10 giorni 1000 dataset di 100 files (pochi MB ognuno) per ogni T1 100,000 subscriptions in totale Ogni dataset trasferito dal Tier1 host a tutti gli altri Tier1s Metriche: Ogni sito deve importare 1M files in 10 giorni con efficienza >95% 100,000 files per day Storm al CNAF: > 30 Hz for srm operations

Data Distribution: STEP09 test dell’intero modello di data placement: T0  tape, T0  T1 (disk), T0  T1 (tape), T1  T1 (disk), T1  T2 Nominal load e file size per ogni tipo di dati Run al rate medio di 940 MB/s dal Cern per 24 h/day T1 rate determinati dagli RRB shares CNAF: Throughput medio: 130 MB/s Efficienza trasferimenti T1  T2: 100%

Il Reprocessing al Tier1 Problematica: accesso agli input files RAW data su tape da trasferire su disco in pre-stage Condition Data in DB Cool/Oracle replicati in Oracle stream ai Tier1 + alcune costanti (LAr e InDet) in POOL files referenziati dal DB Oracle replicati con DDM Processo composto di quattro fasi: pre-stage dei RAW file da riprocessare da tape e copia su WN accesso ai Conditions Data sottomissione dei job con il sistema dei pilot 1 job per RAW file e O(1000) RAW file per Run copia separate dei file di output su disco e tape Nel 2008: test di pre-stage e di accesso a Oracle test di Prestage: OK test di scalabilità del DB con O(1000) job concorrenti ha mostrato un degradamento dell’accesso ai dati nel Tier1 e della Oracle stream in tutti i Tier1 Modifica dell’accesso ai Condition Data per ridurre le queries al DB Oracle Condition DB release: SQLite file contenente i dati del DB Oracle per un run Tar file con la DB release e i POOL calibration files distribuiti in tutti i Tier1 e acceduti dai job di reprocessing

Xmas and Spring campaigns Reprocessing ai Tier1 Xmas and Spring campaigns cosmici e 1beam Output (DPD, AOD, ESD, TAG, N-tuples) distribuiti nei T1 eT2 secondo il CM Target: efficienza > 99% Xmas T1 CA CERN DE ES FR IT ND NL UK US Sum Tot jobs 17997 6947 20965 10550 47270 14018 14031 32140 54038 116250 334206 Done 17896 6942 20913 10518 47103 13952 14002 32088 53817 115942 %% 99.5 100.0 99.8 99.7 99.9 99.6 Aborted 101 5 52 32 167 66 29 221 308 1033 0.6 0.1 0.3 0.4 0.5 0.2 Spring Netto miglioramento del rate di errori 0.3% contro 3.5% Il CNAF ha superato entrambe le validazioni. Error rate 0.5% (contro 4.4%) dovuto soprattutto a un task che richiedeva >2GB di memoria

Al CNAF: 29977 jobs finiti (metrica: > 10000 per un T1@5%) Reprocessing in STEP09 J. Shiers – WLCG MB 16/06 Al CNAF: 29977 jobs finiti (metrica: > 10000 per un T1@5%)

Replica Catalogo locale LFC Eliminazione dei Single Point of Failure della cloud: Ogni Tier1 ospita il catalogo LFC che contiene le informazioni sulla locazione dei file nell’intera cloud e non è normalmente replicato altrove. Pericoloso Single Point of Failure Problemi in Italia nela prima parte del 2008 a causa dell’instabilità del CNAF. Si è reso necessario individuare un sistema di failover Sistema di replica a Roma dell’LFC del CNAF (db Oracle) con il sistema Dataguard messo a punto in collaborazione con il CNAF. La replica viene constantemente aggiornata real time e, quando il DB principale al CNAF viene spento, ne assume automaticamente le funzionalita’. Ritorno automatico al DB del CNAF quando questo ritorna in operazione Testato con successo durante il down del CNAF di fine marzo. Il DB di Roma è entrato in funzione immediatamente e non c’è stata nessuna interruzione di attività in Italia Unico Tier1 di Atlas ad essere dotato di replica

Commissioning Analisi Distribuita Hammer Cloud: Stress test iniziati in Italia, prima cloud in Atlas, in novembre AOD based analysis (soprattutto muoni), use-cases definiti da alcuni utenti, 2 italiani. ~ 200 job lanciati contemporaneamente per saturare un Tier2 medio permette di verificare l’efficienza dei tool di DA (wms vs panda) e lo stato dei siti (limitazioni o malconfigurazioni, la loro stabilità e la presenza di problemi temporanei) Risultati ottenuti ottimizzazione delle configurazioni dei siti Rete. Verificata la necessità di avere una connessione a 10Gbps tra WN e Storage Storage. Silanciamento nel carico sui disk server ottimizzazione dell’accesso ai dati accesso diretto ai dati nello storage (protocollo RFIO) Athena File Stager: copia dei file su WN Esempio: Efficienza dei job (%) e Event Rate (Hz)

Rete nei Tier2 Si è verificata la necessità di connessione a > 1 Connessione a 1 Gbps Si è verificata la necessità di connessione a > 1 Gbps tra WN e Storage per i tipici job di analisi: CPU a pieno carico, lettura eventi a ~ 20 Hz 20 Hz * 0.2 MB per evento = 4 MBps per job 200 job slots  800 MBps E’ necessaria una connessione a 10 Gbs e un sistema di storage adeguato Rate con rete a 1 Gbps ~ 3 Hz Connessione a 10 Gbps Sistema di rete usato nei Tier2 in attesa delle soluzioni individuate dal gruppo di rete della CCR 1 Gbps RACK n n+1 10 Gbps m m+1 Fibra Cluster di Rack 1 Cluster di Rack 2

Rete nei Tier2 Switch di rack 3Com Router Sez. Napoli Router Tier2 Roma Router Tier2 Roma Atlas

Meccanismi di Fair Share ATLAS Computing Model: nei Tier2 50% attività di sumulazione e 50% analisi utenti CPU non pledged e parte del 50% riservate agli utenti sono dedicate al gruppo atlas/it Necessario un sistema di fairshare per la definizione delle priorità dei job in modo da “difendere” l’analisi dall’attività centrale di simulazione e garantire risorse dedicate per gli utenti italiani LSF – Multi VO test: Fairshare Targets: ATLAS 50%: User 30% Prod 70% LHCB 50% User 50% Prod 50% PBS – Multigroup test: Fairshare Targets: ATLAS 40% ATLAS PROD 30% ATLAS IT 30% 10 Time Windows 1h long Job lenght: 2 hours

Meccanismi di Fair Share La suddivisione dei job tra i diversi gruppi oscilla in modo da garantire un utilizzo del tempo di CPU (Wall clock time) secondo i target di share definiti Esempio di suddivisione delle slot di calcolo tra diversi ruoli/gruppi VOMS nel Tier2

Accounting nei Tier2 INFN-LNF INFN-MILANO INFN-NAPOLI-ATLAS INFN-ROMA1-ATLAS

Stabilità dei siti Gli utenti hanno bisogno di siti che siano stabilmente up and running Shift 7/7 dei membri dei Tier2 (estesi dopo STEP anche a utenti “volontari”) per controllare il funzionamento dei siti, dei servizi di grid e delle attività di computing di Atlas in Italia

Stima risorse 2009 LHC data taking Cosmics data taking MC simulation Analisi utenti

Stima Risorse 2009 Strategia richieste: Infrastrutture dei siti: server e rete Sostituzione di server cruciali per i Tier2 (CE e SE) in quanto macchine obsolete (2005) o inadeguate (singola alimentazione, RAM insufficiente). Doppio CE per balancing del carico Connessione a 10 Gbps tra WN e storage per le nuove risorse Risorse di calcolo e storage Stima in base alla schedula ufficiale del run 2009 Richiesta di sblocco del s.j. Anche nel caso di ulteriori ritardi di LHC e della conseguente riduzione delle risorse necessarie per il 2010, l’acquisizione delle risorse 2009 permette ai Tier2 di allinearsi al Tier1 (gare da poco avviate) e alla cloud italiana di allinearsi alle altre cloud di ATLAS Modifica del CM in base alla specificità della cloud italiana Spostamento nei Tier2 di alcune funzionalità previste nel Tier1 a causa della limitazione delle risorse al CNAF: replica completa AOD e DPD solo ai Tier2 Richiesta di risorse adeguate da dedicare all’attività dei gruppi italiani oltre i pledges

ATLAS DataWorkflow Il CM di ATLAS, in base all’esperienza del commissioning e la limitazione di risorse disponibili, sta modificando le policy di replica dei dati rispetto al C-TDR L’analisi in Grid degli utenti viene svolta nei Tier-2. Solo analisi di gruppo nei Tier1

Storage nei Tier2 Detector data 110 TB RAW, ESD, AOD, DPD Centrally managed Managed with space tokens Example for a 200 TB T2 Simulated data 40 TB RAW, ESD, AOD, DPD Centrally managed MC CPUs Physics Group data 20 TB DnPD, ntup, hist, .. Group managed GROUP Analysis tools User Scratch data 20 TB User data Transient SCRATCH LOCAL Local Storage Non pledged IT User data Locally managed 19

Stima risorse 2009 - LHC 2 periodi “2009” Oct 09 – Mar 10 “2010” Apr 10 – Mar 11 Data taking Apr 09 – Sep 09: no LHC (sim e cosm) Oct 09 – Mar 10: 1,7· 106 sec (pp) 3,4· 108 ev @ 200 Hz Apr 10 – Oct 10: 4,3· 106 sec (pp) 8,6 · 108 ev @ 200 Hz Ecm = 5 + 5 TeV (only?) RAW = 1.6 MB - AOD = 0.15 MB - ESD = 0.8 MB 20

Stima risorse 2009 - Cosmici Cosmics data taking 2009 ~ 5· 108 ev ~ 1 PB di RAW e ESD/ DPD Il CM prevede che i dati siano replicati solo ai Tier1 e on demand ai Tier2. In base all’esperienza degli ultimi mesi prevediamo che una piccola quota (O(10) TB) di cosmici verrà richiesta nei Tier2 italiani. Non si conservano i cosmici dei run più vecchi.

Stima risorse 2009 - Analisi Analisi nei Tier2 analisi caotica da parte degli utenti produzione di D3PD produzione private MC (statistica limitata prevista da Atlas, necessità di produrre e conservare RDO per ricostruzioni private) calibrazioni dei mu (MDT, LVL1, RPC) analisi di gruppo. large scale skimming di eventi da ESD e AOD con produzione di DPD Prevista soprattutto al Tier1. Aumento dell’utilizzo delle risorse dei Tier2 per la presenza di una replica completa di AOD Risorse dedicate agli utenti italiani CPU: E’ operativo dall’inizi del 2009 il gruppo VOMS atlas/it che identifica gli utenti italiani. In base a meccanismi di fair share è possibile garantire una quantità di risorse almeno uguale alle risorse off-pledged. Disco: Spazio disco dedicato agli utenti italiani (LOCALUSERDISK). Il pool ATLASCRATCHDISK è utilizzato da tutti gli utenti di Atlas ed è un’area scratch

Stima risorse 2009 - Analisi Stato attuale dell’uso dei Tier2 da parte degli utenti netti miglioramenti qualitativi maggiore richiesta delle risorse del Tier2 per attività connesse allo studio dei rivelatori vista la limitazione nell’uso delle risorse al CERN analisi dei RAW data dei cosmici e stream di calibrazione con i tool di analisi distribuita consolidamento dell’uso dei tool da parte dei gruppi di fisica estensione all’analisi di root-ple con Ganga aumento velocità dei job grazie all’ottimizzazione delle configurazioni di rete e dei protocolli di accesso ai dati in seguito agli stress test dell’hammer cloud. ci attendiamo un significativo aumento quantitativo dell’uso dei Tier2 per l’analisi da parte della comunità italiana con la presa dati Circa 20 gruppi italiani di analisi. Principali attività legate allo studio delle performance dei rivolatori e del trigger e alle calibrazioni Fisica: W/Z (2), SUSY (2), Top, Higgs (3), Jets, Esotica, Z’, Bphys Performance, Calibrazione: EM Calo / Photon ID, Pixel, Tau/Etmiss, btag trigger, Jet calib e reco, LVL1 muon, RPC, MDT, combined muons

Stima risorse 2009 - MC Stima basata sulla produzione “MC08”: iniziata nel 2008 e recentemente migrata ora a G4 v9.2 più vari improvement La durata di un anno del run 2009-2010 ha un forte impatto sulla produzione MC, è necessario prevedere sample addizionali per cui il numero totale di eventi da simulare non è più legato al numero di eventi acquisiti: 3 o 4 new Ecm/bunch conifigurations, ognuna di circa 200M eventi variazioni o studi di sistematici in base ai dati raccolti, p.es. tuning o modifiche del modello di hadronic shower, (~150M ev ognuno) La simulazione viene svolta soprattutto nei Tier2: 5 % share simulazione IT, 70% share simulazione ai Tier2. I tempi di simulazione sono cresciuti di un ordine di grandezza rispetto al C-TDR. Necessità di produrre un campione significativo con la fast simulation E’ in corso uno studio di ottimizzazione del tempo vs le performance in Geant4 Total full sim: 1,2 B ev MC08: 340 M New MC: 900 M 300 M nel ’09, 600 M nel ‘10 Total fast sim: 1,2 B ev solo 600 M su disco 200 M nel ‘09, 400 M nel ‘10 Simulation time HS06 Full simulation 8000 Fast simulation 400

Stima risorse 2009 - riepilogo Riassunto risorse necessarie 2009 Attività CPU (HS06) Disco (TBn) LHC data taking 220 Cosmici 20 Simulazione 4800 200 Utenti 6400 160 Totale 11200 600 Risorse disponibili nei Tier2 Tier2 CPU (HS06) Disco (TBn) LNF 688 46 Milano 1832 202 Napoli 2110 209 Roma 1990 195 Tot 6620 652 Richieste CPU Disco HS06 K€ TBn Necessità attività 2009 11200 600 Risorse disponibili 6620 314 Richieste 2009 4580 138 286 229 Costi CPU: 0.03 K€/HS06 Disco: 0.8 K€/TBn Nella determinazione dello spazio disco necessario si è tenuto in conto di quanto è attualmente vuoto.

Riepilogo Richieste Tier2 2009 Suddivisione per sedi 30% per i Tier2 approvati (con piccole variazioni per il disco) 10% per il proto Tier2 Riteniamo necessario il finanziamento di Frascati per il 2009 per permettere al sito di partecipare alle attività di computing in maniera significativa e di evidenziare la sua importanza nella cloud italiana CPU Disco Server Switch Totale HS06 K€ TBn LNF 458 15 29 23 5,5 3,5 47 Milano 1374 41 90 72 11 128 Napoli 10,5 129 Roma 77 61 15,5 121 Tot 4580 138 286 228 425

Conclusioni Le attività di computing in ATLAS e in Italia negli ultimi mesi hanno mostrato che il sistema ha raggiunto una solidità e efficienza in molte sue parti tali da poter affrontare il prossimo data taking data management Reprocessing, al CNAF in particolare Il sistema di analisi distribuita è in continua fase di evoluzione (introduzione della sottomissione con i pilot anche in europa) e deve essere approfondita la scalabilità In Italia. Rispetto alla CSN1 del luglio 08 notevolissimi miglioramenti al CNAF, sia di performance (Storm viene usato in Atlas come riferimento) che di gestione Nei Tier2 sono state ottimizzate le configurazioni di storage e rete per migliorare le performance dell’analisi. Alta efficienza media.

Backup slides

Accounting ATLAS

Accounting ATLAS

Simulazione MC Strategia di simulazione con Geant4 …… Hits prodotti nei Tier2 e trasferiti nei Tier1 Merging degli HITS in file di 2 GB … e ricostruzione MC Prestage HITS dal tape sul disco Digitizzazione ( RDO) Ricostruzione ( ESD, AOD) Archivio RDO, ESD e AOD su tape Distribuzione AOD agli altri Tier1 e ai Tier2 della cloud Simulazione con ATLFAST2 Generazione  AOD AOD trasferiti al Tier1 Al Tier1 distribuzione degli AOD agli altri Tier1 Archivio degli AOD su tape

Simulazione MC - Performance Tempo medoi di simulazione nel 2005 (C-TDR) ~ 800 HS06, oggi 8000 HC06 Dipendenza da eta: passaggio da ||<3 (2005) a ||<6 (per simulare correttamente l’attività nel FCAL): fattore ~3 Rappresentazione completa della geomatria di ATLAS (5M di volumi, geometria dominata dalla struttura molto complicata del LAr): fattore ~3 Physics list con il modello di shower adronico di Bertini (miglioramento significativo degli shapes degli shower adronici): fattore ~2 Attività in corso per ridurre i tempi di simulazione in G4: ottimizzazione dei range cuts, time cut per i neutroni lenti, rimozione dei neutrini dalla lista delle particelle da tracciare Miglioramento delle performance della fast simulation

Simulazione MC What’s in MC08 Single particles: e, γ, μ, π0, π±, Λ, η, KS... Fixed E, fixed/varying Et, etc, for calib, tracking, calo, ideal PID, trigger... Studies “SM Physics” samples Min bias, Jets (pt sliced and lower cut), γ-jet – several MCs, different geometries, misc. other options (total 90M) W, Z with multiple models, systematics (total 80M) “PID related” Filtered samples to enhance e/γ backgrounds, filter samples for muon backgrounds Also counted bb/cc inclusive samples here (with & w/o lepton filter) “Other” New physics (exotics, SUSY, Higgs) & special background; ttbar and single-top, dibosons, etc

Risorse totali Tier2 Confronto con i piani di sviluppo di ATLAS (non ancora ufficiali) e i pledge 2009 Lo sblocco del s.j. permette di soddisfare i pledge dell’esperimento e di garantire sufficienti risorse dedicate agli utenti italiani T2 IT T2 ATLAS IT/ATLAS Pledges CPU (HS06) 11200 111000 10.1% 5920 (5%) Disco (TBn) 938 8.4% 700 (5%)