Stima risorse LHC LHC - Tier2 2 periodi

Slides:



Advertisements
Presentazioni simili
Run I Distribuzione inclusive di Min Bias (Mult. Carica, Pt). Correlazioni dello stato finale ( -Mult) + mini-jet (soft hard physics). Campioni utilizzati:
Advertisements

Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
ATLAS Muon Trigger Slice Francesco Conventi per il gruppo sw ATLAS/Napoli Riunione Gruppo1, Napoli 17/12/2007.
Tier-2 ATLAS Tier-2 Lamberto Luminari CSN1 – Roma, 10 Ottobre 2005.
Halina Bilokon ATLAS Software di fisica DC1 – DC2 DC1 aprile fine 2003 (versioni di software  3.x.x – 7.x.x)  Validation del Software  Aggiornamento.
ATLAS Computing Model Lamberto Luminari CSN Gennaio, 2005.
Atlas Italia - Milano, 17/11/2009 G. Carlino – News dal Computing 1 1 News dal computing Gianpaolo Carlino INFN Napoli Atlas Italia, Milano, 17/11/09 Nuovo.
Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 1 ATLAS Attività di TeV Attività di computing Attività di computing.
Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 1 Referaggio Tier2 ATLAS Attività di Computing 2009 Attività di Computing 2009 Stato dei.
1 Firenze, 6 Settembre 2011 G. Carlino – Relazione Referaggi Computing ATLAS Relezione Riunioni Referaggio Calcolo ATLAS Computing Model News Computing.
CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 1 ATLAS Referaggio Tier2 Attività di TeV Attività di TeV Richieste.
Il Computing di ATLAS Gianpaolo Carlino Referaggio LHC CNAF, 24 Luglio 2008 Il Computing Challenge I Tier2 I Tier2 Attività e Richieste 2009 Attività e.
Atlas TDAQ E. Pasqualucci INFN Roma. Sommario Attivita’ di fine 2008 – inizio 2009 Preparazione per i run con fasci Trigger con luminosita’ iniziali 16/9/20092E.
Referaggio Calcolo ATLAS II Gianpaolo Carlino INFN Napoli Catania, 12 Settembre 2012 Risorse e Richieste 2013 nei preventivi Aggiornamento in seguito all’allungamento.
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
ATLAS Italia – Sestri Levante, 15 Giugno 2010 G. Carlino – Richieste Run Efficiency = time for physics / total time LHC Efficiency = time with colliding.
1 Bari, 21 Settembre 2011 G. Carlino – ATLAS: il calcolo ATLAS: il Calcolo Attività di Computing nel 2011 Attività di Computing nel 2011 Richieste Tier2.
Gianpaolo Carlino Bologna, 6 Marzo 2007 Stato dei Tier-2 Italiani di ATLAS Attività nei Tier-2 Attività della Federazione dei Tier-2 Risorse disponibili.
Referaggio Calcolo ATLAS Gianpaolo Carlino INFN Napoli CNAF, 11 Maggio 2012 Attività di Computing ATLAS Attività di Computing in Italia Risorse e Richieste.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Computing CMS Richieste 2010 M.Paganoni, 22/7/09.
CSN1 – Torino, 17 Maggio 2010 G. Carlino – ATLAS: Calcolo ATLAS Calcolo LHC 2011 Attività di TeV Attività di TeV Risorse.
ATLAS computing Roberto Carlin Commissione I Roma 1/7/08 F. Bossi, C.Bozzi, R. Carlin, R. Ferrari, D. Lucchesi, D. Martello, M. Morandin, M. Taiuti.
CSN1, Ferrara 16 Settembre 2009 G. Carlino – ATLAS, Stato del Computing e Richieste ATLAS Stato del Computing & Richieste 2010 Gianpaolo Carlino.
Il Computing di ATLAS Gianpaolo Carlino CSN1 Roma, 2 Luglio 2008 Il Computing Challenge I Tier2 I Tier2 Attività e Risorse per il 2008 Attività e Risorse.
Studio della risposta del rivelatore al passaggio di particelle di carica frazionaria. – Efficienza di ricostruzione e di trigger per il segnale da analisi.
Utilizzo e Richieste infrastrutture di calcolo esperimenti LHC & non LHC G. Carlino, INFN Napoli CSN1 – Roma 7 Luglio 2016.
Domenico Elia1 Calcolo ALICE: stato e richieste finanziarie (aggiornamenti) Domenico Elia Riunione Referee Calcolo LHC / Bologna, Riunione con.
Il calcolo per l’esperimento GERDA: prospettive per la Fase II Luciano Pandola INFN, Laboratori del Gran Sasso e Laboratori del Sud Workshop della CCR,
Torino, Andrea Dainese 1 Andrea Dainese (INFN – LNL) Stato del Tier-2 ALICE a Legnaro.
Acquisti TIER T2 team e Pistoni per la consulenza sull’hardware.
Il calcolo ATLAS a Napoli nel 2014/2015
Verso la presa dati Il Computing di ATLAS
Riunione ALICE Italia - Referee stato e richieste finanziarie
CALCOLO CSN B.Bertucci.
I costi del Calcolo LHC un update –
Calcolo LHC e Tier2 Concezio Bozzi, INFN – Ferrara
G. Carlino, D. Lucchesi, V. Vagnoni
Massimo Masera CSNIII Roma, 20 marzo 2012
Richieste di upgrade dei link di accesso alla rete Geografica
G. Carlino, D. Lucchesi, V. Vagnoni
Installazione Storage 2016
PRIN Roma1 – status Luciano Barone, Alessandro De Salvo
Il Computing di ATLAS Il Computing Challenge Gianpaolo Carlino I Tier2
Richieste preliminari calcolo non LHC
Stato tape CDG 6/10/2016.
Attivita’ gruppo GE sul top
Top status and plans Note sul top per le winter conferences (drafts e non): Measurement of top quark pair production cross-section in dileptons; Search.
Assegnazione risorse Stato INFN CNAF,
Lamberto Luminari CSN Maggio 2005
QUADRO CALCOLO IN COMMISSIONE III
E. Pasqualucci INFN Roma
ATLAS Stato del Computing
ALICE CALCOLO richieste finanziarie e proposte di assegnazione 2017
Le strategie per l’analisi Workshop CCR e INFN-GRID 2009
Aggiornamento sullo stato del Tier-2 di Catania
ATLAS-Italia Tier-3 Dario Barberis Università e INFN Genova
Attvità Computing – Inverno 08/09
Referaggio Calcolo ATLAS
CMS.
ATLAS Computing 2008 (Attività, risorse necessarie e richieste)
Massimo Masera Catania, 20 dicembre 2012
Calcolo “locale” ATLAS-Mi
Stato Computing ATLAS Gianpaolo Carlino INFN Napoli
ATLAS: il calcolo Alessandro De Salvo
La richiesta si basa sulle seguenti considerazioni:
STATO DI CMS Bari M. Diemoz.
ATLAS Italia Computing Richieste 2007 (Tier-2 e locali)
Physics: Produzione risonante di ZV in ll+jets
Report dei referee di Kloe
Transcript della presentazione:

Stima risorse 2010 - LHC LHC - Storage @ Tier2 2 periodi “2009” Oct 09 – Mar 10 “2010” Apr 10 – Mar 11 Data taking Apr 09 – Sep 09: no LHC (sim e cosm) Oct 09 – Mar 10: 1,7· 106 sec (pp) 3,4· 108 ev @ 200 Hz Apr 10 – Oct 10: 4,3· 106 sec (pp) 8,6 · 108 ev @ 200 Hz Ecm = 5 + 5 TeV (only?) LHC - Storage @ Tier2 2 versioni complete di AOD 2 versioni di DPD primari Frazione di RAW (0%, circa metà della quota CNAF) Dati di calibrazione a Rm e Na No ESD Totale = 516 TBn 1,2. per ospitare anche la quota CNAF 3. per studi di performance dei rivelatori RAW = 1.6 MB - AOD = 0.15 MB - ESD = 0.8 MB 1

Stima risorse 2010 - cosmici Cosmics data taking 2009 ~ 5· 108 ev ~ 1 PB di RAW e ESD/ DPD Il CM prevede che i dati siano replicati solo ai Tier1 e on demand ai Tier2. In base all’esperienza degli ultimi mesi prevediamo che una piccola quota di cosmici verrà richiesta nei Tier2. Non si conservano i cosmici vecchi. RAW e ESD/DPD (replica per l’analisi dei dati inviati al CNAF) No AOD Totale = 0 TBn Cosmics - Storage @ Tier2

Stima risorse 2010 - Analisi Stato attuale dell’uso dei Tier2 da parte degli utenti netti miglioramenti qualitativi maggiore richiesta delle risorse del Tier2 per attività connesse allo studio dei rivelatori vista la limitazione nell’uso delle risorse al CERN analisi dei RAW data dei cosmici e stream di calibrazione con i tool di analisi distribuita consolidamento dell’uso dei tool da parte dei gruppi di fisica estensione all’analisi di root-ple con Ganga aumento velocità dei job grazie all’ottimizzazione delle configurazioni di rete e dei protocolli di accesso ai dati in seguito agli stress test dell’hammer cloud. ci attendiamo un significativo aumento quantitativo dell’uso dei Tier2 per l’analisi da parte della comunità italiana con la presa dati Previsione per il 2009 circa 20 gruppi italiani di analisi. Principali attività legate allo studio delle performance dei rivolatori e del trigger e alle calibrazioni Fisica: W/Z (2), SUSY (2), Top, Higgs (3), Jets, Esotica, Z’, Bphys Performance, Calibrazione: EM Calo / Photon ID, Pixel, Tau/Etmiss, btag trigger, Jet calib e reco, LVL1 muon, RPC, MDT, combined muons Utenti @ Tier2 Disco medio per attività : ~ 17.5 TBn. Run 2009 = 7 TB. Run10/Run09 = 2.5 CPU media per attività: ~ 320 HS Scratch area per utenti generici: 20 TB Totale = 374 TBn e 6400 HS06 2. Corrisponde a circa 4 nuovi WN

Stima risorse 2010 – Analisi gruppo ATLAS prevede che i gruppi runnino su tutti gli AOD in 90 giorni 20 Gruppi ATLAS Tempo di analisi = 20 HS sec Assunzione: i Tier2 IT contribuiscono al 10% Non considero lo spazio disco per evitare double counting pericolosi Gruppi @ Tier2 Totale = 4420 HS06

Stima risorse 2010 - MC Stima basata sulla produzione “MC08”: iniziata nel 2008: 340 M full sim (10 TeV, no pileup) 80M single particle, 160M SM, 70M “PID related”, 30M “other” Migrata ora a G4 v9.2 più vari improvement Run 2009-2010, la durata di un anno ha un forte impatto sulla produzione MC, è necessario prevedere sample addizionali per cui il numero totale di eventi da simulare non è più legato al numero di eventi acquisiti: 3 o 4 new Ecm/bunch conifigurations, ognuna di circa 200M eventi variazioni o studi di sistematici in base ai dati raccolti, p.es. tuning o modifiche del modello di hadronic shower, (~150M ev ognuno) What’s in MC08 Single particles: e, γ, μ, π0, π±, Λ, η, KS... Fixed E, fixed/varying Et, etc, for calib, tracking, calo, ideal PID, trigger... studies “SM Physics” samples Min bias, Jets (pt sliced and lower cut), γ-jet – several MCs, different geometries, misc. other options (total 90M) W, Z with multiple models, systematics (total 80M) “PID related” Filtered samples to enhance e/γ backgrounds, filter samples for muon backgrounds Also counted bb/cc inclusive samples here (with & w/o lepton filter) “Other” New physics (exotics, SUSY, Higgs) & special bkgd; ttbar and single-top, dibosons, etc

Stima risorse 2010 - MC Simulazione @ Tier2 Total full sim: 1,2 B ev La simulazione viene svolta anche nei Tier1 se le risorse sono disponibili. La strategia è di dedicare l’uso delle risorse del CNAF al reprocessing e ricostruzione MC e massimizzare l’uso dei Tier2 per la simulazione. 5 % share simulazione IT 70% share simulazione ai Tier2. I tempi di simulazione sono cresciuti di un ordine di grandezza rispetto al C-TDR. Necessità di produrre un campione significativo con la fast simulation E’ in corso uno studio di ottimizzazione del tempo vs le performance in Geant4 Total full sim: 1,2 B ev MC08: 340 M New MC: 900 M 300 M nel 2009 e 600 M nel 2010 Total fast sim: 1,2 B ev 600 M (solo 300 M su disco) Simulazione @ Tier2 Simulation time HS06 Full simulation 8000 Fast simulation 400 1 versione di AOD e DPD buffer produzione MC 20 TB Storage = 247 TBn CPU = 8400 HS06 AOD = 0.18 MB ESD = 1.1 MB

Stima risorse 2010 - riepilogo Attività CPU (HS06) Disco (TBn) LHC data taking 516 Simulazione 8402 247 Utenti 6400 374 Gruppo 4424 Totale 19226 1137

Risorse disponibili nei Tier2 CPU (HS06) Disco (TBn) LNF 688 46 Milano 1832 202 Napoli 2110 209 Roma 1990 195 Tot 6620 652 CPU: Convertita in HepSpec la potenza di calcolo Obsolescenza: in tutti i siti sono stati dismesse le risorse più vecchie (2004 e parte 2005), alto consumo, bassa performance e RAM limitata: 2 WN LNF, 16 WN Mi, 8 WN Na, 20 WN Rm, ~ 600 HS Nel 2010 si dovranno dismettere molte altre risorse, soprattutto a Mi (eredità CNAF): > 1200 HS Disco Spazio disco netto reale, riportato dall’srm Obsolescenza: dismessi i sistemi di storage più vecchi: 5 TB Na e Rm, 2 TB LNF

Richieste 2010 – Tier2 CPU Disco Necessità attività 2010 HS06 K€ TBn Necessità attività 2010 19226 1137 Risorse disponibili 11200 484 Richieste 2010 8026 201 653 454 Costi CPU: 0.025 K€/HS06 Disco: 0.7 K€/TBn disco disponibile calcolato conservando nel disco disponibile (937 TBn) i dati del run 2009 (1 copia AOD e 1 copia DPD + disco utenti 2009 = 332 TBn) + 20% del rimanente spazio (121 TBn)

Risorse totali Tier2 2009 2010 T2 IT T2 ATLAS IT/ATLAS Pledges CPU (HS06) 11200 111000 10.1% 5920 (5%) 189% Disco (TBn) 937 8.4% 700 (5%) 134% 2010 T2 IT T2 ATLAS IT/ATLAS Pledges It/Pledges CPU (HS06) 19226 240000 8,0% 10800 178% Disco (TBn) 1590 21300 7,5% 1150 138%

Riepilogo Richieste Tier2 2010 Suddivisione per sedi 30% per i Tier2 approvati 10% per il proto Tier2 CPU Disco Obsolescenza Switch Totale HS06 K€ TBn LNF 802,6 20,1 65,3 45,7 40 1,0 3,5 70,3 Milano 2407,7 60,2 195,9 137,1 850 21,2 8 226,6 Napoli 275 6,9 212,2 Roma 200 5,0 210,3 Tot 8025,8 200,6 652,9 719,3 1365 34,1 27,5 Sub Judice?????

Risorse Tier1 2010 Piano ATLAS 2010 – inizio 2010 (considerando l’overlap) CPU = 7200 HS Disco = 1400 TBn

Risorse Tier1 2010 Pledge ATLAS 2010 CPU = 10900 HS Disco = 1300 TBn Piano ATLAS 2010 – inizio 2010 (considerando l’overlap) CPU = 7200 HS Disco = 1400 TBn Con la semplice opzione base si garantiscono i pledges per il disco ma non per la CPU, bisognerebbe ricorrere all’opzione prevista dalla gara