La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Stima risorse LHC LHC - Tier2 2 periodi

Presentazioni simili


Presentazione sul tema: "Stima risorse LHC LHC - Tier2 2 periodi"— Transcript della presentazione:

1 Stima risorse 2010 - LHC LHC - Storage @ Tier2 2 periodi
“2009” Oct 09 – Mar 10 “2010” Apr 10 – Mar 11 Data taking Apr 09 – Sep 09: no LHC (sim e cosm) Oct 09 – Mar 10: 1,7· 106 sec (pp) 3,4· Hz Apr 10 – Oct 10: 4,3· 106 sec (pp) 8,6 · Hz Ecm = TeV (only?) LHC - Tier2 2 versioni complete di AOD 2 versioni di DPD primari Frazione di RAW (0%, circa metà della quota CNAF) Dati di calibrazione a Rm e Na No ESD Totale = 516 TBn 1,2. per ospitare anche la quota CNAF 3. per studi di performance dei rivelatori RAW = 1.6 MB - AOD = 0.15 MB - ESD = 0.8 MB 1

2 Stima risorse 2010 - cosmici
Cosmics data taking 2009 ~ 5· 108 ev ~ 1 PB di RAW e ESD/ DPD Il CM prevede che i dati siano replicati solo ai Tier1 e on demand ai Tier2. In base all’esperienza degli ultimi mesi prevediamo che una piccola quota di cosmici verrà richiesta nei Tier2. Non si conservano i cosmici vecchi. RAW e ESD/DPD (replica per l’analisi dei dati inviati al CNAF) No AOD Totale = 0 TBn Cosmics - Tier2

3 Stima risorse 2010 - Analisi
Stato attuale dell’uso dei Tier2 da parte degli utenti netti miglioramenti qualitativi maggiore richiesta delle risorse del Tier2 per attività connesse allo studio dei rivelatori vista la limitazione nell’uso delle risorse al CERN analisi dei RAW data dei cosmici e stream di calibrazione con i tool di analisi distribuita consolidamento dell’uso dei tool da parte dei gruppi di fisica estensione all’analisi di root-ple con Ganga aumento velocità dei job grazie all’ottimizzazione delle configurazioni di rete e dei protocolli di accesso ai dati in seguito agli stress test dell’hammer cloud. ci attendiamo un significativo aumento quantitativo dell’uso dei Tier2 per l’analisi da parte della comunità italiana con la presa dati Previsione per il 2009 circa 20 gruppi italiani di analisi. Principali attività legate allo studio delle performance dei rivolatori e del trigger e alle calibrazioni Fisica: W/Z (2), SUSY (2), Top, Higgs (3), Jets, Esotica, Z’, Bphys Performance, Calibrazione: EM Calo / Photon ID, Pixel, Tau/Etmiss, btag trigger, Jet calib e reco, LVL1 muon, RPC, MDT, combined muons Tier2 Disco medio per attività : ~ TBn. Run 2009 = 7 TB. Run10/Run09 = 2.5 CPU media per attività: ~ 320 HS Scratch area per utenti generici: 20 TB Totale = 374 TBn e 6400 HS06 2. Corrisponde a circa 4 nuovi WN

4 Stima risorse 2010 – Analisi gruppo
ATLAS prevede che i gruppi runnino su tutti gli AOD in 90 giorni 20 Gruppi ATLAS Tempo di analisi = 20 HS sec Assunzione: i Tier2 IT contribuiscono al 10% Non considero lo spazio disco per evitare double counting pericolosi Tier2 Totale = 4420 HS06

5 Stima risorse 2010 - MC Stima basata sulla produzione “MC08”:
iniziata nel 2008: 340 M full sim (10 TeV, no pileup) 80M single particle, 160M SM, 70M “PID related”, 30M “other” Migrata ora a G4 v9.2 più vari improvement Run , la durata di un anno ha un forte impatto sulla produzione MC, è necessario prevedere sample addizionali per cui il numero totale di eventi da simulare non è più legato al numero di eventi acquisiti: 3 o 4 new Ecm/bunch conifigurations, ognuna di circa 200M eventi variazioni o studi di sistematici in base ai dati raccolti, p.es. tuning o modifiche del modello di hadronic shower, (~150M ev ognuno) What’s in MC08 Single particles: e, γ, μ, π0, π±, Λ, η, KS... Fixed E, fixed/varying Et, etc, for calib, tracking, calo, ideal PID, trigger... studies “SM Physics” samples Min bias, Jets (pt sliced and lower cut), γ-jet – several MCs, different geometries, misc. other options (total 90M) W, Z with multiple models, systematics (total 80M) “PID related” Filtered samples to enhance e/γ backgrounds, filter samples for muon backgrounds Also counted bb/cc inclusive samples here (with & w/o lepton filter) “Other” New physics (exotics, SUSY, Higgs) & special bkgd; ttbar and single-top, dibosons, etc

6 Stima risorse 2010 - MC Simulazione @ Tier2 Total full sim: 1,2 B ev
La simulazione viene svolta anche nei Tier1 se le risorse sono disponibili. La strategia è di dedicare l’uso delle risorse del CNAF al reprocessing e ricostruzione MC e massimizzare l’uso dei Tier2 per la simulazione. 5 % share simulazione IT 70% share simulazione ai Tier2. I tempi di simulazione sono cresciuti di un ordine di grandezza rispetto al C-TDR. Necessità di produrre un campione significativo con la fast simulation E’ in corso uno studio di ottimizzazione del tempo vs le performance in Geant4 Total full sim: 1,2 B ev MC08: 340 M New MC: 900 M 300 M nel 2009 e 600 M nel 2010 Total fast sim: 1,2 B ev 600 M (solo 300 M su disco) Tier2 Simulation time HS06 Full simulation 8000 Fast simulation 400 1 versione di AOD e DPD buffer produzione MC 20 TB Storage = 247 TBn CPU = 8400 HS06 AOD = 0.18 MB ESD = 1.1 MB

7 Stima risorse 2010 - riepilogo
Attività CPU (HS06) Disco (TBn) LHC data taking 516 Simulazione 8402 247 Utenti 6400 374 Gruppo 4424 Totale 19226 1137

8 Risorse disponibili nei Tier2
CPU (HS06) Disco (TBn) LNF 688 46 Milano 1832 202 Napoli 2110 209 Roma 1990 195 Tot 6620 652 CPU: Convertita in HepSpec la potenza di calcolo Obsolescenza: in tutti i siti sono stati dismesse le risorse più vecchie (2004 e parte 2005), alto consumo, bassa performance e RAM limitata: 2 WN LNF, 16 WN Mi, 8 WN Na, 20 WN Rm, ~ 600 HS Nel 2010 si dovranno dismettere molte altre risorse, soprattutto a Mi (eredità CNAF): > 1200 HS Disco Spazio disco netto reale, riportato dall’srm Obsolescenza: dismessi i sistemi di storage più vecchi: 5 TB Na e Rm, 2 TB LNF

9 Richieste 2010 – Tier2 CPU Disco Necessità attività 2010
HS06 K€ TBn Necessità attività 2010 19226 1137 Risorse disponibili 11200 484 Richieste 2010 8026 201 653 454 Costi CPU: K€/HS06 Disco: 0.7 K€/TBn disco disponibile calcolato conservando nel disco disponibile (937 TBn) i dati del run 2009 (1 copia AOD e 1 copia DPD + disco utenti 2009 = 332 TBn) + 20% del rimanente spazio (121 TBn)

10 Risorse totali Tier2 2009 2010 T2 IT T2 ATLAS IT/ATLAS Pledges
CPU (HS06) 11200 111000 10.1% 5920 (5%) 189% Disco (TBn) 937 8.4% 700 (5%) 134% 2010 T2 IT T2 ATLAS IT/ATLAS Pledges It/Pledges CPU (HS06) 19226 240000 8,0% 10800 178% Disco (TBn) 1590 21300 7,5% 1150 138%

11 Riepilogo Richieste Tier2 2010
Suddivisione per sedi 30% per i Tier2 approvati 10% per il proto Tier2 CPU Disco Obsolescenza Switch Totale HS06 K€ TBn LNF 802,6 20,1 65,3 45,7 40 1,0 3,5 70,3 Milano 2407,7 60,2 195,9 137,1 850 21,2 8 226,6 Napoli 275 6,9 212,2 Roma 200 5,0 210,3 Tot 8025,8 200,6 652,9 719,3 1365 34,1 27,5 Sub Judice?????

12 Risorse Tier1 2010 Piano ATLAS 2010 – inizio 2010 (considerando l’overlap) CPU = 7200 HS Disco = 1400 TBn

13 Risorse Tier1 2010 Pledge ATLAS 2010 CPU = 10900 HS Disco = 1300 TBn
Piano ATLAS 2010 – inizio 2010 (considerando l’overlap) CPU = 7200 HS Disco = 1400 TBn Con la semplice opzione base si garantiscono i pledges per il disco ma non per la CPU, bisognerebbe ricorrere all’opzione prevista dalla gara


Scaricare ppt "Stima risorse LHC LHC - Tier2 2 periodi"

Presentazioni simili


Annunci Google