CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 1 ATLAS Referaggio Tier2 Attività di TeV Attività di TeV Richieste.

Slides:



Advertisements
Presentazioni simili
E835 & Hera-B Concezio Pisa, 21/12/2004. E835 (aka Jet-FNAL) timeline dell'esperimento –Presa dati conclusa nel Alcune analisi tuttora in corso.
Advertisements

L. Perini CSN1 -Roma 23 Gen Centri Regionali per il calcolo di ATLAS in Italia Tier-1 e Tiers-N : funzioni, localizzazione, necessita di h/w, personale.
Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
Alessia Tricomi Università & INFN Catania
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
Analysis unibo una proposta. Work flow di una tipica analisi 1.Simulazione di piccoli campioni di eventi per studio segnale 2.Generazione in grande.
6 Febbraio 2006CSN1 - Roma1 MEG : relazione dei referees P. Cenci R. Contri P. Morettini M. Sozzi.
1 CSN1 - Lecce 22/09/2003 Babar Relazione e proposte finanziarie Referee: M. de Palma, P. Lubrano, C. Luci, L. Perini,A. Staiano.
CSN Maggio 2005 P. Capiluppi Il Computing Model (LHC) nella realta’ italiana u I Computing models degli esperimenti LHC gia’ presentati a Gennaio.
LNF Farm E. V. 9/8/2006. Hardware CE, LCFG, HLR, 3 WN: DL 360 1U; SE: DL 380 2U 5 WN: BL 25 P In totale 25 jobs general purpuse (coda Atlas) + una coda.
1 LHCb Computing Angelo Carbone, INFN-CNAF CSN1, 21/9/06 Aggiornamento richieste Tier Richiesta Tier-2 al CNAF Stato e risultati DC06.
CSN1-Assisi L.Perini1 BaBar Calcolo L. Perini per i referees: L.Perini,A.Staiano…
Tier-2 Tier-2 ATLAS (Osservazioni sulla proposta dei referee del calcolo LHC) Lamberto Luminari CSN1 – Roma, 3 Aprile 2006.
Gruppo di referaggio: Forti (chair), Bossi, Ferrari, Menasce, Morandin, Simone, Taiuti, Zoccoli TIER2: Update F. Bossi, CSN1 Trieste 7/7/05.
Stato del calcolo in BaBar e richieste per il 2004, F. Galeazzi, Giugno 2003 Calcolo in BaBar Stato e richieste al CSN1 per il 2004 presentato da F. Galeazzi.
Tier-2 ATLAS Tier-2 Lamberto Luminari CSN1 – Roma, 10 Ottobre 2005.
BaBar: stato ed utilizzo delle farms, F. Galeazzi, Settembre 2004, pag. 1 BaBar: stato ed utilizzo delle farms presentato da Fulvio Galeazzi a nome del.
CDF Calcolo Another brick in the wall Paolo Morettini CSN1 Lecce Valerio Vercesi Settembre 2003.
ATLAS: il calcolo Alessandro De Salvo A. De Salvo – 3 maggio 2013.
CNAF 6 Novembre Layout del testbed  wn a OS SL5.0 8 GB RAM kernel xen_3.1.0 SMP  wn a OS SL5.0 8 GB RAM kernel.
26 Giugno 2007CSN1 - Frascati1 Temi di attualità nella CCR Accanto alla tradizionale attività di controllo dei finanziamenti per le infrastrutture di calcolo.
Calcolo a LHC CB 23 maggio 2011 Quadro generale Gare CPU e disco.
D. Martello Dip. Fisica - Lecce Sintesi piani esperimenti CSN2 CNAF 7-marzo-2007.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Lecce 30 Settembre 2015.
Atlas Italia - Milano, 17/11/2009 G. Carlino – News dal Computing 1 1 News dal computing Gianpaolo Carlino INFN Napoli Atlas Italia, Milano, 17/11/09 Nuovo.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
1 referee-BaBar CSN I, LNF giugno 2007 RELAZIONE DEI REFEREE DI BaBar M.De Palma, C.Luci, C.Troncon, B.Gobbo(calcolo) 26 giugno 2007.
Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 1 ATLAS Attività di TeV Attività di computing Attività di computing.
Il primo anno di presa dati di LHC L’esperienza di calcolo nell’esperimento ATLAS Attività condotte nel 2010 e prospettive future Lorenzo Rinaldi (INFN-CNAF)
Roma, 13 Luglio 2010 G. Carlino – Referaggio Tier2 ATLAS 1 ATLAS Referaggio Tier2 Attività di TeV Attività di TeV Richieste 2011.
Referaggio sigla CALCOLO D. Bonacorsi, G. Carlino, P. Morettini CCR – Roma 9 Settembre 2014.
ATLAS e CMS Relazione dei referees A. Cardini, M. Grassi, G. Passaleva, A. Passeri, V.Vagnoni.
19 Ottobre 2012ATLAS Milano1 Stato delle risorse locali di calcolo L. Carminati, L. Perini, D. Rebatto, L. Vaccarossa.
Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 1 Referaggio Tier2 ATLAS Attività di Computing 2009 Attività di Computing 2009 Stato dei.
1 Firenze, 6 Settembre 2011 G. Carlino – Relazione Referaggi Computing ATLAS Relezione Riunioni Referaggio Calcolo ATLAS Computing Model News Computing.
ANALISI DISTRIBUITA IN ATLAS L’esperienza degli utenti Attilio Picazio Università di Napoli “Federico II” – INFN Napoli 18/05/11Attilio Picazio - Workshop.
ATLAS Relazione dei referees A. Cardini, M. Grassi, D. Lucchesi, G. Passaleva, A. Passeri.
1 referee-BaBar CSN I, Roma Gennaio 2008 RELAZIONE DEI REFEREE DI BaBar e SuperB M.De Palma, C.Luci, C.Troncon, B.Gobbo(calcolo),D. Pedrini
Uso della rete geografica e richieste di upgrade CCR 31/3/2015 (Roma) S.Zani.
Aggiornamento sui lavori di ampliamento degli impianti infrastrutturali del TIER1 e stato delle risorse Cristina Vistoli – Massimiliano Fiore INFN-CNAF.
ATLAS: il calcolo Alessandro De Salvo A. De Salvo – 5 settembre 2013.
1 ALICE I ITER2 DI ALICE IN ITALIA Bologna, 6 marzo 2007 M. Masera
Stato e previsione rete nelle sedi INFN Survey ed ipotesi di sviluppo fino al 2018 CCR 8-10 Settembre 2018 (Roma) 1 S.Zani (Netgroup)
G. Carlino – Referaggio Computing ATLAS 1 Napoli, 5 Luglio 2011 ATLAS Referaggio Tier2 Analisi Analisi Richieste Tier Richieste Tier Gianpaolo.
Il Computing di ATLAS Gianpaolo Carlino Referaggio LHC CNAF, 24 Luglio 2008 Il Computing Challenge I Tier2 I Tier2 Attività e Richieste 2009 Attività e.
Riunione CSN1, Roma, Gennaio 2012F. Bedeschi, INFN-Pisa 1 Riunione CSN1  Comunicazioni  Comunicazioni varie  Riunioni future  Similfellows  Regole.
Referaggio Calcolo ATLAS II Gianpaolo Carlino INFN Napoli Catania, 12 Settembre 2012 Risorse e Richieste 2013 nei preventivi Aggiornamento in seguito all’allungamento.
KLOE - Referee Paolo Checchia, Luca Lista, Ezio Menichetti, Pierluigi Paolucci con l’aiuto sostanziale di Luca dell’Agnello, Mauro Morandin CSN1.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Catania 1 Ottobre 2014.
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
ATLAS Distributed Computing e Data Management Alessandro De Salvo Outline 
Relazione referees di ATLAS, Ferrara Giugno Relazione referee di ATLAS  Raccomandazioni su sblocchi SJ e finanziamenti aggiuntivi 2008 Riunione.
ATLAS Italia – Sestri Levante, 15 Giugno 2010 G. Carlino – Richieste Run Efficiency = time for physics / total time LHC Efficiency = time with colliding.
1 Bari, 21 Settembre 2011 G. Carlino – ATLAS: il calcolo ATLAS: il Calcolo Attività di Computing nel 2011 Attività di Computing nel 2011 Richieste Tier2.
Il calcolo per l’esperimento GERDA Luciano Pandola INFN, Laboratori del Gran Sasso Riunione della CSN2, LNF Frascati, 29 Novembre 2011.
Calcolo ALICE1 Calcolo ALICE: stato e richieste Domenico Elia e Massimo Masera Referee Calcolo LHC / Pisa, Riunione con Referee Calcolo LHC Pisa,
L’infrastruttura del progetto ReCaS Paolo Lo Re on behalf of ReCaS collaboration.
Referaggio Calcolo ATLAS Gianpaolo Carlino INFN Napoli CNAF, 11 Maggio 2012 Attività di Computing ATLAS Attività di Computing in Italia Risorse e Richieste.
CNAF. storage Siamo in una fase di tuning con lo storage, che al momento sembra essere un collo di bottiglia 1.~10 giorni fa vista saturazione GPFS.
Report dalla CSN Settembre Sala dei Mappamondi - Torino Gianpaolo Carlino – CCR 25/10/2012.
ATLAS: il calcolo Alessandro De Salvo A. De Salvo – 25 maggio 2015.
ATLAS: il calcolo A. De Salvo A. De Salvo – 1 settembre 2015.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
CSN1 – Torino, 17 Maggio 2010 G. Carlino – ATLAS: Calcolo ATLAS Calcolo LHC 2011 Attività di TeV Attività di TeV Risorse.
Domenico Elia1 Calcolo ALICE: stato e richieste finanziarie (aggiornamenti) Domenico Elia Riunione Referee Calcolo LHC / Bologna, Riunione con.
Richieste preliminari calcolo non LHC
Stato Computing ATLAS Gianpaolo Carlino INFN Napoli
ATLAS: il calcolo Alessandro De Salvo
Transcript della presentazione:

CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 1 ATLAS Referaggio Tier2 Attività di TeV Attività di TeV Richieste 2012 Richieste 2012 Gianpaolo Carlino INFN Napoli CNAF, 13 Maggio 2011

G. Carlino – Referaggio Computing ATLAS 2 Computing Model news

CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 3 ATLAS Cloud Model Modello gerarchico basato sulla topologia di rete di Monarc Comunicazioni possibili: T0-T1 T1-T1 Intra-cloud T1-T2 Comunicazioni vietate: Inter-cloud T1-T2 Inter-cloud T2-T2 Limitazioni: Impossibile fornire una replica di dati per l’analsi ad ogni cloud Trasferimenti tra le cloud attraverso salti multipli tra I Tier1 User analysis outputs MC confinato nella cloud Tier2 non utilizzabili come repository di dati primari per il PD2P o di gruppo

CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 4 ATLAS Cloud(less) Model Breaking the Wall La rete attuale permette il superamento del modello Monarc: molti Tier2 sono già ben connessi con molti Tier1 Abilitazione delle connessioni inter cloud Superamento di una gerarchia stretta tra Tier1 e Tier2 Scelta dei Tier2 adatti alcuni Tier2 invece sono mal collegati anche con il proprio Tier1 Non tutti I Tier2 hanno le dimensioni e le performance necessarie

CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 5 Tier2 Diretti T2D – Tier2 “Directly Connected” Tier2 connessi direttamente tra di loro a tutti i Tier1 Storage per dati primari come i Tier1 Preplacement di una quota di dati Data source per il PD2P Group data Disponibilità di una quota di disco nei Tier1 come cache Requirement molto stretti Metriche di trasferimento con tutti I Tier1 Livello di commitment e relibility adeguato Avg(Byterate)+StD(Byterate) SMALL<0.05MB/s<0.1MB/s≥0.1MB/s MEDIUM<1MB/s<2MB/s≥2MB/s LARGE<10MB/s<15MB/s≥15MB/s T2D approvati: INFN-NAPOLI- ATLAS, INFN-MILANO-ATLASC, INFN-ROMA1 IFIC-LCG2, IFAE, UAM-LCG2 GRIF-LPNHE, GRIF-LAL, TOKYO-LCG2 DESY-HH, DESY-ZN, LRZ-LMU, MPPMU MWT2_UC,WT2, AGLT2,BU_ATLAS_Tier2, SWT2_CPB UKI-LT2-QMUL, UKI-NORTHGRID-LANCS-HEP, UKI-NORTHGRID-MAN-HEP, UKI-SCOTGRID-GLASGOW Siti che faranno parte da subito di LHCOne

CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 6 PD2P update Placement dinamico dei dati in base alla loro popolarità 2010 buoni risultati di ottimizzazione dello spazio disco Diminuzione delle repliche pre-placed Trasferimento solo di dati utili per l’analisi Spazio disco ai Tier2 in gran parte usato come cache Ristretto ai trasferimenti intra-cloud T1  T Cancellazione dei cloud boundaries: trasferimenti infra-cloud Extra repliche in base al reutilizzo dei dati già trasferiti e al numero di richieste di accesso al singolo dataset Trasferimenti anche tra Tier1 Dati trasferiti: AOD e D3PD molto più leggeri degli ESD del 2010  diminuzione della banda occupata Concern il brokering dei dati e dei job di analisi in Panda sembra stia favorendo troppo i Tier1 a scapito dei Tier2. Il mese di maggio sarà analizzato per verificare la bontà del modello e il tuning necessario. Prima azione: preplacemente di una frazione di dati nei T2D

CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 7 Attività di computing e performance

CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS /11 LHC pp data taking 2010 Lumonsità Integrata ~ 43 pb -1 Luminosità di picco = 2.07x10 32 cm -2 s (aggiornato al 9 maggio) Lumonsità Integrata ~ 279 pb -1 Luminosità di picco = 8.84x10 32 cm -2 s -1 (μ=6)

CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS /11 LHC pp data taking TB Logical data Physical data

CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS LHC – Data Distribution inizio presa 7 TeV 2010 pp reprocessing MB/s per day AVERAGE:2.3 GB/s MAX 7.5 GB/s AVERAGE:2.3 GB/s MAX 7.5 GB/s MarzoAprileMaggioGiugnoFebbraioGennaio LuglioAgostoSettembreOttobreNovembreDicembre Reprocessing dati e MC Reprocessing MC Reprocessing dati 2009 PbPb Presa dati e produzione EFFICIENCY: 100% (including retries) EFFICIENCY: 100% (including retries) Dati disponibili nei siti dopo poche ore

CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS LHC – Data Distribution inizio presa 7 TeV MB/s per day AVERAGE:2.2 GB/s MAX 5.1 GB/s AVERAGE:2.2 GB/s MAX 5.1 GB/s MarzoAprileMaggioFebbraioGennaio PbPb reprocessing

CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS LHC – Data Distribution MB/s per day Produzione transf. dati da produzione interni alle cloud Tier-0 export flusso dati da tier0 include calibration streams Sottoscrizioni utenti Data consolidation Transf. dati tra Tier1 extra-cloud Functional test GennaioFebbraioMarzoAprileMaggioGiugnoLuglioAgostoSettembreOttobreNovembreDicembre Attività Data brokering trasf. Dinamico dati analisi Data brokering soprattutto di ESD  alto throughput

CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS LHC – Data Distribution MB/s per day Produzione transf. dati da produzione interni alle cloud Tier-0 export flusso dati da tier0 include calibration streams Sottoscrizioni utenti Functional test GennaioFebbraioMarzoAprileMaggio Attività Data consolidation Transf. dati tra Tier1 extra-cloud Data brokering trasf. Dinamico dati analisi Data brokering solo formati leggeri (AOD, NTUP)  basso throughput

CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS LHC – Data Distribution in IT Marzo Aprile MaggioGiugno Luglio Agosto SettembreOttobre Novembre Dicembre MB/s per day AVERAGE:195 MB/s MAX 900 MB/s AVERAGE:195 MB/s MAX 900 MB/s 400 TB 2010 MarzoAprileMaggioGennaio Febbraio

CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS LHC – Data Distribution in IT TB 2011 MarzoAprileMaggioGennaio Febbraio MB/s per day AVERAGE:111 MB/s MAX 400 MB/s AVERAGE:111 MB/s MAX 400 MB/s

CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 16 Reprocessing ai Tier pp reprocessing HI repro HI repro Previsioni per il 2011 Agosto – Settembre: campagna di reprocessing di tutti i dati pp Durata qualche mese μ repro μ repro HI merging HI merging

CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 17 HI repro  repro Al CNAF HI: 40k jobs, 38 TB in 13 gg Mu: 3.5k jobs, 9.3 TB in 2gg Fast: 1.2k jobs, 1.5 TB in 1g Elevato numero jobs al cnaf, impiego massiccio delle risorse. Nessun problema di tape recall Reprocessing ai Tier1 HI reproHI merge  repro

CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 18 Produzione in ATLAS Numero medio di jobs di produzione running per cloud > 50k job simultanei. Produzione: Ricostruzione (T1), Simulazione e Analisi di gruppo (produzione centralizzata di D3PD in alcuni gruppi) Previsione simulazione MC 2011: 1000M fullsim 2012: 600M full M fast

CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 19 Produzione in ATLAS Numero medio di jobs di analisi running per cloud > 10k job simultanei. Picchi nel periodo delle conferenze Riduzione analisi nel Aumento attività analisi di gruppo: aumento della coordinazione. Minore caoticità e duplicazione dei dati centralizzazione della produzione: in molti casi accountata come produzione

CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 20 Utilizzo risorse in Italia WCT consumptions dei job di produzione. Giugno 2010 – Maggio 2011 Share della cloud inferiore a quello del CNAF: inferiori risorse nei Tier2 risorse 2010 appena installate

CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 21 Utilizzo risorse in Italia WCT consumptions dei job di produzione. Giugno 2010 – Maggio 2011 Lo share minore di Milano è dovuto soprattutto al ritardo delle ultime installazioni di CPU dovute a grossi problemi con l’installazione di uno storage difettoso e alla contemporanea diminuzione (temporanea) del personale scelta di privilegiare l’analisi per favorire l’ampia comunità di riferimento Il Tier3 di RM tre ha messo a disposizione per ATLAS circa cento cores da febbraio. Quando libere utilizzate dai job di produzione

CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 22 Utilizzo risorse in Italia WCT consumptions dei job di analisi. Giugno 2010 – Maggio 2011 I Tier3 per l’analisi vengono utilizzati solo per l’interattivo e non compaiono nell’accounting di Panda

CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 23 Utilizzo risorse in Italia Job running su un Tier2 nell’ultimo mese codice colori: Produzione Analisi WMS Analisi Panda Analisi Panda ruolo italiano (Gli italiani vengono mappati sia su panda che su panda/it) Job running su un Tier2 nell’ultimo mese codice colori: Produzione Analisi WMS Analisi Panda Analisi Panda ruolo italiano (Gli italiani vengono mappati sia su panda che su panda/it) Sharing delle risorse tra i ruoli nei Tier2 Produzione vs Analisi (WCT)

CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 24 Utilizzo risorse al CNAF Monitor CNAF Bassa efficienza CPT/WCT (istrogramma) da aprile per problemi di accesso al DB di alcuni job di analisi che rimanevano incastrati Risorse ATLAS al CNAF: Pledge 2010: HS06 Pledge 2011: HS06 (previsione installazione settembre 2011) MAXAV WCT (HS day) CPT (HS day)

CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 25 Utilizzo risorse al CNAF Monitor CNAF Risorse ATLAS al CNAF (250 giorni): usato: ~ 50 M HS assegnato: ~ 40 M HS ATLAS 32% ATLAS ha beneficiato della bassa attività di alcune VO soprattutto nel 2010

CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 26 Utilizzo risorse al CNAF Occupazione DATADISK spacetoken Utilizzo dei dati TB e numero di file non utilizzati vs time

CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 27 Reliability & Availability – 2010/11 Availability = time_site_is_available/total_time Reliability = time_site_is_available/ (total_time-time_site_is_sched_down)

Roma, 13 Luglio G. Carlino – Referaggio Tier2 ATLAS Tier2 Frascati – risorse WORKER NODES - LNF # WNTipoProcessore# CPUcore/CPU# core fisici# job slotsRAMHEP SPEC boxHEP SPECData acquistostatoData dismissione 31U Xeon 2.8 GHz21222 GB9,6328,89 apr-04 off Blade Opteron GHz22444 GB31,13 gen-06 server Blade Opteron GHz22444 GB31,13 gen-06 server Blade Opteron GHz22444 GB31,1362,26 gen-06 server Blade Opteron GHz22444 GB31,1362,26 gen-06 off Blade Xeon E GHz GB72,12216,36 gen-08 on obs12 4Blade Xeon E GHz GB72,12288,48 apr-08 on obs12 1Blade Xeon E GHz GB72,12 gen-09 on obs12 6Twin Xeon E5520 2,27 Hz GB92,83556,98 gen-10 on 4Twin Xeon E5620 2,4 GHz GB98,95395,80 mar-11 on 8Twin Xeon E5620 2,4 GHz GB98,95791,60 apr-11 new11 18 totale now ,7 26 totale ,3 off ,3obsol ,0 STORAGE - LNF Tipo# BoxDischiTB/DiscoTBrTBn# ServerDataStatoData 1DAS 1 2,21,4 apr-04off2009 2FC2SATA 1170,46,54,8 1 dic-05off2010 3FC2SATA 1180,46,85,1dic-06off2010 4FC2SATA gen-08on giu-08on 5FC2SATA apr-10on 6FC2SATA lug-10on new new12 tot now 192,0156,04 tot ,0258,05 obs off 20110obsol 20120

Roma, 13 Luglio G. Carlino – Referaggio Tier2 ATLAS Tier2 Frascati – accounting risorse

Roma, 13 Luglio G. Carlino – Referaggio Tier2 ATLAS Tier2 Milano – risorse WORKER NODES - MI # WN Processore# CPUcore/CPU# core fisici# job slotsRAMHEP SPEC boxHEP SPECData acquistostatoData dismissione 101U Xeon 2.4 GHz21221 GB0,00 giu-03 off U Xeon 2.4 GHz21221 GB0,00 giu-03 off U Xeon 2.8 GHz21223 GB9,6328,89 gen-04 off U Xeon 2.8 GHz21223 GB9,63125,19 gen-04 off U Opteron GHz22444 GB31,13124,52 gen-06 on obs 11U Xeon GHz22444 GB45,30 mar-07 server U Xeon GHz22444 GB45,30 mar-07 on obs12 21U Xeon E ,83 GHz GB73,74147,48 gen-08 on obs12 31U Xeon E ,83 GHz GB73,74221,22 gen-08 proof obs12 291U Xeon 3,0 GHz21224 GB10,32299,22 apr-08 off U Xeon 3,0 GHz21224 GB10,32237,31 apr-08 off U Xeon 3,0 GHz21224 GB10,32206,36 apr-08 server obs 8Twin Xeon L GHz GB65,65525,20 dic-08 on 12Twin Xeon E5520 2,27 GHz GB92,831113,96 gen-10 on 10Twin Xeon E5520 2,27 GHz GB92,83928,30 mar-10 on 14Twin Xeon E5620 2,4 GHz GB102,21430,80 apr-11 on 4Quad Xeon E5650 2,7 GHz GB162,81651,24 new11 22Twin Xeon E5645 2,4 GHz GB144,723183,84 new11 51 totale now ,6 73 totale ,8 obsol ,9 off 20110obsol ,0 STORAGE - MI Brand# BoxDischiTB/DiscoTBrTBn# Server Data 1Infortrend 2240,524,015,61gen-06onobs 2Xyratex ,0381?onobs12 5DotHill giu-08on 18 6DotHill dic-08on 18 7DotHill dic-08on 18 8DotHill mar-10on 9Hitachi apr-11on new new12 tot now 808,0667,612 tot ,0856,016 obs ,6 obsol

Roma, 13 Luglio G. Carlino – Referaggio Tier2 ATLAS Tier2 Milano – accounting risorse

Roma, 13 Luglio G. Carlino – Referaggio Tier2 ATLAS Tier2 Napoli – accounting risorse

Roma, 13 Luglio G. Carlino – Referaggio Tier2 ATLAS Tier2 Napoli – accounting risorse WORKER NODES - NA # WN Processore# CPUcore/CPU# core fisici# job slotsRAMHEP SPEC boxHEP SPECData acquistostatoData dismissione 11U Xeon 2.8 GHz21222 GB9,63 dic-03 off U Xeon 2.8 GHz21222 GB9,6357,78 dic-03 off U Opteron 250 GHz21224 GB16,28 dic-05 off U Opteron 250 GHz21224 GB16,28146,52 dic-05 on obs 3Blade Xeon GHz22448 GB26,3979,17 dic-06 off Blade Xeon GHz22448 GB26,39184,73 dic-06 on obs 5Blade Xeon E5430 2,66 GHz GB72,12360,60 gen-08 on obs12 6Blade Xeon E5430 2,66 GHz GB72,12432,72 apr-08 on obs12 5Blade Xeon E5430 2,66 GHz GB72,12360,60 ott-08 on obs12 8Twin Xeon E5420 2,5 GHz GB70,77566,16 gen-09 on 16Twin Xeon E5520 2,27 Hz GB92,831485,28 gen-10 on 20Twin Xeon E5620 2,4 GHz GB98,951979,00 mar-11 on 20Twin Xeon E5645 2,4 GHz GB144,722894,40 new11 76 totale now ,6 80 totale ,8 obsol ,3 off 20110obsol ,9 STORAGE - NA Tipo# BoxDischiTB/DiscoTBrTBn# Server Data 1? 1160,58,05,41dic-05offgiu-09 2IBM 4160,53224,72dic-06offapr-11 3DotHill giu-08on 18 4DotHill giu-08on 18 5DotHill dic-08on 18 6DotHill dic-08on 18 7DotHill mar-10on 8Hitachi mar-11on new new12 tot now 792,0660,016 tot ,0864,020 obs off 20110obsol 20120

Roma, 13 Luglio G. Carlino – Referaggio Tier2 ATLAS Tier2 Roma1 – risorse STORAGE - RM Brand# BoxDischiTB/DiscoTBrTBn# ServerDataStatoData 1? 1160,406,45,121dic-05offgiu-09 2? 1480,5024,018,141dic-06onobs 3DotHill gen-08on 181giu-08on 4DotHill giu-08on 18 5DotHill dic-08on 18 6DotHill dic-08on 18 7DotHill mar-10on 21apr-11on 8Hitachi mar-11on new new12 tot now 816,0678,117 tot ,0864,020 obs ,14 off 20110obsol WORKER NODES - RM # WN Processore# CPUcore/CPU# core fisici# job slotsRAMHEP SPEC boxHEP SPECData acquistostatoData dismissione 141U Xeon 2.8 GHz21222 GB9,63134,82 dic-03 off U Opteron GHz22448 GB30,10180,60 off U Xeon GHz22448 GB41,31 dic-06 off U Xeon GHz22448 GB41,31247,86 dic-06 on obs 14Twin Xeon E GHz GB67,86950,04 gen-08 on obs12 8Twin Xeon E GHz GB67,86542,88 set-08 on obs12 6Twin Xeon E GHz GB70,87425,22 gen-09 on 14Twin Xeon E5520 2,27 Hz GB92,831299,62 dic-09 on 4Twin Xeon E5520 2,27 Hz GB92,83371,32 giu-10 on 8Twin Xeon E5620 2,4 GHz GB102,2817,60 feb-11 on 24Twin Xeon E5645 2,4 GHz GB144,723473,28 new11 60 totale now ,5 76 totale ,0 obsol ,9 off 20110obsol ,9

Roma, 13 Luglio G. Carlino – Referaggio Tier2 ATLAS Tier2 Roma1 – accounting risorse

Roma, 13 Luglio G. Carlino – Referaggio Tier2 ATLAS 36 Richieste 2012

CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 37 Modifica della stima delle risorse necessarie rispetto alle previsioni del 2010 a causa di: o variazioni dell’attività di LHC: run 2012 e shut-down 2013 richiedono un maggior numero di risorse per il computing o pile-up molto più alto del previsto (μ=6 ora e μ=15 previsto in autunno) provocato dall’aumento della densità dei fasci raddoppio delle dimensioni degli eventi e del tempo di ricostruzione: 100 HS-sec determinato dai dati 2010 raddoppiato a 200 HS-sec Risorse 2011 già determinate per cui si è reso necessario modificare il CM, in particolare riducendo il numero di repliche dei dati primari nelle cloud: 1 copia di RAW nei Tier1 rolling buffer del 10% di ESD nei Tier1 10 copie di AOD (2 Tier1 e 8 Tier2) in tutte le cloud 2 copie di dESD nei Tier1 e 4 nei Tier2 somma dESD = somma AOD in base a questo modello le risorse 2012 aumentano molto poco o nulla rispetto all’RRB 2010 Richieste 2012

CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 38 Computing Model – Input parameters Dimensioni degli eventi raddoppiate a causa del pileup

CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 39 Computing Model – Input parameters

CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 40 Risorse attività Tier2 Attività principali: Simulazione e analisi di gruppo e di utente. Simulazione e analisi di gruppo condivise con i Tier1. leggero aumento rispetto al 2011 per l’attività degli utenti. In assoluto aumenti molto contenuti grazie alla modifica del Computing Model. Richieste identiche a quelle effettuate nell’RRB 2010!!!!  Simulazione: 10% di ATLAS 5600 HS  Attività gruppi: 8 gruppi (2 gruppi a Milano, Napoli e Roma e 2 nuovi gruppi a Frascati) su ~ 100 gruppi ATLAS HS  Analisi ATLAS: 10% di ATLAS (quota “pledged” escludendo l’attività italiana) HS  Analisi Italiana: quota aggiuntiva ai pledged per attività italiana (1/2 della quota pledged) 9000 HS

CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 41 Risorse attività Tier2  Simulazione: 50% di una replica completa di AOD e dESD 1000 TB + 60 TB (buffer produzione)  dati LHC: 50% di una replica completa di AOD e dESD per l’analisi 1313 TB  Attività gruppi: 8 gruppi (2 gruppi a Milano, Napoli e Roma e 2 nuovi a Frascati) 600 TB (70 TB per gruppo)  Analisi Italiana: 20 attività italiane. Spazio non “pledged” (LOCALGROUPDISK). ATLAS non include queste necessità nei suoi conti 600 TB (~30 TB per gruppo) + 80 TB (area scratch per utenti generici)

Roma, 13 Luglio 2010 G. Carlino – Referaggio Tier2 ATLAS 42 Risorse attività Tier2 - riepilogo Attività CPU (HS06) Disco (TBn) LHC data taking 1313 Simulazione Gruppi ATLAS Analisi Analisi IT Totale T2 Italia T2 ATLAS T2 It/ATLAS CPU (kHS06) 28, % 9,0 Disco (PBn) 3,05496,2% 0,6 Nel nuovo modello di calcolo di ATLAS per i Tier2 acquista maggiore importanza la disponibilità di CPU rispetto allo storage. Utile per la competitivita’ dei siti conservare le stesse pledge 2010 per il disco (~6%) aumentare quelle delle CPU a ~10% come al CNAF

Roma, 13 Luglio 2010 G. Carlino – Referaggio Tier2 ATLAS 43 Richieste Tier Per la stima dei costi necessari per server e rete ci si è attenuti all’algoritmo Bozzi: Server: 10% Disco e CPU Rete: 8% Disco e CPUCPUDiscoServerRete HS06K€TBnK€ Necessità attività Risorse disponibili Richieste  CPU: 18 €/HS06  Disco: 440€/TBn Per la stima dei costi di CPU e Disco si è considerata l’esperienza delle ultime gare e le analisi di mercato che continuiamo a svolgere CPU (HS06) Disco (TBn) Frascati Milano Napoli Roma Tot Risorse disponibili Le risorse 2011 includono le previsioni di acquisto delle gara storage ancora non terminata La gara CPU svolta al CNAF è terminata con un risparmio notevole non riutilizzabile perché nel bilancio 2010 Richieste

Roma, 13 Luglio 2010 G. Carlino – Referaggio Tier2 ATLAS 44 Richieste Tier Dettaglio per Tier2 è in corso la validazione di Frascati come Tier2 ufficiale  pieno supporto del Direttore dei Laboratori e del gruppo  lavori infrastrutturali in corso  riunione dedicata a breve divisione delle risorse in parti uguali tra i 4 Tier2 a parte piccoli aggiustamentiCPUDiscoReteServerTotaleCons. HS06K€TBnK€ Frascati , Milano , Napoli , Roma , Tot 11140obs265810obs Le risorse acquistate nel 2008 per le CPU e precedenti per il disco vanno considerate obsolete nel 2012 e sostituite da nuove: (obs) nelle colonne HS06 e TBn. Il dettaglio per ogni Tier2 è presente nelle tabelle consegnate ai referee

Roma, 13 Luglio 2010 G. Carlino – Referaggio Tier2 ATLAS 45 Richieste 2012 Tier1 Pledge2011 T1 ATLAS 2012 CNAF 2012 Δk€CPU(kHS06) 18.5 (8%) (10%) Disco(PBn) 2.25 (9%) (10%) Il nuovo Modello di Calcolo ha limitato significativamente le risorse richieste nel 2012 per adattarsi alle risorse disponibili nel 2011 Le risorse da acquistare nel 2012 sono di dimensioni modeste per cui chiediamo un aumento al 10% dello share del Tier1 Attualmente per il CNAF è previsto uno share del 10% dei dati prodotti Preoccupazione che il disco al CNAF e ai TIer1 sia realmente sufficiente visto il rate di presa dati

Roma, 13 Luglio 2010 G. Carlino – Referaggio Tier2 ATLAS 46 Gare 2011/12 E’ molto importante avere le risorse necessarie nel 2012 disponibili per il primo Aprile 2012 Se l’INFN ha disponibilità per finanziamenti nel bilancio 2011 è opportuno che le gare partano subito Priorità degli acquisti Disco al Tier1. CPU al Tier1 e ai Tier2 Disco ai Tier2 In caso di disponibilità di fondi limitati nel 2011 ma comunque sufficienti ad espletare una gara, proponiamo di dare alta priorità all’acquisizione del nuovo storage. Con le risorse attuali sarà assolutamente impossibile sostenere gran parte della presa dati 2012 a meno di non ridimensionare significativamente il peso del CNAF in ATLAS