Calcolo a LHC Concezio Bozzi, INFN Ferrara per il gruppo di referaggio: F. Bossi, CB, R. Ferrari, D. Lucchesi, D. Martello, [M. Morandin], S. Pirrone,

Slides:



Advertisements
Presentazioni simili
E835 & Hera-B Concezio Pisa, 21/12/2004. E835 (aka Jet-FNAL) timeline dell'esperimento –Presa dati conclusa nel Alcune analisi tuttora in corso.
Advertisements

P. Capiluppi Organizzazione del Software & Computing CMS Italia I Workshop CMS Italia del Computing & Software Roma Novembre 2001.
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
Grid Computing Sergio Andreozzi (INFN-CNAF). A chi interessano i dati prodotti da LHC? Circa 5,000 scienziati –sparsi nel mondo –appartenenti ad istituzioni/università
Alessia Tricomi Università & INFN Catania
L. Perini Riunione CSN1, Frascati Il Calcolo di CDF: Relazione dei referees Fabrizio Gagliardi, Laura Perini e Valerio Vercesi.
CMS RPC R&D for phase 2 Two types of upgrades proposed for the CMS RPC muon system: 1.Aging and longevity: installed in 2007, must continue to operate.
3 Aprile CSN1 P. Capiluppi Tier2 CMS Italia.
16 Maggio CSN1 Computing-Software-Analysis CMS-INFN TEAM Analisi in CMS: stato e prospettive del supporto italiano.
CMS RPC R&D for phase 2 Two types of upgrades proposed for the CMS RPC muon system: 1.Aging and longevity: installed in 2007, must continue to operate.
G. Martellotti Roma RRB 16 Aprile Presentazione M&O cat A (per LHCb i M&O cat B sono gestiti autonomamente e non sono scrutinati fino al 2005/2006)
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
1 M&O cat A - consuntivo provvisorio modifica del preventivo 2004 M&O cat B ancora non sono previsti. (saranno presentati al RRB di Aprile) Profili.
Condor standard. Sistema Batch. Tool di installazione D. Bortolotti,P.Mazzanti,F.Semeria Workshop Calcolo Paestum 9-12 Giugno 2003.
CSN Maggio 2005 P. Capiluppi Il Computing Model (LHC) nella realta’ italiana u I Computing models degli esperimenti LHC gia’ presentati a Gennaio.
Comunicazioni La storia trasparente della CSN1 Sanzioni in arrivo per l’arcicattivo: Zoccoli: HERA-B A Luglio ti puniremo ! E ora bisogna.
CSN1-Assisi L.Perini1 BaBar Calcolo L. Perini per i referees: L.Perini,A.Staiano…
Gruppo di referaggio: Forti (chair), Bossi, Ferrari, Menasce, Morandin, Simone, Taiuti, Zoccoli TIER2: Update F. Bossi, CSN1 Trieste 7/7/05.
M. Morandin 1 CCR – 20/10/05 Introduzione. M. Morandin 2 CCR – 20/10/05 Sommario ● Mandato della CCR ● Missione principale ● Funzionamento ● Riunioni.
EPSI Relazione dei referee Maria Curatolo Anna Di Ciaccio Valerio Vercesi CSN1 - Assisi Settembre 2004.
Il calcolo LHC in Italia: commenti Gruppo di referaggio Forti (chair), Belforte  Bossi, Menasce, Simone, Taiuti, Ferrari, Morandin, Zoccoli.
- Referees LHCB-CSN1 02/061 LHCB : proposte dei referees Giovanni Batignani Roberto Ferrari Chiara Meroni Rosario Nania.
6/4/2004 S. Patricelli - CSN1 - Roma 1 Preparazione RRB di Aprile Addendum al MoU per HLT/DAQ (CERN-RRB )* Consuntivi 2003 M&O (CERN-RRB
Calcolo LHC Francesco Forti, Università e INFN – Pisa Per il gruppo di referaggio: F. Bossi, C. Bozzi, R. Carlin, R. Ferrari, F.F., D.Martello, M.Morandin,
CSN M. Diemoz CMS – RRB24 SOLDI INVESTITI BENE...
SUMMARY Transmission and distribution of the electric energy RIEPILOGO Trasmissione e distribuzione dell’energia elettrica RIEPILOGO Trasmissione e distribuzione.
STATO DEI PROGETTI TIER2 F. Bossi CCR, Roma, 20 Ottobre 2005 ( per il gruppo di referaggio)
CDF Calcolo Another brick in the wall Paolo Morettini CSN1 Lecce Valerio Vercesi Settembre 2003.
M. Sozzi Referaggio calcolo “non-LHC” Referaggio calcolo CSN1 “non-LHC” M. Sozzi.
24 Sett. 04Totem -Relazione dei referee1 CSN1 - Assisi 24/09/2004 TOTEM Relazione e proposte finanziarie Referee: G: Chiefari, M. Curatolo, M. de Palma.
Presentazione documenti inviati al RRB e piani futuri Commissione Scientifica Nazionale I 13 ottobre 2003 S. Patricelli Punti principali in discussione.
Review dei Tier-2 degli esperimenti LHC S.Pirrone INFN-Sezione di Catania per il gruppo dei referee CNS Giugno 2014 LNGS.
Storage (ieri, oggi e domani) Luca dell’Agnello INFN-CNAF.
BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015.
Referaggio apparati di rete 2012 Sessione giugno Gruppo referee rete Fulvia Costa Enrico Mazzoni Paolo Lo Re Stefano Zani Roma, CCR
26 Giugno 2007CSN1 - Frascati1 Temi di attualità nella CCR Accanto alla tradizionale attività di controllo dei finanziamenti per le infrastrutture di calcolo.
Calcolo a LHC CB 23 maggio 2011 Quadro generale Gare CPU e disco.
D. Martello Dip. Fisica - Lecce Sintesi piani esperimenti CSN2 CNAF 7-marzo-2007.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Lecce 30 Settembre 2015.
Riunione CSN1, Roma, Giugno 2015F. Bedeschi, INFN-Pisa 1 Riunione CSN1 F. Bedeschi, Roma, Giugno 2015  Sommario  Comunicazioni  Premiali 2014  MOF-LHC.
CCR – 9 Settembre 2014 R.Fantechi, M.Gulmini, S.Parlati.
Claudio Grandi Comunicazioni Claudio Grandi INFN Bologna.
Referaggio sigla CALCOLO D. Bonacorsi, G. Carlino, P. Morettini CCR – Roma 9 Settembre 2014.
19/4/2013 D. Menasce, M. Serra - Referaggio Progetti INFRA e WLCG 1.
Calcolo LHC Francesco Forti, Università e INFN – Pisa Per il gruppo di referaggio: F. Bossi, C. Bozzi, R. Carlin, R. Ferrari, D.Martello, M.Morandin, S.Pirrone,
Referaggio delle richieste dei gruppi di lavoro G. Ambrosi, R. Fantechi, M. Gulmini, O. Pinazza Commissione Calcolo e Reti, LNF, 5-7 Ottobre 2011.
1 referee-BaBar CSN I, Roma Gennaio 2008 RELAZIONE DEI REFEREE DI BaBar e SuperB M.De Palma, C.Luci, C.Troncon, B.Gobbo(calcolo),D. Pedrini
1 ALICE I ITER2 DI ALICE IN ITALIA Bologna, 6 marzo 2007 M. Masera
19/4/2013 D. Menasce, M. Serra - Referaggio Progetti INFRA e WLCG 1.
Riunione CSN1, Roma, Gennaio 2012F. Bedeschi, INFN-Pisa 1 Riunione CSN1  Comunicazioni  Comunicazioni varie  Riunioni future  Similfellows  Regole.
Referaggio Calcolo ATLAS II Gianpaolo Carlino INFN Napoli Catania, 12 Settembre 2012 Risorse e Richieste 2013 nei preventivi Aggiornamento in seguito all’allungamento.
P. Morettini. Organizzazione della CCR Le principali attività della CCR consistono da un lato nell’assegnazione di fondi per le infrastrutture di rete.
CMS Relazione dei referees F. Bedeschi, A. Cardini, M. Grassi, D. Lucchesi, G. Passaleva.
G. Maggi 24/1/2006 Il Progetto del TIER2 di Bari Giorgio Maggi.
The INFN Tier-1: progetto di ampliamento Cristina Vistoli – INFN CNAF Referee Meeting Sep
10 Ottobre CSN1 P. Capiluppi Tier2 CMS Italia 3Bari  In comune con Alice 3Legnaro  In comune con Alice 3Pisa 3Roma1  In comune con Atlas Sedi.
Referee ALICE C.Agodi, D.Calvo, A.Di Ciaccio, P.Iaselli, S.Pirrone CSN3 – Torino, 17 - settembre 2013.
ATLAS Italia – Sestri Levante, 15 Giugno 2010 G. Carlino – Richieste Run Efficiency = time for physics / total time LHC Efficiency = time with colliding.
L’infrastruttura del progetto ReCaS Paolo Lo Re on behalf of ReCaS collaboration.
PROGETTO Infra infn-grid Maria Cristina Vistoli INFN – CNAF.
Futuro di EGI EGI è menzionato esplicitamente nel draft delle nuove calls EU ( H2020 ) Da ultima versione (per me) data 18-9 di –HORIZON 2020 – WORK PROGRAMME.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
CSN1 - CMS Referee Report P.Giannettii - INFN / Pisa Ferrara, 20 maggio 2007 CMS - Relazione dei Referee G. Bruni, A. Cardini, P. Giannetti, M. Grassi,
ATLAS computing Roberto Carlin Commissione I Roma 1/7/08 F. Bossi, C.Bozzi, R. Carlin, R. Ferrari, D. Lucchesi, D. Martello, M. Morandin, M. Taiuti.
Calcolo a LHC Concezio Bozzi, INFN Ferrara
I costi del Calcolo LHC un update –
Richieste preliminari calcolo non LHC
Assegnazione risorse Stato INFN CNAF,
ONEDATA - distributed data caching -
La richiesta si basa sulle seguenti considerazioni:
Transcript della presentazione:

Calcolo a LHC Concezio Bozzi, INFN Ferrara per il gruppo di referaggio: F. Bossi, CB, R. Ferrari, D. Lucchesi, D. Martello, [M. Morandin], S. Pirrone, M. Taiuti Parma, 22 settembre 2010 Sommario: Utilizzo delle risorse Il calcolo in Italia –Tier1 e piano relativo –Richieste e proposte Tier2

Large numbers of analysis users CMS ~500, ATLAS ~1000, LHCb/ALICE ~200 Use remains consistently high – 1 M jobs/day; 100k CPU- days/day WLCG Usage 1 M jobs/day LHCb CMS 100k CPU-days/day ALICE: ~200 users, 5-10% of Grid resources

Data distribution ATLAS: Total throughput T0-T1; T1-T1; T1-T2 CMS: T0 – T1 LHCb: T0 – T1

Uso delle risorse (CERN+T1) ALICECMS installed capacity (inc. efficiency factor) ATLASLHCb MoU commitment (inc. efficiency factor)

Qualche paragone CERN CNAF IN2P3 FZK

Qualche paragone CERNCNAF IN2P3 FZK

Dove calcolano gli esperimenti?

Significant use of Tier 2s for analysis – frequently-expressed concern that too much analysis would be done at CERN is not reflected CPU – July Tier 0 capacity underused in general – But this is expected to change as luminosity increases

Need to adapt to changing technologies – Major re-think of storage and data access – Use of many-core CPUs (and other processor types?) – Virtualisation as a solution for job management Brings us in line with industrial technology Integration with public and commercial clouds Network infrastructure – This is the most reliable service we have – Invest in networks and make full use of the distributed system Grid Middleware – Complexity of today’s middleware compared to the actual use cases – Evolve by using more “standard” technologies: e.g. Message Brokers, Monitoring systems are first steps But: retain the WLCG infrastructure – Global collaboration, service management, operational procedures, support processes, etc. – Security infrastructure – this is a significant achievement both the global A&A service and trust network (X509) and the operational security & policy frameworks Ian Bird, CERN11 Evolution and sustainability

Situazione attuale Gare 2010: completamento dell’installazione della seconda opzione per CPU e prima opzione disco –Totale: 5M€! Ulteriore impegno di stanziamento Tier1 di 1.5M€, specificamente per esperimenti LHC –Le CSN1 e 2 integrano per gli esperimenti non LHC e per il Tier2 di LHCb Il centro funziona bene, ma le risorse arrivano sempre con un po’ di ritardo –Meno calcolo in tarda primavera anche a causa della mancanza di spazio disco

Uso CPU Tier1

Piano di sviluppo del Tier1 Ne abbiamo già discusso a maggio Le risorse determinate all’RRB per il 2011 sono state riscalate –suddivisione per esperimento, con percentuale basata su frazione italiana di collaboratori: ALICE 19%, ATLAS 10%, CMS 13%, LHCb 15% Abbiamo preso il minimo tra quanto risultante dall’algoritmo e quanto effettivamente richiesto dall’esperimento Abbiamo recepito i risultati del referaggio del calcolo degli esperimenti non LHC (possibili piccoli aggiustamenti per gli esperimenti di CSN2) Abbiamo applicato i consueti fattori di overlap (20% CPU, 10% disco) Teniamo conto del rimpiazzo di hardware obsoleto (acquisti 2007) Teniamo conto degli acquisti effettivamente effettuati nel 2010 (più hardware a parità di costo) Utilizziamo i costi unitari stimati dalla CCR: 22k€/kHS06, 0.65k€/TBn Le necessità di disco per il 2011 possono essere soddisfatte con l’opzione 2 della gara 2010 –C’è disponibilità finanziaria e si evita di imbastire una nuova gara Per le CPU occorre effettuare una nuova gara –Con il coinvolgimento dei Tier2

Il piano per il Tier1

Suddivisione delle risorse

Pledge Tier1 per WLCG Per il 2011 mettiamo quanto previsto dal piano Per il 2012 riduciamo di circa il 10% Warning: la pledge del nastro implica l’acquisto di una nuova libreria o di nuovi driver. È davvero necessario? CNAF

Evoluzione temporale CPU Disco Nastro

Tier2 in Italia

Uso CPU T2 ATLAS “Frascati”Milano NapoliRoma

Uso CPU T2 CMS “Bari” (con ALICE)LNL (con ALICE) PisaRoma Condividere risorse ottimizza l’efficienza!

Tier2: proposte di assegnazione Costi unitari: come per il Tier1 Overhead per rete e server aggiuntivi: abbiamo aggiornato i coefficienti dell’algoritmo introdotto l’anno scorso –Rete: 6% (finanziamento cpu) + 5% (finanziamento disco) –Altre CPU: 7% (finanziamento cpu + disco) Richieste CPU accolte Richieste disco ridotte di circa 200TBn per esperimento Warning: le gare per i Tier2 sono diventate complicate come quelle del Tier1

T2 ATLAS: proposte Finanziamento CPU (171k€) da anticipare su bilancio Proposte: 764kE [CPU 171k€, disco 510k€, overhead 83k€] Richieste: 957k€ Tre Tier2 Un proto-Tier2 finanziato al 30%

T2 CMS: proposte Finanziamento CPU (389k€) da anticipare su bilancio Richieste: 1618kE Proposte: 1260kE [CPU 389k€, disco 744k€, overhead 127k€]

Pledge Tier2 WLCG CMS è in linea con l’estrapolazione dei numeri dell’RRB ATLAS leggermente meno –Parte delle risorse sono riservate alle attività italiane

Tier3 C’è parecchia attività in giro per il mondo (principalmente in US) In Italia: –diverse sperimentazioni in corso, che riconosciamo valide e incoraggiamo –manca ancora un piano unitario e coerente da parte degli esperimenti –Raccomandiamo 20k€ indivisi al R.N. di ATLAS per continuare la sperimentazione

Catastrofe di bilancio Abbiamo interagito con i rappresentanti di ATLAS e CMS Taglio soffice [111k€]: riduzione dell’assegnazione per disco e overhead relativo (45k€ ATLAS, 66k€ CMS) Taglio intermedio [227k€]: taglio soffice + azzeramento overhead per server (116k€ = 45k€ ATLAS, 71k€ CMS) Taglio duro [330k€]: taglio intermedio + azzeramento overhead per rete (83k€ = 34k€ ATLAS, 49k€ CMS) + azzeramento Tier3 ATLAS (20k€) In questo momento nel DB c’è il taglio duro, che ci sembra eccessivamente penalizzante Si possono utilizzare anticipi per ridurre i tagli?