Utilizzo e Richieste infrastrutture di calcolo esperimenti LHC & non LHC G. Carlino, INFN Napoli CSN1 – Roma 7 Luglio 2016.

Slides:



Advertisements
Presentazioni simili
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Lecce 30 Settembre 2015.
Advertisements

Referaggio sigla CALCOLO D. Bonacorsi, G. Carlino, P. Morettini CCR – Roma 9 Settembre 2014.
Il Calcolo non LHC in CSN1 G. Carlino, INFN Napoli CSN1 – Roma 17 Luglio 2014.
Stato e previsione rete nelle sedi INFN Survey ed ipotesi di sviluppo fino al 2018 CCR 8-10 Settembre 2018 (Roma) 1 S.Zani (Netgroup)
Referaggio Calcolo ATLAS II Gianpaolo Carlino INFN Napoli Catania, 12 Settembre 2012 Risorse e Richieste 2013 nei preventivi Aggiornamento in seguito all’allungamento.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Catania 1 Ottobre 2014.
ATLAS Italia – Sestri Levante, 15 Giugno 2010 G. Carlino – Richieste Run Efficiency = time for physics / total time LHC Efficiency = time with colliding.
Virtualizzazione nell’INFN Andrea Chierici 11 Dicembre 2008.
L’infrastruttura del progetto ReCaS Paolo Lo Re on behalf of ReCaS collaboration.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
CCR, LNF ott 2011 Proposte assegnazioni server & storage L. Carbone, A. Gianoli, M. Serra.
Gruppo Netarch Incontro di lavoro della CCR Napoli gennaio 2010 Connessioni Tier1/Tier2 a GARR-X 1 GM, Incontro di lavoro della CCR – Napoli
Referaggio delle richieste dei gruppi di lavoro G. Ambrosi, R. Fantechi, M. Gulmini, O. Pinazza Commissione Calcolo e Reti, CNAF, 16 Marzo 2011.
IL blueprint e le esigenze per il progetti internazionali (EMI e EGI- InSPIRE) L. Gaido, INFN Torino Riunione del Comitato di Coordinamento IGI Roma, 12.
Referaggio delle richieste dei gruppi di lavoro G. Ambrosi, R. Fantechi, M. Gulmini, O. Pinazza Commissione Calcolo e Reti, Roma, 5-7 Ottobre 2010.
Il Calcolo non LHC in CSN1 G. Carlino, INFN Napoli CSN1 – Firenze 20 Luglio 2015.
CSN1 – Torino, 17 Maggio 2010 G. Carlino – ATLAS: Calcolo ATLAS Calcolo LHC 2011 Attività di TeV Attività di TeV Risorse.
+ Call di Big Data (EINFRA- 1). + La call … + + Cosa abbiamo in mano (come INFN) 1. L’infrastruttura 1 Tier Tier2 O(25000) cores O(20) PB di Disco.
ATLAS computing Roberto Carlin Commissione I Roma 1/7/08 F. Bossi, C.Bozzi, R. Carlin, R. Ferrari, D. Lucchesi, D. Martello, M. Morandin, M. Taiuti.
KLOE - Referee Luca Lista, Andrea Perrotta, Vincenzo Vagnoni.
Domenico Elia1 Calcolo ALICE: stato e richieste finanziarie (aggiornamenti) Domenico Elia Riunione Referee Calcolo LHC / Bologna, Riunione con.
Il calcolo ATLAS a Napoli nel 2014/2015
Dip. di Fisica & INFN - Univ. Del Salento
Relazione utilizzo rete, proposte per banda e collegamenti extra GARR
Riunione ALICE Italia - Referee stato e richieste finanziarie
D. Martello, F. Ricci, F. Ruggieri
CALCOLO CSN B.Bertucci.
Piani di sviluppo e consolidamento
I costi del Calcolo LHC un update –
Comput-ER l'infrastruttura di calcolo distribuito in Emilia Romagna
Calcolo LHC e Tier2 Concezio Bozzi, INFN – Ferrara
G. Carlino, D. Lucchesi, V. Vagnoni
Massimo Masera CSNIII Roma, 20 marzo 2012
Contributi dei PON a LHC
Richieste di upgrade dei link di accesso alla rete Geografica
G. Carlino, D. Lucchesi, V. Vagnoni
Referaggio sigla CALCOLO
Michele Punturo INFN Perugia
PRIN Roma1 – status Luciano Barone, Alessandro De Salvo
Richieste preliminari calcolo non LHC
Stato tape CDG 6/10/2016.
Stato Acquisti Switch/Router T2
Referaggi SST Riunione settembre 2017
L’INFN per il Collaborative esteso e distribuito Alessandro De Salvo
QUADRO CALCOLO IN COMMISSIONE III
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
ALICE CALCOLO richieste finanziarie e proposte di assegnazione 2017
Attvità Computing – Inverno 08/09
Sommario Riunione CSN1 Comunicazioni F. Bedeschi Roma, Luglio 2013
MC-INFN.
IL CALCOLO DI ALICE IN ITALIA
Necessità di calcolo per MEG II e ripartizione dei costi
CMS.
CNAF – Proposte B.Bertucci.
Report Calcolo Commisione III
Luciano Gaido (INFN - Torino) Workshop CCR/INFNGRID – Palau
Riunione CSN1: comunicazioni Roma 19 settembre 2016
KLOE: referee* Stato dell’arte (da Aprile ad oggi)
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
Massimo Masera Catania, 20 dicembre 2012
Interfacce SRM: l'utilizzo di STORM - Overview e prospettive (ALICE)
Stato Computing ATLAS Gianpaolo Carlino INFN Napoli
Gianpaolo Carlino (coord)
ATLAS: il calcolo Alessandro De Salvo
La richiesta si basa sulle seguenti considerazioni:
ATLAS Italia Computing Richieste 2007 (Tier-2 e locali)
Commissione Calcolo e Reti
Report dei referee di Kloe
Storage and Data management Vladimir Sapunenko
Commissione Calcolo e Reti
Transcript della presentazione:

Utilizzo e Richieste infrastrutture di calcolo esperimenti LHC & non LHC G. Carlino, INFN Napoli CSN1 – Roma 7 Luglio 2016

L’ infrastruttura di calcolo LHC INFN CSN1 - 7/07/16 G. Carlino - Utilizzo/richieste infrastrutture calcolo esperimenti LHC/non-LHC 2 L’infrastruttura sviluppata per il calcolo LHC (il Tier1 e 10 Tier2) ha raggiunto un livello di maturità e dimensioni tali da poter essere convenientemente ed efficacemente utilizzata da tutti gli esperimenti della commissione (e non solo) L’evoluzione tecnologica (cloud, rete..) rende possibile una centralizzazione delle risorse e l’abbandono dei cluster locali E’ logico e necessario pensare che tutti gli esperimenti INFN, non solo di CSN1, possano utilizzare questa infrastruttura allo scopo di ottimizzare l’utilizzo delle risorse di calcolo e minimizzare le spese

L’ infrastruttura di calcolo LHC INFN CSN1 - 7/07/16 G. Carlino - Utilizzo/richieste infrastrutture calcolo esperimenti LHC/non-LHC 3 Donatella Lucchesi (2/16)

L’ infrastruttura di calcolo LHC INFN CSN1 - 7/07/16 G. Carlino - Utilizzo/richieste infrastrutture calcolo esperimenti LHC/non-LHC 4 Non esiste solo l’ HTC ! Il grande aumento delle risorse necessarie per i prossimi run di LHC e per molti altri esperimenti non è sostenibile e rende necessario un approccio non “isolazionista” Utilizzo di risorse HPC Utilizzo di cloud commerciali Partecipazione a progetti europee e nazionali per personale, sviluppo e mantenimento delle infrastrutture, acquisizione nuove risorse Sinergie con altri enti e consorzi per creare e utilizzare un’infrastruttura comune a livello italiano Questi sviluppi non sono comunque l’obiettivo di questa presentazione

Linee guida (Luglio 2014 – repetita iuvant) CSN1 - 7/07/16 G. Carlino - Utilizzo/richieste infrastrutture calcolo esperimenti LHC/non-LHC 5 Gli esperimenti non LHC sono inseriti in gran parte nella infrastruttura LHC e molti hanno dimostrato notevoli capacità di adottare i più moderni tool E’ necessario che la CSN1 individui delle linee precise per il finanziamento del calcolo degli esperimenti Ricordiamo che la CSN1: non finanzia Tier3 LHC finanzia solo risorse di calcolo, costi infrastrutturali e di manutenzioni sono rimandati a strutture diverse (CCR, Sezioni, Fondi Esterni). Proponiamo che: Gli esperimenti che richiederanno notevoli risorse di calcolo (tipo Belle II) è necessario che definiscano accordi precisi tra la collaborazione e l’INFN e seguano la procedura standard per l’ufficializzazione dei siti Gli esperimenti che chiedono piccoli finanziamenti in termini strutturali (O(10kE) anno) è necessario che si integrino nell’infrastruttura esistente al fine di ottimizzare l’uso e la gestione delle risorse e tagliare i costi infrastrutturali. Le richieste devono essere giustificate in maniera dettagliata e devono chiarire quanto le risorse sono un contributo al calcolo dell’intero esperimento o solo per uso locale Casi particolari, infrastrutture già esistenti e operative da anni, valutati a parte

Tier1 – Esperimenti CSN1 - 7/07/16 G. Carlino - Utilizzo/richieste infrastrutture calcolo esperimenti LHC/non-LHC 6, PADME

Tier1 CSN1 - 7/07/16 G. Carlino - Utilizzo/richieste infrastrutture calcolo esperimenti LHC/non-LHC 7 CPU (kHS06)Disco (PB-N)Tape (PB) Potenza della Farm Rete OPN/ONE : 4 x 10 Gbps (upgrade a 60 Gbps) GP: 2 x 10 Gbps Bari: 2 x 10 Gbps ATLAS

Estensione farm Tier1 a Recas Bari CSN1 - 7/07/16 G. Carlino - Utilizzo/richieste infrastrutture calcolo esperimenti LHC/non-LHC 8

I Tier2 e la CNS1 CSN1 - 7/07/16 G. Carlino - Utilizzo/richieste infrastrutture calcolo esperimenti LHC/non-LHC 9 Catania Alice, CMS Napoli Atlas, Belle II Bari Alice, CMS Frascati Atlas, (Padme?) Roma1 Atlas, CMS Pisa CMS, Belle II Bologna (CNAF) LHCb Padova/Legnaro Alice, CMS Torino Alice, Belle II, Bes III, Compass Milano Atlas Esperimenti in farm non in siti Tier2: Kloe (Frascati) Compass (Trieste)

Multidisciplinarietà siti Tier2 CSN1 - 7/07/16 G. Carlino - Utilizzo/richieste infrastrutture calcolo esperimenti LHC/non-LHC 10 Virtual Organization supportate sull'infrastruttura ReCaS e risorse preesistenti (Tier2s, NA/SCoPE, BA/BC2S/,CT/PI2S2) X Siti RECAS a solo titolo di esempio, tutti i Tier2 ospitano a vari livelli numerose VO non di CSN1

Multidisciplinarietà siti Tier2 CSN1 - 7/07/16 G. Carlino - Utilizzo/richieste infrastrutture calcolo esperimenti LHC/non-LHC 11 Condivisione delle infrastrutture tra gli esperimenti. Esempio Sezione di Torino. necessaria per ovviare all’aumento di risorse nei siti e alla varietà di applicazioni senza un adeguato incremento del manpower Acquisti HW in comune (costi migliori) e trasparenti agli esperimenti L’approccio Cloud (IaaS) ottimizza la fornitura di risorse a utenti diversi Siti grid Farm Utenti singoli

Utilizzo dei Tier2 CSN1 - 7/07/16 G. Carlino - Utilizzo/richieste infrastrutture calcolo esperimenti LHC/non-LHC 12 Accounting Tier2 ATLAS – ultimo anno Frascati Roma1Napoli Milano Occupazione del disco nei 4 Tier2 confrontando spazio occupato e totale disponibile Sistema di cancellazione dati performante

Utilizzo dei Tier2 CSN1 - 7/07/16 G. Carlino - Utilizzo/richieste infrastrutture calcolo esperimenti LHC/non-LHC 13 Accounting Tier2 CMS – ultimo anno Pisa Legnaro Bari Roma1 Legnaro e Pisa: buchi dovuti a problemi di accounting, in ripubblicazione Bari: Risorse RECAS in utilizzo da poche settimane, precedenti problemi a causa del vecchio storage e dell’impossibilità di eseguire i workflows ad alto IO Roma1: problemi di personale risolti, risorse 2016 ancora da dispiegare completamente

Le Richieste Finanziarie 2017 CSN1 - 7/07/16 G. Carlino - Utilizzo/richieste infrastrutture calcolo esperimenti LHC/non-LHC 14 N.B.: le richieste non sono state ancora referate, in alcuni casi sono state discusse con gli esperimenti

Costi Unitari CSN1 - 7/07/16 G. Carlino - Utilizzo/richieste infrastrutture calcolo esperimenti LHC/non-LHC – 2017 CPU T1: 14 – 10 €/HS CPU T2: 12 – 10 €/HS Disco T1: 240 – 200 €/TBn Disco T2: 220 – 200 €/TBn Tape: 25 – 25 €/TB C.U. determinati in base all’esito di gare recenti e indagini di mercato

Richieste Tier1 CSN1 - 7/07/16 G. Carlino - Utilizzo/richieste infrastrutture calcolo esperimenti LHC/non-LHC 16

Richieste al Tier1 CSN1 - 7/07/16 G. Carlino - Utilizzo/richieste infrastrutture calcolo esperimenti LHC/non-LHC 17 Risparmi gare 2016 al CNAF, possibilità di ridurre il finanziamento Richieste determinate tenendo conto degli incrementi e dei rimpiazzi. L’assenza di rimpiazzi di CPU (anno fortunato!) non permette strategie per ridurre le richieste Crisi di risorse per l’ottimo andamento di LHC ? -> vedi talk di Donatella Totale CSN1 = 166 k€

Richieste Tier2 CSN1 - 7/07/16 G. Carlino - Utilizzo/richieste infrastrutture calcolo esperimenti LHC/non-LHC 18 ATLASHS / TBnk€ CPU disponibile rimpiazzi rimpiazzi * nuove totale Disco disponibile rimpiazzi nuove totale Over Head Server43.3* Rete34.6* Totale695.9 * indica le voci dove è possibile ridurre i finanziamenti senza enormi sofferenze per gli esperimenti e senza modiche di pledges Rimandare la sostituzione CPU obsolete 2017 al 2018 Non finanziare (completamente) gli Over-Head Range – k€ gare 2016 ancora in corso, possibili risparmi a scalare nel 2017

Richieste Tier2 CSN1 - 7/07/16 G. Carlino - Utilizzo/richieste infrastrutture calcolo esperimenti LHC/non-LHC 19 CMSHS / TBnk€ CPU disponibile rimpiazzi rimpiazzi * nuove totale Disco disponibile rimpiazzi nuove totale Over Head Server65.0* Rete52.2* Totale * indica le voci dove è possibile ridurre i finanziamenti senza enormi sofferenze per gli esperimenti e senza modiche di pledges Rimandare la sostituzione CPU obsolete 2017 al 2018 Non finanziare (completamente) gli Over-Head Range – k€ gare 2016 ancora in corso, possibili risparmi a scalare nel 2017

Belle II CSN1 - 7/07/16 G. Carlino - Utilizzo/richieste infrastrutture calcolo esperimenti LHC/non-LHC 20 Modello di calcolo in maturazione, attività di produzione Monte Carlo e sviluppo sw e mw in crescita In Italia: Raw Data Centre (Tier1) : CNAF Regional Centre (Tier2): Napoli, Pisa, Torino

Belle II - richieste CSN1 - 7/07/16 G. Carlino - Utilizzo/richieste infrastrutture calcolo esperimenti LHC/non-LHC 21 Stima delle risorse necessarie dal 2016 al 2024 da perfezionare – previsto un update a settembre Tape Disco CPU Italia: 12% della collaborazione In prospettiva, risorse: CNAF Tier2 Risorse disponibili: Disco: 150 CNAF 400 Napoli CPU: 5 CNAF 13 Napoli Necessità 2017 Disco: 440 TB CPU: 34 kHS Richieste CPU kHS = 50 CNAF 5 kHS = 50 Torino 6 kHS aggiuntive a Napoli/Recas

KLOE CSN1 - 7/07/16 G. Carlino - Utilizzo/richieste infrastrutture calcolo esperimenti LHC/non-LHC 22 Stima del Data Volume RAW CNAF: 1.5 PB (0.5 nel 2016 e 1 nel 2017) Richiesta 2016: 0.5 PB = 12.5 k€ Richiesta 2017: 1 PB = 25 k€

KLOE – richieste 2017 CSN1 - 7/07/16 G. Carlino - Utilizzo/richieste infrastrutture calcolo esperimenti LHC/non-LHC 23 Specificità del cluster online-offline di Kloe Si garantisce il mantenimento nel periodo di presa dati. Successivamente le attività di Monte Carlo e Analisi andranno svolte su farm “standard” con OS Linux Attività di porting codice MC su Linux iniziata con un nuovo collaboratore di LNF

PADME CSN1 - 7/07/16 G. Carlino - Utilizzo/richieste infrastrutture calcolo esperimenti LHC/non-LHC 24 Attività 2017 – Produzione Monte Carlo e Test Beam Calcolo off-line: Produzione Monte Carlo Iniziata l’attività in Griglia, VO creata e test in corso, contatti con il Tier2 di LNF Ricostruzione dati e Monte Carlo e Analisi Farm locale a LNF (LHCb), CPU e Disco sufficiente Parametri Computing Model Tempo di simulazione: 10 HS sec Event size: 10 kB 1 anno di presa dati: eventi - 3x da simulare Stima preliminare risorse CPU Monte Carlo: ~ 2 kHS = 20 Tier2 LNF (?) Tape: 100 TB = 2.5 CNAF Disco (buffer): 10 TB = 2 CNAF

COMPASS CSN1 - 7/07/16 G. Carlino - Utilizzo/richieste infrastrutture calcolo esperimenti LHC/non-LHC 25 Torino CPU: 0.5 / 1 kHS = 5 / 10 k€ - Disco: 20 TB = 4 k€ Trieste CPU: 0.5 kHS = 5 k€ – Disco: 40 TB = 8 k€ Mantenimento potenza di calcolo attuale, non discusso ancora con l’esperimento

LHCf CSN1 - 7/07/16 G. Carlino - Utilizzo/richieste infrastrutture calcolo esperimenti LHC/non-LHC 26 CPU: 2 kHS = 20 CNAF Fine 2016 run p-Pb e 2017 il run a RHIC. CPU: Disponibile 2 CNAF –sono in sofferenza. Con la CPU attuale non sono riusciti a completare neanche il 40% delle simulazioni del solo ARM2 con uno solo dei modelli MC che usano e le simulazioni con ioni richiedono molta CPU

BES III CSN1 - 7/07/16 G. Carlino - Utilizzo/richieste infrastrutture calcolo esperimenti LHC/non-LHC 27 Tier2 nell’ infrastruttura Cloud nella sezione di Torino –Risorse dedicate: ~ 2 kHS + 60 TB Test di fattibilità a Recas Napoli effettuati con successo nel 2015 Necessità risorse: –500 cores e 200 Recas Napoli per supportare i picchi dell’attività CGEM- IT nel 2017 e prima parte 2018 –Contatti in corso con Recas, se fattibile, nessuna richiesta alla CSN1

Conclusioni CSN1 - 7/07/16 G. Carlino - Utilizzo/richieste infrastrutture calcolo esperimenti LHC/non-LHC 28 Riassunto richieste calcolo 2017 Non LHC : 166 CNAF Tier2 LHC: <= Tier2 Kloe: s.j. LNF Belle II: 50 Torino Padme: 20 LNF (?) Compass: ~ 25 Torino + Trieste Riduzioni assegnazioni dopo referaggi puntuali e utilizzando eventuali risparmi gare 2016.