1. STATO DEL CALCOLO CMS Tommaso Boccali Firenze, 20 Maggio 2015 2.

Slides:



Advertisements
Presentazioni simili
Gestione della memoria centrale
Advertisements

ISA Server 2004 Enterprise Edition Preview. ISA Server 2004.
CSN1 2 Aprile 2003 P. Morettini 1 Relazione sulla CCR La riunione di Commissione Calcolo e Reti del 6 Marzo è stata in parte dedicata alla discussione.
L. Perini CSN1 -Roma 23 Gen Centri Regionali per il calcolo di ATLAS in Italia Tier-1 e Tiers-N : funzioni, localizzazione, necessita di h/w, personale.
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
Monitoraggio online con la mappa del tracker M.S. Mennea, G. Zito Università & INFN di Bari Riunione Consorzio – Bari 9 Settembre 2005.
Conclusioni M. Paganoni workshop CMS Italia, Napoli 13-14/2/07.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
Prima di iniziare… Durata attività: due lezioni frontali + una lezione laboratorio + compiti per casa Prerequisiti: elementi base architettura dei calcolatori.
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
CSN1 – 7 febbraio 2006 Francesco Forti, INFN-Pisa per il gruppo di referaggio.
CCR 14-15/03/2006 Status Report Gruppo Storage CCR.
3 Aprile CSN1 P. Capiluppi Tier2 CMS Italia.
16 Maggio CSN1 Computing-Software-Analysis CMS-INFN TEAM Analisi in CMS: stato e prospettive del supporto italiano.
6 Febbraio 2006CSN1 - Roma1 MEG : relazione dei referees P. Cenci R. Contri P. Morettini M. Sozzi.
News da LHC… *** Discussion title: CMS Commissioning Notes from 09:00 meeting Current fill (1182) has now been in stable beams for >12 hours. Delivered.
Attivita` di TileCal 2013 C.Roda Universita` e INFN Pisa Riunione referees ATLAS Roma 1 C.Roda Universita` e INFN Pisa.
Condor standard. Sistema Batch. Tool di installazione D. Bortolotti,P.Mazzanti,F.Semeria Workshop Calcolo Paestum 9-12 Giugno 2003.
CSN Maggio 2005 P. Capiluppi Il Computing Model (LHC) nella realta’ italiana u I Computing models degli esperimenti LHC gia’ presentati a Gennaio.
1 LHCb Computing Angelo Carbone, INFN-CNAF CSN1, 21/9/06 Aggiornamento richieste Tier Richiesta Tier-2 al CNAF Stato e risultati DC06.
Distribuzione controllata del software con Systems Management Server 2003 Fabrizio Grossi.
MCSA Mobile Code System Architecture Infrastruttura a supporto della code mobility Pierfrancesco Felicioni Reti di Calcolatori L.S. 2005/2006.
Reti di calcolatori Modulo 2 -Protocolli di rete TCP/IP Unità didattica 2 – Il protocollo TCP/IP Ernesto Damiani Università degli Studi di Milano - SSRI.
SnippetSearch Database di snippet bilanciato e replicato di Gianluigi Salvi Reti di calcolatori LS – Prof. A.Corradi.
Informatica Generale Marzia Buscemi
Tier-2 Tier-2 ATLAS (Osservazioni sulla proposta dei referee del calcolo LHC) Lamberto Luminari CSN1 – Roma, 3 Aprile 2006.
Lo scenario del Linear collider LHC vs ILC: LHC è un progetto del CERN (strettamente europeo) È regolato dal Council cioè dagli stati membri 1 voto per.
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
CDF Calcolo Another brick in the wall Paolo Morettini CSN1 Lecce Valerio Vercesi Settembre 2003.
Licensed under Creative Commons Attribution 3.0 License / ShareGrid Idee per prospettive future
VINCERE NEL MERCATO DI OGGI O PEN S OURCE M ANAGEMENT.
CMS COMPUTING REPORT Tommaso Boccali Catania, 1 Ottobre
ATLAS PRIN Alessandro De Salvo A. De Salvo – 12 novembre 2015 Cloud Computing Condivisione di risorse tra gruppi EventIndex LHCONE PoD T2D.
Referaggio calcolo CMS 2014 CSN Settembre 2013 Tommaso Boccali (INFN Pisa) 1.
BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015.
C.Distefano Km3 Collaboration meeting, Rome November 2013 LNS Spegnimento e riaccensione della torre -23 Marzo 2013: accensione della torre dopo.
CMS E RUN II ( …III, …IV,…) TOMMASO BOCCALI INFN PISA BOLOGNA, 19 FEBBRAIO
D. Martello Dip. Fisica - Lecce Sintesi piani esperimenti CSN2 CNAF 7-marzo-2007.
CMS COMPUTING REPORT Tommaso Boccali Bologna, 25 Maggio
Atlas Italia - Milano, 17/11/2009 G. Carlino – News dal Computing 1 1 News dal computing Gianpaolo Carlino INFN Napoli Atlas Italia, Milano, 17/11/09 Nuovo.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
Esperienza di Elastic Computing al Tier 1 Vincenzo Ciaschini & Donato de Girolamo CCR 16-20/5/2016.
Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 1 ATLAS Attività di TeV Attività di computing Attività di computing.
Workshop della Commissione Calcolo e Reti 28 Maggio 2013 Federazione di risorse Cloud con CLEVER 1.
6/1/2016ATLAS Milano1 Agenda :. 6/1/2016ATLAS Milano2 Agenda : A)AGGIORNAMENTO SITUAZIONE RELIABILITY SITO -potrebbe essere utile discutere le nostre.
Utilizzo della VO di theophys per il calcolo lattice QCD G. Andronico M. Serra L. Giusti S. Petrarca B. Taglienti.
Referaggio sigla CALCOLO D. Bonacorsi, G. Carlino, P. Morettini CCR – Roma 9 Settembre 2014.
Proposta per una cache distribuita a livello italiano ALESSANDRO DE SALVO (RM1) TOMMASO BOCCALI (PI)
IL CALCOLO DEGLI ESPERIMENTI AD LHC DOPO LA SCOPERTA DELL’HIGGS Tommaso Boccali INFN Pisa 1.
Uso della rete geografica e richieste di upgrade CCR 31/3/2015 (Roma) S.Zani.
19/4/2013 D. Menasce, M. Serra - Referaggio Progetti INFRA e WLCG 1.
Atlas TDAQ E. Pasqualucci INFN Roma. Sommario Attivita’ di fine 2008 – inizio 2009 Preparazione per i run con fasci Trigger con luminosita’ iniziali 16/9/20092E.
Referaggio Calcolo ATLAS II Gianpaolo Carlino INFN Napoli Catania, 12 Settembre 2012 Risorse e Richieste 2013 nei preventivi Aggiornamento in seguito all’allungamento.
Attività Gruppo Virtualizzazione Andrea Chierici CNAF CCR
Lina, Paolo, Tonino, Riccardo.   An assessment of the need for a photo-production facility and its design  The neutron part should not exceed 20 pages.
KLOE - Referee Paolo Checchia, Luca Lista, Ezio Menichetti, Pierluigi Paolucci con l’aiuto sostanziale di Luca dell’Agnello, Mauro Morandin CSN1.
The INFN Tier-1: progetto di ampliamento Cristina Vistoli – INFN CNAF Referee Meeting Sep
ATLAS Italia – Sestri Levante, 15 Giugno 2010 G. Carlino – Richieste Run Efficiency = time for physics / total time LHC Efficiency = time with colliding.
CCR - Roma 15 marzo 2007 Gruppo storage CCR Report sulle attivita’ Alessandro Brunengo.
Domenico Elia1 Calcolo ALICE: stato e richieste finanziarie Domenico Elia Riunione Referee Calcolo LHC / Padova, Riunione con Referee Calcolo.
ALICE Computing Readiness Workshop Tier-2 CNAF Jan 17-18, ALICE Computing Readiness 1) ALICE Italia: Persone & organizzazione 2) Test & commisioning.
Referaggio Calcolo ATLAS Gianpaolo Carlino INFN Napoli CNAF, 11 Maggio 2012 Attività di Computing ATLAS Attività di Computing in Italia Risorse e Richieste.
L.Perini Milano: 10 Gennaio Ex-ATLAS-Grid (Tier2 incluso) l Ruolo dei Tiers in ATLAS e grid l Le persone di Milano e le attività l Le infrastrutture.
CNAF. storage Siamo in una fase di tuning con lo storage, che al momento sembra essere un collo di bottiglia 1.~10 giorni fa vista saturazione GPFS.
TOTEM review a LHCC C. Cecchi CSN1, Parma 24/09/2010 CSN1, Parma 23/09/10C. Cecchi  STATO DELL’ESPERIMENTO & PHYSICS PLAN 2010/2011  INSTALLAZIONE DI.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
ONEDATA - distributed data caching -
Highlights del meeting ESPP di Cracovia Settembre 2012 (FISICA DI G1)
Preliminary results of DESY drift chambers efficiency test
Transcript della presentazione:

1

STATO DEL CALCOLO CMS Tommaso Boccali Firenze, 20 Maggio

outline Activities 2014 (and start of 2015) What is (really) happening News on computing models Resources 3

Considering the CSA14 production Fall13GS (CMSSW6.2) and Spring14DR (CMSSW7.0) During CSA14 we demonstrated we could sustain: 500M/month Gen-Sim and 1B/month Digi-Reco GEN-SIM AODSIM 4

Data Tiers in MC Production > Most MCs produced in AOD format > Strategy for MINIAOD still to be defined > Important for the future: 10x smaller is size, but NOT expected for more than 75% of the analyses > We have reconstructed nearly 7B simulated events in 2014, and made 5B new GEN-SIM events 5

In Run II CMS expects to promptly reconstruct 1000Hz of data (a factor 2 more) at an average of twice the reconstruction time Sample of events to collect, promptly reconstruct and eventually reprocess is 3B events in 2015 CMS expects to generate 1.3 simulated events for every event collected (4B GEN-SIM by end of 2015) Budget for processing is ~1.5 times events produced Currently, produced the ~2B events at low lumi needed for the startup Run I data can mostly be removed from our storages by the time Run II data arrives 6

Run II (reality vs expectations) 7 50 ns should have been u to 1/fb. We are currently a factor 10 below Not much experience with new data (too small for the moment)

User analysis not really decreasing 8 (perche’ se scende RunI, e’ salito RunII per la preparazione) Siamo sui 300 utenti diversi a settimana che sottomettono via CRAB3 Nota: drop dai 500 e’ dovuto a maggiore organizzazione dei gruppi di analisi, non ad uno effettivo calo

Stato delle operazioni Tier0 attivo Express, Prompt Prompt Calibration Loop attivo Rilascia runs dopo 48 ore 9 Produzione di RECO, AOD e MiniAOD attiva DQM e certificazione attive

Principali cambiamenti nel modello di calcolo e/o nelle operazioni Risorse (previste) non abbondanti Meno MC (1.5x … 1x nel 2017) Meno copie dei dati utilizzando accesso remoto Da 3 a meno di 2 Cercare risorse opportunistiche Vedi dopo Cambiamento nelle operazioni Parte della prompt reco ai T2 Accesso remoto ai dati via Federazione Xrootd 10

Ruolo dei tier Run I: ogni workflow finiva sostanzialmente in un Tier di riferimento Run II: tutti fanno tutto (o quasi), con delle limitazioni dovute all’opportunita’, non alla tecnologia Non e’ gratis: Analisi ai T1: per non impattare custodiality, disk/tape separation necessaria Uso di HLT: commissioning del link Xrootd EOS verso P5 MC/RECO ai T2: validazione storage ai T2 e/o premixing necessita’ di separazione degli ambienti -> virtualizzazione + interfaccia Cloud Analisi remota ai T2: necessita di federazione Xrootd Highlights: HLT non piu’ una risorsa dedicata, puo’ essere usata da offline quando libera Prompt Reco almeno al 50% ai T1(e’ sempre stata 100% al Tier0) 11

Analisi ai T1: disk/tape separation In pratica, divide il data management dei T1 in due siti Uno che si occupa della parte tape e della data custodiality Uno che offre cpu e disco ad alte performance, capace di sopportare wokflow di ricostuzione ad alto PU All’occorrenza, utilizzabile come T2 per analisi e/o T0 per prompt reco Custodiality disacoppiata da processing: CNAF puo’ riprocessare dati da mandare poi su tape a FNAL, senza passare da tape CNAF Fatto ~ prima meta’ 2014 Plot di reprocessing remoto: FNAL accede a samples CNAF a > 4 Gbit/s per giorni 12

HLT come risorsa di calcolo “general purpose” L’HLT non “gira” quando non c’e’ ne’ fascio, ne’ presa dati di cosmici Shutdown invernale Machine Development Interfill (se ne vale la pena…) Primi fill 2015: 8 ore di SB, 2 ore interfill.. Non ne vale la pena! Le sue risorse possono essere utilizzate in tali periodi, pero’: 1. La configurazione e’ diversa da macchine offline 2. Le macchine devono poter tornare in HLT mode con preavviso minimo 3. L’HLT e’ a P5, e la banda P5->CERN era limitata a 20 Gbit/s Strategia di utlilizzazione Non toccare la configurazione HLT, processare workflow di offline mediante virtualizzazione delle risorse (Openstack, o piu soft via containers) Girare (vedi dopo) workflow o brevi, o avere un sistema di sottomissione che accetti un alto livello di failure rate (quando l’HLT fa reclaim delle risorse) Link P5-> CERN aumentato a inizio 2014 e poco fa a 120 Gbit/s 13

Accesso remoto TX->TX L’accessibilita’ remota (“streaming”) dei samples e’ necessaria per poter diminuire le copie di dati distribuite CMS: Xrootd federation in produzione, con ottimizzazione dell’accesso News: transition federation in costruzione, vi saranno automaticamente mandati i siti meno affidabili, e’ collegata alla federazione di produzione come ultima opzione Transition Federation T2 T3 Last resort … Hammer Cloud test in Europa: 600+ MBs, +30k connessioni attive contemporanee; 5% di fallimenti aggiuntivi dovuti ad Xrootd (tipicamente siti con problemi) 14

Quale infrastruttura serve? Sottomissione jobs: fino ad oggi c’erano uno o piu’ servizi (HTCondor Pool) per la Prompt Reco, per il reprocessing, per l’analisi Inoltre lo share ai siti era fisso: ai T2 50% analisi 50% produzione MC; ai T1 95% produzione 5% analisi. Global Pool: In azione da inizio 2015, utilizza un singolo HTCondor Pool per tutte le attivita’ Ai siti arriva un solo tipo di pilot, e la scelta fra cosa (Prod, Prompt, Analisi) e’ solo via late binding Dimostrato a > jobs running contemporanei (risorse CMS ~ 1MHS06, quindi circa tutte) Possibilita’ di sterzare tutte le risorse di calcolo di CMS per un unico task o addirittura utente Esempio: reprocessing d’urgenza dei samples dell’Higgs la settimana prima di una conferenza (occhio ha chi ha in mano lo sterzo….) 15

Overflow via HTCondor Via HTCondor e’ permessa la sottomissione di jobs che NON accedano a dati locali al sito 1. Forzata ad un certo sito (esempio reprocessing dati ad un T1 che abbia risorse di CPU libere) 2. Per specifici jobs di analisi che lo richiedano (pericoloso…) 3. Via logica interna per i workflow di analisi Se il job e’ in attesa da maggiore di X ore Se il job e’ destinato ad una regione che permette overflow (per il momento US, EU in attivazione) Se il numero di jobs in overflow e’ sotto una certa soglia Manda il job in un sito della stessa regione, e assumi che l’accesso avvenga via la federazione Xrootd Regione: definita come vicinanza (bandwidth, latency) di network Al momento EU e US US: tutti i T2 sono a 100 Gbit/s, EU: quelli grandi a 10 Gbit/s Target di CMS ~20% dei jobs con accesso remoto; potrebbe aumentare se la rete si dimostra adeguata 16

Gestione workflow di analisi Crab1 (client con connessione diretta a gliteWMS) Crab2 (client/server, con server che permette chiamate dirette a glideInWMS, glite, …) Crab3 (thin client, server che si collega a glideInWSM) Ottimizzazioni varie, fra cui pulizia del codice che era diventato ingestibile Infrastruttura AsyncStageOut (basata su FTS3): Vuole limitare lo spreco di CPU dovuto al fallimento dello stageout del risultato alla fine del job, mettendo il file in aree locale temporanee, e usando FTS3 per trasferirlo in modo asincrono alla destinazione finale 17 07/14: piu’ di 25k jobs running e 200k al giorno 07/14: piu’ di 300k trasferimenti al giorno

Opportunistic computing In una situazione di 0 contingency, una mano puo’ venire dalla possibilita’ di usare risorse opportunistiche La nostra scala di risorse e’ ormai O(1%) rispetto alle cloud commerciali alla Google o EC2 Nostro installato ~ 1-2 MHS06 ( k Cores) Stime per Google/Amazon/microsoft danno O(5M) server a testa O (50M) cores, O(500MHS06) Avere accesso a O(100k) cores per periodi brevi (~1 mese) sembra essere almeno pensabile a prezzi ragionevoli, via grant di ricerca 100 kCores per un mese = ~ 100 kHS06 per un anno Equivale a ~2 nuovi T1 Equivale a 5-6 nuovi T2 Equivale a ~ quanto serve per generare tutti i GEN-SIM di un anno, liberando i T2 dal task 18

Amazon Proposal (apr 15) 19 Idea: Chiedere O(60k) cores per un mese ( kHS06) E’ circa equivalente a raddoppiare le risorse di CMS per un mese Fare test di utilizzo in modalita’ burst per CMS Produzione GEN-SIM Produzione DIGI-RECO Reprocessing Dati/MC Produzione samples Premixed per produzione MC Dal punto di vista infrastrutturale: Test di estensione dei Tier1 in modo elastico Valore delle risorse sullo spot market : n/a Matching Grant USCMS (UCSD)

Breaking news 20 Non ancora chiarissimo quante risorse saranno (dipende dall’andamento dello spot market) Finestra di utilizzo del grant: da oggi a Marzo 2016 Molto interesse italiano Persone gia’ nel calcolo opportunistico / HLT/ su AI di CMS CNAF (per test di estensione) Non vendiamo la pelle dell’orso troppo presto: in pratica in queste cifre non c’e’ Sostanziale storage Poca rete in/out Puo’ non essere banale un utilizzo efficiente (ci fai GEN-SIM, ma quando sono finiti?)

Altri tentativi messi in campo dall’Italia Aruba: Test di utilizzo di risorse opportunistiche su provider italiano (~10x il CNAF) Estensione elastica del Tier1 Tests solo CMS per il momento Unicredit: Tentativo di utilizzo risorse di notte, piano a giorni 21

Risorse 22

Tier2 – stato reale CMS ha 54 Tier2 (include tutto quello che e stato Tier2 dal 2009 a oggi) I Tier2 ricevono EPR In proporzione alle risorse che danno a CMS Solo se superano il 60% di readiness durante tutto l’anno IN PRATICA: 9 Tier2 non funzionano del tutto o sufficientemente (I Russi, principalmente) Questi Tier2 hanno fra il 10 e il 15% delle risorse sulla carta, per cui sono risorse che alla fine MANCANo a CMS (anche se su Rebus) Tier2: stati possibili OK In Warning (sta per entrare in waiting room) Waiting room – comincia a perdere EPR Morgue – in waiting room da > 8 settimane,lo consideriamo ~ perso (raro che un Tier2 esca dalla morgue ….)

Stato risorse - ITALIA 24

Cosa si processa (T1 vs T2s) in Italia? T1: prod/analisys T2s: prod/analisys In entrambi I casi, piu’ analisi rispetto al modello originale (che era 100%-0% e 50%-50%) 25 Analisi Produzione

Availability (good T2 se > 80%, T1 > 90%) 26 (tutti I plot sono da 10/2014 a 4/2015)

10/2014 – 5/2015 jobs T1+T2 per nazione 27 Italia seconda dopo US … distacco forse additittura aumentato?

Dentro l’Italia 28 T1 ~ 40% T2 ~ 60%

Efficienza CPU (CPU/Wall) 29 80% 90% Meglio della media di CMS (che era poco sopra l’80%)

Conclusioni Calcolo CMS e’ ripartito sui dati nuovi Non che si fosse mai fermato … Situazione centrale molto simile a quella lasciata a fine 2012… tutto operativo Modello di calcolo con molti cambiamenti, alcuni gia’ operativi (accesso remoto, global pool, …), altri sotto test (calcolo opportunistico, HLT, …) So far so good; ritardo di LHC e pochi dati pero’ non ci possono far dire di aver testato tutto il necessario ancora, ne’ di aver testato l’infrastruttura alla scala completa 30