La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

La federazione dei Tier2

Presentazioni simili


Presentazione sul tema: "La federazione dei Tier2"— Transcript della presentazione:

1 La federazione dei Tier2
di CMS - Italia M. Paganoni Bologna, 6/3/2007

2 CSA06 Tutti i centri di calcolo di CMS hanno partecipato con successo al CSA06

3 CSA07 Test del 50 % del livello di produzione
Preproduzione inizia a marzo CSA07 in luglio 3

4 Risorse per partecipare a CSA07

5 Tier 2 Legnaro-Padova M. Biasotto e G. Maron

6 Risorse CPU Le macchine del 2003 sono in via di dismissione (lente e solo 1GB di RAM) E’ in corso un processo d’integrazione della farm LNL con il T2, allo scopo di condividere le risorse di CPU (al momento non c’e’ ancora la condivisione dinamica)

7 Risorse Disco Nel 2006 e’ stato usato DPM come SRM Storage Element
E’ in corso il passaggio a dCache che entrera’ in produzione durante il mese di marzo 2007

8 Utilizzo CPU Start CMS MC production Jobs running per VO nell’ultimo anno (dal monitoring locale di ganglia) I valori di CPU-time normalizzati (da luglio 2005 a febbraio 2007) sono disponibili sul sito del GOCDB: hp

9 Sharing CPU tra VO

10 LNL SC4 data transfer Data transfer activity
CMS Load Test Jun-Sep 2006: focus on continuity of service, not throughput) Import: 200TB transferred, rate MB/s Export: 60TB transferred, rate 5-20 MB/s very good stability in june-july (using srmcp), more problems from end of july (after switching to FTS) Legnaro WAN network utilization

11 LNL SC4 jobs Analysis jobs: SC4 JobRobot (fake analysis) and user analysis run only on small data samples, not enough stress to test site storage and network system MC production full use of the farm in july and august, mostly cpu activity but ‘merge’ jobs very I/O intensive, so far the best stress-test activity for our storage: no major issues and good overall performance Legnaro CMS jobs Jun-Sep 2006 (~50K jobs) fake analysis jobs MC production user analysis

12 LNL CSA06 challenge http://cms.pd.infn.it/software/CSA06/Wmunu.html
Legnaro participated in CSA06 without any major site-related problem The analysis tasks planned were successfully completed, demonstrating the functionality of the workflow chain

13 Attivita’ 2007 Partecipazione a CSA07 Preparazione LHC startup
simulazioni fase pre-challenge 2 x analisi/test CSA06 (includendo anche L1+HLT simulation) Preparazione LHC startup simulazioni/ricostruzione a 900 GeV Analisi detector commissioning data “wheel commissioning”: da maggio 1 settimana al mese di global DAQ trasferimento a LNL di parte dei dati per analisi analisi Monte Carlo cosmici Partecipazione ad analisi dati MTCC phase-3

14 Richieste finanziarie - LNL/Pd
48 keuro per 16 box (64 core, ~112 kSI2k) 3 keuro per switch GE 24 porte 30 keuro per 20 TB disco (lordi)

15 Tier2 di CMS-Roma L. Barone

16 Infrastruttura gara terminata e approvata dalla Giunta
in atto le procedure di apertura del cantiere (permessi, preparazione locali) I fase : pavimento, tramezzi, imp.elettrico II fase: impianto idraulico, chiller, armadi Knuerr, UPS fine lavori prevista entro maggio, salvo complicazioni

17 Hardware 2006 finanziamento 2006 43 k€ CPUs Storage
12 WN, 1 CE, 1 CE backup, 1 UI, 1 Frontier/Squid + 4 WN old/broken di cui 8 WN dual Opteron dual core su finanziamento 2006 (29,760 €) 10 WN + UI < 3 years Storage 4 NAS Fileservers, 16 TB 1 SE of 10 TB, other 6 TB for local use 2 Fileserver < 3 years 1 switch 48 porte gbit su finanziamento 2006

18 Hardware now variazioni di bilancio + 11500 € del finanziamento 2006
CPUs 4 additional WN Opteron 280 (9500 €), not yet delivered Storage 2 additional NAS Fileservers, 16 TB raw, 13 TB net (18000 €) ... but 1 existing Fileserver broke down in the meantime

19 Activities SC4, CSA06 (not quoted here)
local analysis of H2 test beam data CMS official MC production managed via ProdAgent by Bari group (N.De Filippis, M.Abbrescia et al.) grid jobs of ECAL community LoadTest07 all CMS services up & running

20 H2 Data @ Tier2 cmsrm-se02.roma1.infn.it:/gwpool/data2/H2data/raw
~ 800 GB (2380 runs) cmsrm-se02.roma1.infn.it:/gwpool/data1/H2data/reco ~ 1.2 TB (2380 runs runs with a different reconstruction) data transfer via scp from Cern (1ST data sample in october, 2nd in december 2006) Data from last reconstruction are now in Phedex (900 GB, 2100 files, name:/h2tb2006/reco/v6) more than 3000 reconstruction jobs executed on local queues (lsf) several thousands of analysis jobs submitted by 4 users (D. del Re, D. Franci, A. Palma, R. Paramatti) reconstruction of ECAL and HCAL with CMSSW_0_8_1

21 Monitoring All following plots from Ganglia@Rome
Reliable monitoring only from December 1st, 2006 keep improving Note to readers: Ganglia does NOT keep fine grain time resolution and averages over all units so 90% cpu usage over all cpus means 100% usage over 90% of the nodes (or alike...)

22 CPU used December 1st, 2006 – February 24th, 2007
monitor problem farm shutdown for cooling works December 1st, 2006 – February 24th, 2007 data from local Ganglia, averaged over all cpus

23 Jobs December 1st, 2006 – February 24th, 2007
big MC production with CMSSW 120 new MC production with pile up December 1st, 2006 – February 24th, 2007 data from local Ganglia, averaged over all cpus

24 Running Jobs December 1st, 2006 – February 24th, 2007
all cpus available hardware problems on few machines December 1st, 2006 – February 24th, 2007 data from local Ganglia, averaged over all cpus

25 Expanded view february cpu & running jobs

26 Some numbers User cmsprd, source LSF accounting
Total number of done jobs: Total number of exited jobs: 1639 Total CPU time consumed: Average CPU time consumed: Maximum CPU time of a job: Total throughput: 6.33 jobs/hour , 152 jobs/day during hours Beginning time: Nov 10 22:35 Ending time: Feb 27 16:47

27 Phedex Load Test 07 achieved 50 MB/s peak 30 MB/s sustained over hours
as all italian T2s depending on effective FTS CNAF channel

28 Squid queries to Cern db with test ECAL jobs obviously this is not
continuous

29 Manpower Lista dei task e relativi responsabili
LMB: coord.gen.,int.con il Cern, acquisti, infrastruttura, emergenze sw C.Bulfon: LSF, emergenze hw, backup G.Organtini: monitoring, NIS, controllo remoto, web R.Paramatti: CMSSW F.Safai Tehrani:coord.tecnico, system & sw installation, DPM (dCache), grid Milano/D.Del Re: Phedex S.Rahatlou (pro tempore): Frontier/Squid

30 Richieste finanziarie Roma
due punti abbiamo poche CPU: target CMS 1.5 kjob/day/site, siamo a 150/day/site !! serve storage più affidabile chiediamo 65 k€ sullo sblocco del s.j. 41 k€ per un sistema SAN di circa 30 TB lordi (25 TB netti) 24 k€ per 8 WN (48 kSI2K)

31 Tier2 SJ Pisa Tommaso Boccali e Giuseppe Bagliesi

32 Persone coinvolte nel progetto
Infrastrutture: Silvia Arezzini: responsabile Servizio Calcolo Alberto Ciampa ed Enrico Mazzoni, in particolare per gli aspetti infrastrutturali tecnici Maurizio Davini, in particolare per i dettagli hw e sw di CPU e storage Filippo Bosi per la progettazione impiantistica e la stima dei costi. CMS: G. Bagliesi, T. Boccali, F. Calzolari, S. Sarkar l dettagli del progetto preliminare si trovano nel documento seguente:

33 Attivita’ nel periodo maggio - dicembre 2006 (CSA06 e oltre…)
7 TB, 50 CPU

34 SC4 LoadTest ~40TB trasferiti CSA06 Preprod giugno-agosto
SC4 CMS CSA06 Preprod (~4M ev. prodotti) Analisi su RECO events EWK, MinBias Analisi su Skim events TTbar, EWK R&D su storage DPM, dCache CSA06 Preprod giugno-agosto ~10TB trasferiti

35 Sharing CPU tra VO

36 Sala Calcolo (CED1) meta’ 2006

37 Sala CED1: situazione fine 2006

38 Sala CED1: situazione fine 2006

39 Situazione Sala CED1 fine 2006 (quella che ospita il Tier2)
Corrente elettrica: Disponibilità (KW): = 144 Utilizzi (KW): Sezione: 48 – 20 (CED2) + 18 (espansione di sezione) = 46 Tier 2: 23 server + 73 dischi = = 12.5 KW Totale impegnato: 58.5 Margine: 85.5 Condizionamento: Disponibilità (KW): 72 Utilizzi (KW): impegnato: 58.5 Margine: 13.5

40 Installato da fine 2006 6 condizionatori in row APC 10 rack APC
Possibilita’ di raffreddare fino a 140 kW 10 rack APC Unita’ chiller da 80kW Predisposizione completa per secondo chiller Possibilita’ di installare un terzo chiller Tutto cio’ e’ funzionante al momento

41 Sala CED attuale

42 Foto SALA CED attuale

43 Chiller montato sul tetto
Predisposizione secondo chiller Chiller gia’ in funzione

44 Attivita’ 2007 per infrastruttura
Nell’ambito della collaborazione tra SNS/UNIPI/INFN il Tier2 di CMS potra’ disporre delle risorse come da tabella precedente (purche’ finanziate dall’INFN) Nella realta’ le CPU vengono fornite dal “consorzio” e i soldi INFN relativi vengono utilizzati per: Finire di pagare l’infrastruttura gia’ installata Potenziare l’infrastruttura (secondo chiller…)

45 Attivita’ del tier2 in CMS
Inizio LoadTest 07: picchi di 50MB/sec

46 Copia e analisi dei dati della Tracker Integration Facility
Analisi alla TIF utilizza tools standard DBS/DLS per registrazione PhEDEx per trasferimento CRAB per analisi ProdAgent per ricostruzione/reprocessing Setup interamente sviluppato in Italia

47 CSA07 a Pisa Il consorzio UNIPI/SNS/INFN pensa di utilizzare CSA07 per
Burn-in e test dell’infrastruttura Burn-in TIER2 (HW/SW)

48 Burn-in infrastruttura
Condizioni operative simili al ~2009 Tabella nominale Stressare chiller/condizionatori/impianto elettrico/network Operare tier2 con ~200 nodi ~1MSI2k = ½ tier prima della rimodulazione

49 Burn-in tier2 CPU ~200 nodi ~1MSI2k = ½ tier prima della rimodulazione Tier2 fine 2006 (50 cpu) CPU nominali 2007 (tabella rimodulata) Macchine aggiuntive a disposizione TEMPORANEAMENTE (2 mesi) da UNIPI 128 2-cpu 2-core opteron 280 (2.4 GHz) 4GB Uniwide 1.5 kSI2k X 512 core Storage Acquisizione 2007 con fondi INFN Spazio disco in prestito dal “consorzio” Installazione di 6-7 dCache pool-nodes Il setup dovrebbe essere operativo a meta’ marzo In produzione per inizio della preprod CSA07

50 Installazione in corso

51 Prime 24 ore dopo il primo “bunch” di nodi installato
Produzione MC Numero di job nel periodo 27-28/2/2007

52 Richieste finanziarie Pisa
Contributi del consorzio a fine 2006 SNS: 60 keuro UNIPI: CPU + rack/condizionatori APC (~ 500 kEuro) INFN: 24 keuro (finanziamento TOTALE fino ad ora) 2007: Richiesta sblocco s.j. sul Tier2 10 WN 4x Opteron GHz (60 kSI2K) = 30 kEuro Storage SAN 20 TB = 30 kEuro

53 Farm di Bari Salvatore My Giacinto Donvito

54 Le risorse hardware WN (80 kSI2K) Storage 17 TB utili
39 WN: from PIII 1.2GHz to Opteron DualCore 86 Slots ~ 80 KSI2k > 10 nodi per i servizi ~ 22 KSI2k 2 CE, 2 UI, 3PA, MySQL back-up, dCacheAdmin, home & back-up, SoftExp, Pre- prodCE, Squid, Phedex WN (80 kSI2K) Storage 17 TB utili

55 Risorse occupate: ~ 40168 giorni-CPU
L’uso delle risorse Ganglia plot - ultimo anno CMS Num. di job durante il CSA06: 43966 Num. di job dopo CSA06: Num. gg-CPU durante CSA06: 4549 Num. gg-CPU dopo il CSA06: McProd Num. gg-CPU : 7991 Num. di job : Periodo Considerato: ~ 410 giorni Risorse occupate: ~ giorni-CPU Giorni- CPU VO 13340 Cms 7830 Biomed 5214 Bio 4562 Atlas 3302 Alice 3056 Lhcb 2864 altre

56 Servizi in produzione (1)
CE Con Torque/MAUI come Batch System (installato sulla stessa macchina) Fairshare Priorità per usi particolari (cmssgm, test) Reservation QoS dCache ~ 17 TB 6 pool-node Bilanciamento del carico: Molte (7) porte GsiFTP Pool dedicati per la cache dei files più acceduti Replica dei files triggerata in base al carico del pool su cui risiedono

57 Servizi in produzione (2)
Squid Usato sin da ottobre Interazioni con Barry Blumenfeld, Lee Lueking Ottimizzato per fornire i dati dalla cache sul disco o dalla RAM quando possibile Sembra poter scalare fino a job paralleli. Dopo la lettura remota iniziale (in blu) i dati vengono serviti ai WN (in verde) senza ulteriori letture remote

58 Servizi in produzione (3)
ProdAgent Tre macchine installate Tutte sottomettono in parallelo Dataset diversi Il database MySQL di ogni PA viene replicato (su un’altra macchina) in tempo reale con la procedura automatica di MySQL C’è necessità di svecchiare l’hardware utilizzato Phedex Attualmente configurata con Prod/Dev su phedex 2.5 Configurata anche la parte di injection per i dati di McProd e dati reali 3 diverse instanze di download per DB: CERN (FTS del CERN) Standard (FTS del CNAF) SRMCP (srmcp verso i siti dCache)

59 Sistemi di monitoring GANGLIA GridICE dCache Monitoring LEMON

60 I trasferimenti SC3/4 - CSA06
TEMPO CSA06 Saturazione 0.6 Gbps Bari -> CERN Ora 1 Gbps o 120 MB/s

61 I Trasferimenti LoadTest07
Obiettivo: Network Transfers between T1-T2: MB/s

62 La nuova Sala Calcolo della Sezione INFN di BARI
La Sezione INFN sta predisponendo la nuova sala CED (completamento previsto per luglio 2007) spostamento e riunificazione di tutte le risorse di calcolo della Sezione servizio calcolo + esperimenti superficie complessiva ~ 90 m2 un eventuale Tier2 (CMS+ALICE) troverebbe adeguata sistemazione all’interno della nuova sala CED 5 rack APC per il pTIER2+ 3 racks APC per esperimenti Possibilità di espandere fino a 14 racks -130 KW dissipabili 2 + 1 racks: GRID 2 +1 racks: servizi

63 Adeguamento Sala CED la spesa per l’adeguamento della struttura è sostenuta dalla Sezione (con la partecipazione dei gruppi) impianto elettrico + impianto antincendio + distribuzione acqua raffreddamento rack + pavimento flottante spesa prevista: circa 90 K€ inclusa la progettazione (curata da professionista esterno) già acquistati (a fine 2006): 1 chiller dal 125 KW (in consegna) 1 UPS da 80 KVA (consegnato) 1 isola APC con 4 refrigeratori + 6 rack (consegnata) più 2 rack esistenti

64 Tipical CMS T2 in 2007 From Ian Fisk (WLCG workshop)
Local data access: 200MB minimum for T2  Ok We can scale also with current infrastructure up to ~300MB/sec Network Transfers between T1-T2: MB/s OK We have reached ~100MB/sec on WAN transfer without bottleneck (1Gbit/sec physical limit) Job Submissions to Tier-2s: 75k jobs/d -> 1.5kjobs/day per Tier2 OK We need to split gateway services Tier-2 capacity would be ~150CPUs  Not OK Mancano almeno 60 Core Disk storage 20-30TB  Not OK Mancano circa 10 TB

65 Personale Bari CMS INFN Grid
M. Abbrescia, L. Barbone, A. Colaleo, D. Giordano, R. Guida, L. Lusito, M. Maggi, S. My, A. Pompili, G. Pugliese, G. Roselli, R. Trentadue, S. Tupputi, G. Zito INFN Grid J. Atul, G. Cuscela, N. De Filippis, G. Donvito, V. Dudhalkar, A. Pierro

66 Attività di analisi del gruppo CMS di Bari per il 2007
Analysis and high level commisioning Tracker –RPC EWK: Z  mm e W  mn for the first data taking scenario of inclusive cross section of Z and W production, evalutation of systematic uncertainties Higgs: H  ZZ eemm full simulation and analysis for 2008 paper Beyon Standard Model: Z’  tt, Z’  mm Susy: Search for low mass gauginos in 2008 RPC : Si Tracker : Efficiency and resolution in local reconstruction; Trigger efficiency, timing. Tracking: c2, impact parameters; single-hit resulution; Alignment, Vertexing. Measure :

67 Tracker misalignment effects
Bs sample:

68 Richieste finanziarie Bari
Adeguare la farm al minimo per poter partecipare a CSA07 Sono necessari 10 WN 2x Opteron (60 kSI2K) = 30 kEuro Storage SAN 10 TB = 15 kEuro La sostituzione delle 3 UI per la Produzione (ProdAgent)

69 Summa per il 2007 sede attuale CPU attuale disco richieste CPU
richieste disco tot CPU 2007 tot disco 2007 kSI2K TB Legnaro 190 51 112 17 302 68 Roma 85 24 48 25 133 49 Pisa 67 7 60 127 Bari 20 8 80 16 tot 362 90 280 642 157


Scaricare ppt "La federazione dei Tier2"

Presentazioni simili


Annunci Google