La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

1 M. Biasotto – Padova, 31 gennaio 2006 Il centro di calcolo Tier2 di LNL-PD Massimo Biasotto Gaetano Maron.

Presentazioni simili


Presentazione sul tema: "1 M. Biasotto – Padova, 31 gennaio 2006 Il centro di calcolo Tier2 di LNL-PD Massimo Biasotto Gaetano Maron."— Transcript della presentazione:

1 1 M. Biasotto – Padova, 31 gennaio 2006 Il centro di calcolo Tier2 di LNL-PD Massimo Biasotto Gaetano Maron

2 2 M. Biasotto – Padova, 31 gennaio 2006 Sommario Il prototipo Tier 2 (farm CMS e INFNGRID) – Evoluzione – Attivita CMS – Attivita GRID Il progetto Tier-2 per CMS e Alice – Funzioni – Risorse – Infrastruttura – Costi – Personale

3 3 M. Biasotto – Padova, 31 gennaio 2006 Prototipo T2: startup nel 2001 Luglio 2001: setup e avvio Farm CMS 34 nodi di calcolo, 10 disk server: 44 box, 88 CPU, ~35 kSI2000, ~3 TB Infrastruttura logistica: – stanza di 70mq, 30 KW (iniziali, poi espansi a 90), raffreddamento in aria, UPS e gruppo elettrogeno – scaffali e PC minitower al posto di rack Tools di installazione e gestione – installazione automatica, batch system (LSF) – monitoring (MRTG)

4 4 M. Biasotto – Padova, 31 gennaio 2006 Prototipo T2: 2001

5 5 M. Biasotto – Padova, 31 gennaio 2006 Risorse hw nodi di calcolo, 140 CPU, ~180 kSI2000 – IBM/Intel blades dual Xeon 2.4/3.0 GHz ~10 disk server, ~25TB – ancora i vecchi server con dischi IDE + 3ware, SAN StorageTek non ancora in produzione Risorse hw 2005:

6 6 M. Biasotto – Padova, 31 gennaio 2006 Evoluzione hardware CPU: dai PC tower sugli scaffali ai Blade-centers su rack Storage: dai disk servers (dischi IDE + controller 3ware) alla SAN (dischi SATA/FC + controller StorageTek)

7 7 M. Biasotto – Padova, 31 gennaio 2006 Prototipo T2: 2005

8 8 M. Biasotto – Padova, 31 gennaio 2006 T2 computing center layout 10 GE backbone DS 1 DS n To WAN DPM Computing Nodes (Blade Centers) Local Servers GW UI Local Gateway CE GigaEth SWITCH N1 N1 4 GigaEth SWITCH N1 N1 4 GigaEth SWITCH N1 N1 4 GigaEth SWITCH N1 N1 4 GigaEth N1 N1 4 DS1 DS 2 SRM Storage Element Grid GateKeeper Grid User Interface SWITCH DS n SAN

9 9 M. Biasotto – Padova, 31 gennaio 2006 Esperienze acquisite Evoluzione tools e competenze CPU: dai PC tower ai Blade Centers Storage: – Controller 3ware: limiti e problemi – Storage Area Network Tools di installazione e gestione: – da sistemi semi-automatici (ANIS) a quelli attuali molto piu completi e scalabili (LCFG, YAIM) Batch system: LSF Monitoring: – MRTG, Remstats, Ganglia

10 10 M. Biasotto – Padova, 31 gennaio 2006 Monitoring: Ganglia Prima versione di Ganglia in funzione da marzo 2002: quasi 4 anni di statistiche accumulate Uso della RAM, da marzo 2002 a dicembre 2005 Numero di running jobs, da marzo 2002 a dicembre

11 11 M. Biasotto – Padova, 31 gennaio 2006 Attivita CMS

12 12 M. Biasotto – Padova, 31 gennaio 2006 Attivita CMS: 2001 Luglio 2001: consegna dellhardware, installazione e setup della farm In questa fase iniziale LNL gestisce solo la parte sistemistica Produzione MC e analisi per CMS gestite dal gruppo CMS di Padova

13 13 M. Biasotto – Padova, 31 gennaio 2006 Attivita CMS: 2002 Dal 2002 coinvolgimento del personale LNL anche nelle attivita CMS Spring 2002 Production: 1.2 milioni di eventi simulati a LNL per un totale di 1.5 TB di dati Analisi in locale e trasferimento al CERN CMS-EDG stress test Spring ProductionAnalysis e-gamma production Missing data Monitor starting from end of Mar 2002

14 14 M. Biasotto – Padova, 31 gennaio 2006 Attivita CMS: 2003 PCP03 Production: oltre 5 milioni di eventi simulati a LNL (10% del totale CMS) Analisi in locale e trasferimento al CERN e-gamma production PCP 03

15 15 M. Biasotto – Padova, 31 gennaio 2006 Attivita CMS: 2004 Con lavvio di LCG inizia a cambiare il tipo di attivita del T2, da gestione di produzioni locali ad attivita piu di sito Grid che offre servizi a tutta la comunita Produzioni MC in locale: 3.2 M eventi, per la maggior parte DST di dataset prodotti l'anno prima. Maggior parte della produzione via grid Publishing dei dati locali (PubDB) per analisi a tutto CMS via grid tools: ~5 TB di dati Partecipazione a CMS Data Challenge 04

16 16 M. Biasotto – Padova, 31 gennaio 2006 Attivita CMS: 2005 Produzioni MC locali: 1M eventi DST + 4M Hit+Digi cosmici Produzioni MC via grid e Publishing dati per analisi Service Challenge 3

17 17 M. Biasotto – Padova, 31 gennaio 2006 Altre attivita CMS Supporto allattivita del gruppo di sviluppo e costruzione delle camere muoni – Repository dati e macchine per attivita di analisi e sviluppo Produzioni camere Testbeams Cosmic Challenge 2006

18 18 M. Biasotto – Padova, 31 gennaio 2006 Grid activity milestones 2001/2005

19 19 M. Biasotto – Padova, 31 gennaio 2006 Grid activity: 2001/ : First Quantum INFNGrid site. Direct contribution on building EDG first release (WP4: fabric mgmt, LCFG/LCFGng installation and configuration tools) : EDG installation and test : CMS stress test; participation of 10 sites. LNL 1 st in storage availability, 2 nd in CPU sharing (EDG 1.2.2) : first EU+US testbed; involved in DataTAG+iVDG collaboration. SC IST2002 (monitoring infrastructure and CMS test production cmsim+cmkin) : 40 CPUs shared with the GRID environment

20 20 M. Biasotto – Padova, 31 gennaio 2006 Grid activity: : EDG v1_4_3 installation and test :122 CPUs shared with the GRID environment (end of DataGrid project) : LCG-0 installation and test : LCG installation and test (first LCG stable release) :128 CPUs in LCG -> the most powerful farm in LCG 1.1.3; it is a hybrid farm where the the WNs are shared among local and grid use

21 21 M. Biasotto – Padova, 31 gennaio 2006 Grid activity: spring: CMS DC04 participation : ALICE production in LCG environment : LHCb DC04 in LCG; LNL is mentioned at 6 th place on the top ten production site list : queue/VO partitioning; during the ATLAS DC2, LNL give priority to ATLAS queued jobs : at the GDB presentation, LNL is one of the most active ATLAS DC2 LCG sites (LCG + Grid3 + NordUGrid involved sites) : ATLAS is using entirely the LNL GRID storage resources Atlas DC 2 LHCb DC04

22 22 M. Biasotto – Padova, 31 gennaio 2006 Grid activity: : LCG installation and test; its a specific SC3 release deployed only by a restricted number of sites to help LCG to address SC3 needs then included in LCG2.6.0 stable release ( ) : SC03 T1-T2 first transfer tests (SRM-DPM) : LCG CPUs - 5 blade centers / 180 KSI KSF00

23 23 M. Biasotto – Padova, 31 gennaio 2006 Il progetto Tier-2 per CMS e Alice

24 24 M. Biasotto – Padova, 31 gennaio 2006 Da prototipo a T2? LINFN sta ora decidendo quali tra i prototipi diventeranno Tier 2 ufficiali (9 siti candidati per i 4 esperimenti di LHC). Legnaro-Padova candidato T2 per CMS e Alice Settembre 2005: presentazione Progetto di massima dicembre-gennaio: visite referees ai siti – Presentazioni:

25 25 M. Biasotto – Padova, 31 gennaio 2006 Progetto di massima del centro Funzioni del centro per gli esperimenti Risorse hardware (cpu e disco) Infrastruttura – Rete – Logistica (potenza elettrica, raffreddamento, UPS) Risorse umane – Ruoli di responsabilita (gestionale, coordinamento, tecniche e operative) – Personale (servizi base, sistemisti dedicati, supporto operativo degli esperimenti) Piano finanziario

26 Conclusioni Lo studio della produzione di quark pesanti, a cui si è finora interessato il gruppo PD-LNL, è uno dei temi di punta del programma di fisica di ALICE Queste analisi sono tra quelle che richiedono maggiori risorse in termini di tempo di CPU e spazio su disco Produzioni ad alta statistica sono necessarie per preparare le strategie di analisi per studiare leffetto dei tagli e calcolare le corrispondenti correzioni Nel Computing Model di ALICE, i Tier-2 sono considerati come risorse condivise dallintera Collaborazione e non dedicate a priori a specifici studi di fisica Gli interessi e lesperienza del nostro gruppo potrebbero rendere naturale lindirizzamento di attività di calcolo concernenti i quark pesanti sul Tier-2 PD-LNL Dalla presentazione di A. Dainese (Alice)

27 Il gruppo ALICE PD-LNL F. Antinori M. Cinausero A. Dainese D. Fabris J. Faivre E. Fioretto M. Lunardon M. Morando [coordinatore Heavy Flavour Physics Working Group] S. Moretto G. Prete F. Scarlassara G. Segato F. Soramel R. Turrisi L. Vannucci G. Viesti Dalla presentazione di A. Dainese (Alice)

28 Tier 2 CMS a LNL 1) centro di analisi per le analisi fisiche di interesse della comunità italiana, in particolar modo (ma non esclusivamente) dei Muoni e del Tracker e relativamente ad analisi in topologie con muoni nello stato finale 2) supporto centrale alle attività di calibrazione/sincronizzazione e allineamento delle camere a mu dell apparato e calibrazione della scala della misura di momento (campo magnetico) Centro di riferimento per le comunità dei Tier3 di: Bologna, Padova, Torino(muoni) (40-50 ricercatori coinvolti) + attività legate agli stream di calibrazione dei muoni da parte dei gruppi di Bari e Napoli Scopi e funzioni: Dalla presentazione di U. Gasparini (CMS)

29 Persone ai Tier3 Bologna (15 ricercatori) G. Abbiendi, A. Benvenuti, F. Cavallo, P. Capiluppi, C.Grandi, M. Dallavalle, F. Fabbri, A. Fanfani, S. Marcellini, G. Masetti, M. Montanari, F. Navarria, F. Odorici,, A. Perrotta,T.Rovelli,R.Travaglini Padova (20 ricercatori) P.Azzi, N.Bacchetta, D.Bisello, P.Checchia,E.Conti, T.Dorigo, F.Gasparini, U.Gasparini, U.Dosselli, S.Lacaprara, I.Lippi, M.Loreti, M.Mazzucato, A.Meneguzzo, P.Ronchese, S.Vanini, E.Torassa, M.Zanetti, PL.Zotto, G.Zumerle Torino (16 ricercatori) E.Accomando,N.Amapane, M.Arneodo, A.Ballestrero, R.Bellan, G.Cerminara, E.Maina, S.Maselli, C.Mariotti, V.Monaco, M.Nervo, A.Romero, M.Ruspa, R.Sacchi, A.Solano, A.Staiano In blu persone attualmente fortemente attive in sw/analisi : 23 persone Dalla presentazione di U. Gasparini (CMS)

30 30 M. Biasotto – Padova, 31 gennaio 2006 Previsione risorse CMS + Alice CPU (kSI2K) Disk (TB) CPU (#box) Disk (#disk) #Racks Potenza (kW)

31 31 M. Biasotto – Padova, 31 gennaio 2006 SALA 0009 per CPU ~ 60 m 2 / 150 kW SALA 0022 per STORAGE ~ 40 m 2 / 50 kW UPS sala 22 Frigoriferi Sala 9 Gruppo Elettrogeno Tier 2 Storage T2 Farm LNL Servizi Logistica Sala III Ground floor CPU + dischi

32 32 M. Biasotto – Padova, 31 gennaio UPS per sala 9 Logistica Sala III underground: UPS

33 33 M. Biasotto – Padova, 31 gennaio 2006 Possibili Estensioni Nel caso in cui gli sviluppi futuri richiedano estensioni a quanto previsto, sara possibile sfruttare: – Sala equivalente della 0009 al piano 1 – Utilizzo completo della sala 0022

34 34 M. Biasotto – Padova, 31 gennaio 2006 Rete: centro stella della farm RC1 RC2 RC3 RC8 RD1 RD2 RD5 10 Gbps backbone 40 Gbps 50 Gbps Racks CPUsRacks dischi ~ 1 Gbps per nodo

35 35 M. Biasotto – Padova, 31 gennaio 2006 Rete: collegamento con il T3 di Padova RC1 RC2 RC3 RC8 RD1 RD2 RD5 10 Gbps backbone Dark fiber 10 Gpbs Link diretto senza passare per Il router di sezione PRO piu economico non interferisce con il router possibilita di accedere ai dati direttamente (dCache/DPM) varie possibilita di operare T2 LNL Backup T3 Pd RC1 RC2 RC3 RC8 RD1 RD2 RD5 10 Gbps backbone T2 LNL Router Pd Router LNL Al pop Pd T3 Pd Llink attraverso I router Architettura standard, ben conosciuta e testata Da definire con attenzione le specifiche del T3 e preparare dei test bed. Soluzione a 1 Gbps gia pronta da testare Cisco 6509 CEF720 4 porte 10 Gbps

36 36 M. Biasotto – Padova, 31 gennaio 2006 Consumo kW CPU 25 SI2K/W Limite a 600 W Limite 600 (+ 50%)

37 37 M. Biasotto – Padova, 31 gennaio 2006 Consumo CPU e dischi

38 38 M. Biasotto – Padova, 31 gennaio 2006 Potenza Elettrica per il T2

39 39 M. Biasotto – Padova, 31 gennaio 2006 UPS + Gruppo elettrogeno La sala 0022 ha gia ups n+1 per un totale di 90 kW La sala 0009 avra 2 UPS da 200 kW luno Il centro T2 sara munito di un gruppo elettrogeno dedicato da 630 kW

40 40 M. Biasotto – Padova, 31 gennaio 2006 Impianti frigoriferi La sala 0022 e gia condizionata (fino a 90 kW non ridondati) Condizionamento sala 0009 (60 m 2 ) : sistema n+1 60 kW Cooled water ai racks

41 41 M. Biasotto – Padova, 31 gennaio 2006 Rack CPU freddi per sala 0009 Il numero di rack per le CPU e stato calcolato in modo Da non superare mai i 20 kW per rack. Per le CPU pensiamo di utilizzare rack raffreddati ad acqua. Knurr 22 kW 12 Keuro/rack CIAT societa francese di condizionatori. Soluzione semplice scambiatore sulla porta posteriore ventole sulla stessa porta CMS on-line rack fino a 10 kW (2.5 Keuro/rack) Trattative in corso per 20 kW

42 42 M. Biasotto – Padova, 31 gennaio 2006 Costo Infrastrutture Con rack knurr

43 43 M. Biasotto – Padova, 31 gennaio 2006 Personale Personale tecnico, non degli esperimenti Personale permanente Legnaro: – M.Biasotto (100%), L.Berti (20%), N.Toniolo (30%), M.Gulmini (30%, dal 2007) Personale a tempo determinato Legnaro: – S.Badoer (100% fino al 2007) Personale permanente Padova: – 2 FTE (1 dal 2007 e 1 dal 2008) Personale a tempo determinato Padova: – S.Fantinel (50%, fino al 2007?) Outsurcing: 0.2 FTE

44 44 M. Biasotto – Padova, 31 gennaio 2006 Personale del centro T2

45 45 M. Biasotto – Padova, 31 gennaio 2006 Organigramma T2 Responsabile Gestione G. Maron (M. Biasotto) Responsabile Attivita CMS U. Gasparini Responsabile Attivita Alice L. Vannucci Responsabile Tecnico M. Biasotto Responsabile Impianti R. Pegoraro Responsabile interfaccia GRID S. Fantinel Servizi di Base Biasotto Berti Toniolo Sistemisti Biasotto Berti Toniolo Gulmini Badoer 2 FTE Padova Outsourcing


Scaricare ppt "1 M. Biasotto – Padova, 31 gennaio 2006 Il centro di calcolo Tier2 di LNL-PD Massimo Biasotto Gaetano Maron."

Presentazioni simili


Annunci Google