LNL CMS M.Biasotto, Roma, 22 novembre 2001 1 I Tier2 in CMS Italia Massimo Biasotto - LNL.

Slides:



Advertisements
Presentazioni simili
E835 & Hera-B Concezio Pisa, 21/12/2004. E835 (aka Jet-FNAL) timeline dell'esperimento –Presa dati conclusa nel Alcune analisi tuttora in corso.
Advertisements

A.Fanfani - C.Grandi CMS Bologna 10 febbraio 2009 La nuova farm di CMS Bologna al CNAF Alessandra Fanfani Claudio Grandi.
Progetto Speciale Prototipo Tier1 F. Ruggieri INFN – CNAF I Workshop CMS Italia del SW e Computing Roma 22 Novembre 2001.
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
Aspetti critici rete LAN e WAN per i Tier-2
WP 2.4 al Cnaf Cnaf 13/11/00 P.M Hardware: - 12 PC Rack mountable IBM XSeries 330 (1U) 2 processori Pentium III 800 Mhz, FSB 133 Mhz 512 MB Mem Ecc, Controller.
Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
La facility nazionale Egrid: stato dell'arte Egrid-Team Trieste, 9 ottobre 2004.
Alessandro Italiano INFN - CNAF Grid.it 14 Febbraio 2003 Servizi Generali: RB, UI, RC Information System Alessandro Italiano Grid.it 16 febbraio 2003.
Michele Michelotto INFN-Padova
1 Riunione Testbed - 17 gennaio Agenda - stato del testbed di INFN-GRID (L. Gaido) - le risorse del CNAF (A. Italiano) - report sullo stress test.
Il Tutorial INFN-GRID/EDG di Torino Testbed INFN-GRID.
LNL M.Biasotto, Bologna, 13 dicembre La farm di Legnaro Massimo Biasotto – INFN LNL.
LNL M.Biasotto, Bologna, 13 dicembre Installazione automatica Massimo Biasotto – INFN LNL.
Execution benchmarks Obiettivi Test dettagliati e ben caratterizzati Esecuzione di benchmark standard Test di applicazioni dell'esperimento ALICE 20 Novembre.
LNL M.Biasotto, Bologna, 18 ottobre La farm CMS di Padova - Legnaro Proposta di acquisto hardware 2° semestre 2001.
LNL M.Biasotto, Bologna, 19 marzo La farm CMS di Padova - Legnaro Proposta di acquisto hardware 1° semestre 2001.
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
1 M. Biasotto – Legnaro, 22 Dicembre 2005 Prototipo Tier 2 di Legnaro-Padova INFN Legnaro.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
Case study Maiora srl.
Benigno Gobbo – INFN Trieste 1 CSNI 21 maggio 2001 Stato della farm di COMPASS-TS CSNI Roma, 21 maggio 2001 Benigno Gobbo INFN Trieste
Alessia Tricomi Università & INFN Catania
* * Data Challenge 04 Stato dei centri di produzione in Italia.
Il supercalcolo fai-da-te
LNL GM, CNAF, 18 ottobre INFN-Farm Management Toolkit 1.Fabric Management per DataGrid e INFNGrid 2.Definizione dei requisiti degli esperimenti.
Manutenzioni e Mezzi di Calcolo Paolo Morettini – INFN Genova Valerio Vercesi – INFN Pavia CSN1 - Catania Settembre 2002.
3 Aprile CSN1 P. Capiluppi Tier2 CMS Italia.
Test Storage Resource Manager per SC4 Giacinto Donvito Vincenzo Spinoso.
16 Maggio CSN1 Computing-Software-Analysis CMS-INFN TEAM Analisi in CMS: stato e prospettive del supporto italiano.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
LNF Farm E. V. 9/8/2006. Hardware CE, LCFG, HLR, 3 WN: DL 360 1U; SE: DL 380 2U 5 WN: BL 25 P In totale 25 jobs general purpuse (coda Atlas) + una coda.
Attivita' Grid in BaBar Workshop sulle Problematiche di Calcolo e Reti nell'INFN Maggio 2004.
Installation and evaluation of the Globus toolkit Massimo Sgaravatto INFN Padova.
Alessandro Tirel - Sezione di Trieste Storage Area Network Riunione gruppo Storage Padova, 5 ottobre 2005.
Calcolo esperimenti LHC 2004 F. Ferroni, P. Lubrano, A. Martin, M. Morandin, M. Sozzi.
1 Calcolo e software G. Bagliesi 23/3/01 Riassunto riunione calcolo Bologna 19/3/01 B/tau : futuri miniworkshop.
Federico Ruggieri INFN-CNAF Commissione Scientifica Nazionale I Lecce 24 Settembre 2003 Il Progetto TIER1 Status Update.
CMS 1 M. Biasotto – Bologna 20/01/2005 Infrastruttura di calcolo per CMS-Italia M.Biasotto – INFN Legnaro e i gestori dei centri CMS Italia.
La Farm di Alice a Torino Workshop sulle problematiche di calcolo e reti Isola d’Elba 6-9 maggio 2002 Mario Sitta (Università del Piemonte Orientale e.
I testbed ed il loro uso 1 I testbed ed il loro uso L. Gaido, A.Ghiselli CSN1, Perugia novembre 2002.
M.Biasotto, Bologna, 28 giugno 2004 M.Biasotto, Bologna, 28 giugno LNL CMS T2 Legnaro Stato attuale e richieste 2004/2005.
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
Nuovo Ambiente CS7402. Attività Principali Gli obiettivi principali della migrazione sono stati quelli di ottenere: –Un’infrastruttura di produzione (Mainframe.
BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015.
Gaetano Maron, Presentazione T2 LNL-Padova, Legnaro 22 dicembre Il Servizio Tecnologie Informatiche ed Elettroniche dei LNL Gaetano Maron.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Lecce 30 Settembre 2015.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
Stato di GARR-X Claudia Battista Workshop CCR INFN - Isola d’Elba 17 maggio 2011.
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
FESR Consorzio COMETA - Progetto PI2S2 Il Tier-2 di ALICE a Catania Roberto Barbera Università di Catania e INFN Visita Referee.
Referaggio sigla CALCOLO D. Bonacorsi, G. Carlino, P. Morettini CCR – Roma 9 Settembre 2014.
Progetto iSCSI Report alla CCR 12-13/12/2006 Alessandro Tirel – Sezione di Trieste.
11 Richieste di banda Anno 2010 T.Ferrari, M.Morandin CCR, Roma, 30 settembre 2009.
Aggiornamento sui lavori di ampliamento degli impianti infrastrutturali del TIER1 e stato delle risorse Cristina Vistoli – Massimiliano Fiore INFN-CNAF.
1 ALICE I ITER2 DI ALICE IN ITALIA Bologna, 6 marzo 2007 M. Masera
Martedi 8 novembre 2005 Consorzio COMETA “Progetto PI2S2” UNIONE EUROPEA Accesso all’infrastruttura Grid del Consorzio COMETA Grid Open Day alla Facoltà.
Referaggio TIER2 di Pisa 30 giugno 2006 Silvia Arezzini (Servizio Calcolo e Reti)
Riunione CSN1, Roma, Gennaio 2012F. Bedeschi, INFN-Pisa 1 Riunione CSN1  Comunicazioni  Comunicazioni varie  Riunioni future  Similfellows  Regole.
Test di storage a 10 Gbps proposta. Storage server a 10Gbps Si vuole vedere quali prestazioni si possano ottenere da server connessi a 10 GE –capacita’
G. Maggi 24/1/2006 Il Progetto del TIER2 di Bari Giorgio Maggi.
Domenico Elia1CdG Tier1-Tier2 / CNAF ALICE Tier2 sites Domenico Elia CdG Tier1-Tier2 Bologna, 15 Aprile 2015  Infrastruttura e risorse, coordinamento.
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
The INFN Tier-1: progetto di ampliamento Cristina Vistoli – INFN CNAF Referee Meeting Sep
CCR - Roma 15 marzo 2007 Gruppo storage CCR Report sulle attivita’ Alessandro Brunengo.
1 Le macchine di questo pool fanno parte di una lan privata (la 125 illustrata a pag.2), di cui t2cmcondor è il gateway. Sono presenti 3 macchine su rete.
L’infrastruttura del progetto ReCaS Paolo Lo Re on behalf of ReCaS collaboration.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Gaetano Maron, Presentazione T2 LNL-Padova, Legnaro 22 dicembre Il centro di calcolo Tier2 di LNL-PD Gaetano Maron.
Assegnazione risorse Stato INFN CNAF,
Transcript della presentazione:

LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL

LNL CMS M.Biasotto, Roma, 22 novembre Sommario  Stato attuale delle farm italiane  Il Tier2 di riferimento a Legnaro/Padova  Il servizio di analysis farm da implementare a LNL  Conclusioni

LNL CMS M.Biasotto, Roma, 22 novembre Le farm italiane Tier2+ Tier2 Tier3 Tier1

LNL CMS M.Biasotto, Roma, 22 novembre Stato attuale Sezione # CPU SI 95 Storage (TB) Bari Bologna Catania Firenze 50 (shared: 17) 1900 (shared: 630) 1.7 Legnaro Padova Perugia Pisa Roma Torino Totale

LNL CMS M.Biasotto, Roma, 22 novembre Evoluzione 2002 Sezione SI SI Storage-2001Storage-2002 Bari Bologna Catania Firenze (?)1.7+2(?) Legnaro (?)10+6 Padova Perugia Pisa Roma1100? (?) Torino Totale (?) (?)

LNL CMS M.Biasotto, Roma, 22 novembre Riepilogo CPU

LNL CMS M.Biasotto, Roma, 22 novembre Riepilogo Storage

LNL CMS M.Biasotto, Roma, 22 novembre Layout tipico  Notevole uniformita’ delle farm sia nell’architettura che nel software (grazie anche al toolkit di installazione)  Architettura tipica: –1 gateway (accesso esterno, home utenti, sw applicativo) –storage centralizzato su 1 o piu’ disk servers in GigaEthernet –N nodi di calcolo in FastEthernet SWITCHSWITCH DISK SERVER GE FE GATEWAY N2 N1 Nx NODI DI CALCOLO LAN

LNL CMS M.Biasotto, Roma, 22 novembre Storage: SCSI / EIDE  Attualmente: –EIDE a BO, CT, LNL, PD, PG, PI, TO –SCSI a BA, FI, RM  Costo per GB favorevole all’EIDE –SCSI 22k/GB (HD da 160) –EIDE 9k/GB (HD da 80)  In arrivo per gli SCSI HD da 320GB, ma anche per gli EIDE HD da 160  I controller RAID per EIDE (3ware Escalade 6000, Adaptec 2400) offrono performance equivalenti agli SCSI nel RAID0 Per il RAID 5 invece rimane la superiorita’ degli SCSI, specialmente in scrittura (EIDE: ~15MB/s, SCSI: ~45MB/s), ma la situazione potrebbe evolvere

LNL CMS M.Biasotto, Roma, 22 novembre CPU  Attualmente tutte le farm con Intel PIII (tipicamente 1GHz). Anche negli acquisti in corso si e’ rimasti sul PIII, nella versione Tualatin con 512MB di cache (a 1.13 o 1.26 GHz)  Nessuno ha “rischiato” nel provare le alternative (Intel Xeon o AMD Athlon) che offrono frequenze di clock maggiori, fino a 2GHz  A Padova nell’ambito del WP4 di INFNGRID stanno acquistando alcune di queste macchine: sarebbe interessante provare il software CMS per verificare se la maggiore velocita’ teorica corrisponde a reali benefici nella pratica.

LNL CMS M.Biasotto, Roma, 22 novembre Network GRID PI RM PG PD TO BA BO CT FI LNL 12Mb 4Mb 8Mb 28Mb 16Mb 32Mb 12Mb 34Mb GPOP PD GPOP PD ~ 2 Gb ~ 10 Gb

LNL CMS M.Biasotto, Roma, 22 novembre Layout Farm LNL FastEth 32 – GigaEth 1000 BT SWITCH N1 FastEth SWITCH 1 8 S1 S16 N24 N1 Nx – Computational Node Dual PIII – 1 GHz 512 MB 3x75 GB Eide disk + 1x20 GB for O.S. Sx – Disk Server Node Dual PIII – 1 GHz Dual PCI (33/32 – 66/ MB 4x75 GB Eide Raid disks (exp up to 10) 1x20 GB disk O.S. FastEth SWITCH N1 2 N Nodes 8 TB up to 190 Nodes S Servers 3 TB To WAN 34 Mbps 2001 ~ 1Gbps SI95

LNL CMS M.Biasotto, Roma, 22 novembre Farm LNL 7 m 10 m max 16 PC (5 kW) x shelf module max 64 PC (20 kW) x shelf (4 modules) ~ 6 KSI95 Now 19” rack (5 kW) for network Equipments, Disks, etc. Max 200 Box T2+ Prototype T2+ Evolution max 30 1U PC (10 kW) x rack PC (10 kW) x rack Replacing old shelfs with 19” racks Max 1000 Boxes ~ 3 KSI95 Now ~ 25 TB Now T2+ Rif. ~ 70 KSI95 ~ 250 TB

LNL CMS M.Biasotto, Roma, 22 novembre Farm LNL

LNL CMS M.Biasotto, Roma, 22 novembre Espansione Farm LNL  Acquisti in corso con i finanziamenti 2002 anticipati al 2001: –3TB dischi EIDE nei server gia’ esistenti –~ 30 PC (computing nodes) –3TB dischi SCSI + 3 PC disk-servers –Tape Library StorageTek L80 LTO (8TB in linea) finanziata dalla comm. calcolo  Nei 3 servers con 3TB sara’ installato il DB che raccogliera’ tutte le produzioni fatte (non solo LNL ma tutta CMS Italia)  Con questo DB si potra’ avviare un servizio di Analysis Farm, inizialmente per la comunita’ italiana e poi per tutta CMS.

LNL CMS M.Biasotto, Roma, 22 novembre Layout farm LNL 2002: produzione + analisi FastEth 32 – GigaEth 1000 BT SWITCH N1 FastEth SWITCH S1 S11 N24 N1 FastEth SWITCH N1 N24 S10 To WAN 34 Mbps 2001 ~ 1Gbps 2002 S12 S13 Production computing nodes Analysis computing nodes Production servers Analysis servers

LNL CMS M.Biasotto, Roma, 22 novembre La farm di analisi  Come implementare il servizio di analisi per gli utenti CMS?  Negli ultimi mesi esperienza limitata (muoni PD + altri) con account locali per gli utenti: non puo’ andar bene su scala piu’ estesa  Servizio su piu’ livelli: –gennaio 2002 (quando arriva l’hardware): installazione e creazione del DB  accesso remoto al DB: AMS su WAN –gennaio 2002: installazione GDMP  possibilita’ di copia del DB via GDMP –inizio 2002: grid tools  sottomissione remota di jobs di analisi in esecuzione locale su parte della farm

LNL CMS M.Biasotto, Roma, 22 novembre Grid tools per la farm di analisi (I)  Utilizzo dei tools di grid per: –autenticazione e autorizzazione utenti remoti (certificati personali, VO LDAP server di CMS) –sottomissione remota di jobs (WP1 tools, anche senza Resource Broker) –data moving (WP2 tools: GDMP, GridFTP,...)  Gia’ avviati i test di questi tools, in concomitanza col Testbed di Datagrid  In parallelo ed oltre ai test ufficiali per Datagrid, in alcuni siti CMS/Grid (LNL, PD, BO,...) prove specifiche per verificare la corrispondenza dei tools alle nostre esigenze

LNL CMS M.Biasotto, Roma, 22 novembre Grid tools per la farm di analisi (II) RESOURCE BROKER COMPUTING ELEMENT LNL PD CMS LDAP SERVER REPLICA CATALOG SERVER CNAF REPLICA CATALOG SERVER CMS LDAP SERVER GATE KEEPER STORAGE ELEMENT GATE KEEPER STORAGE ELEMENT USER - - -

LNL CMS M.Biasotto, Roma, 22 novembre Grid tools per la farm di analisi (III)  Completati i test, installazione sulla farm  Inizialmente con numero limitato di utenti. E’ necessario procedere per gradi perche’ si tratta di una cosa nuova (mai sperimentata neanche da altri) –efficienza dei tools in un ambiente reale? –impatto sulla farm di produzione?  L’evoluzione successiva dipendera’ naturalmente dai riscontri via via ottenuti  Se i risultati saranno positivi si potra’ pensare all’utilizzo dei grid tools anche per le produzioni

LNL CMS M.Biasotto, Roma, 22 novembre Conclusioni  Il modello estremamente distribuito del calcolo di CMS Italia rappresenta da una parte un problema –necessita’ di sviluppare efficaci strategie e tools di coordinamento  Grid tools, Impala, Boss,...  Ma dall’altra una grande opportunita’ –ampia base di esperienze  stima rapporto ottimale CPU/Disco (0.1*e, 0.5<e<1)  stima rapporto ottimale Server/Computing nodes (1:7) –possibilita’ di esplorare nuove idee