Federico Ruggieri Riunione CSN1 PISA 22 Giugno 2004 Il Progetto TIER1 Status Update.

Slides:



Advertisements
Presentazioni simili
Progetto Speciale Prototipo Tier1 F. Ruggieri INFN – CNAF I Workshop CMS Italia del SW e Computing Roma 22 Novembre 2001.
Advertisements

1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
Aspetti critici rete LAN e WAN per i Tier-2
WP 2.4 al Cnaf Cnaf 13/11/00 P.M Hardware: - 12 PC Rack mountable IBM XSeries 330 (1U) 2 processori Pentium III 800 Mhz, FSB 133 Mhz 512 MB Mem Ecc, Controller.
1 Riunione del 29 Marzo 2007 IL PROGETTO SCoPE Prof. Guido Russo I lavori Le apparecchiature Il portale.
Riunione CRESCO Infrastruttura HPC Cresco Analisi Preliminare.
Michele Michelotto INFN-Padova
1 M. Biasotto – Legnaro, 22 Dicembre 2005 Prototipo Tier 2 di Legnaro-Padova INFN Legnaro.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
TISB - Pisa - P. Capiluppi Tier1-CNAF DC04 Activities and Status.
Benigno Gobbo – INFN Trieste 1 CSNI 21 maggio 2001 Stato della farm di COMPASS-TS CSNI Roma, 21 maggio 2001 Benigno Gobbo INFN Trieste
Alessia Tricomi Università & INFN Catania
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
CCR 14-15/03/2006 Status Report Gruppo Storage CCR.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
CSN Maggio 2005 P. Capiluppi Il Computing Model (LHC) nella realta’ italiana u I Computing models degli esperimenti LHC gia’ presentati a Gennaio.
LNF Farm E. V. 9/8/2006. Hardware CE, LCFG, HLR, 3 WN: DL 360 1U; SE: DL 380 2U 5 WN: BL 25 P In totale 25 jobs general purpuse (coda Atlas) + una coda.
Istituto Nazionale di Fisica Nucleare La Biodola, Isola d’Elba, 6-9 maggio 2002 AFS: Status Report WS CCR R.Gomezel Workshop sulle problematiche.
Workshop CCR Otranto - giugno 2006 Gruppo storage CCR Status Report Alessandro Brunengo.
Alessandro Tirel - Sezione di Trieste Storage Area Network Riunione gruppo Storage Padova, 5 ottobre 2005.
Stato del Tier1 e dei servizi collegati Mirco Mazzucato Infn-CNAF CSN1- Roma 1 febbraio 2005.
Gruppo di referaggio: Forti (chair), Bossi, Ferrari, Menasce, Morandin, Simone, Taiuti, Zoccoli TIER2: Update F. Bossi, CSN1 Trieste 7/7/05.
La Farm di Atlas a Roma 1 Outline Architettura della farm Architettura della farm Installazione Installazione Monitoring Monitoring Conclusioni Conclusioni.
Federico Ruggieri Riunione della CSN I Catania 18 Settembre 2002 Il Progetto TIER1 Status Report.
Cosa cambia per CDF  S.Belforte mantiene per ora 20% (1 day/week) su CDF: il necessario per una attivita’ di coordinamento e transizione verso un nuovo.
Il Tier2 di CMS Roma Francesco Safai Tehrani INFN Roma
Federico Ruggieri INFN-CNAF Commissione Scientifica Nazionale I Lecce 24 Settembre 2003 Il Progetto TIER1 Status Update.
La Farm di Alice a Torino Workshop sulle problematiche di calcolo e reti Isola d’Elba 6-9 maggio 2002 Mario Sitta (Università del Piemonte Orientale e.
Calcolo LHC Francesco Forti, Università e INFN – Pisa Per il gruppo di referaggio: F. Bossi, C. Bozzi, R. Carlin, R. Ferrari, F.F., D.Martello, M.Morandin,
Federico Ruggieri INFN-CNAF Riunione della CSN I Perugia Novembre 2002 Il Progetto TIER1.
CDF Calcolo Another brick in the wall Paolo Morettini CSN1 Lecce Valerio Vercesi Settembre 2003.
Ing. Giovanni B. Barone Convegno PON RECAS - Napoli, 16 dicembre 2014 ReCaS Napoli.
SERVER FARM. Server Farm 800 mq di spazio suddiviso in 10 locali tecnici Sala di controllo per il monitoraggio delle reti e dei sistemi Sale tecniche.
Servizio calcolo e reti Sezione di Catania visita referaggio Tier2 Catania 23/1/06 Ernesto Cangiano.
BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015.
Servizio Calcolo Alessandro Brunengo. Indice Attivita’ del servizio calcolo Infrastruttura (sala CED, rete) Servizi centrali Supporto al calcolo scientifico.
“Lezioni imparate dall’ultimo spegnimento del TIER1” Michele Onofri, Stefano Zani, Andrea Chierici CCR 2014 LNS.
Report R.Gomezel CCR dicembre 2006 Roma.
Il Servizio Calcolo e Reti e le attività grid della Sezione INFN di Torino Luciano Gaido.
Roberto Covati – Roberto Alfieri INFN di Parma. Incontri di lavoro CCR dicembre Sommario VmWare Server (in produzione dal 2004) VmWare ESX.
Riunione PRIN STOA - Bologna - 18 Giugno 2014 Testbed del T2 distribuito Napoli-Roma Dr. Silvio Pardi INFN-Napoli Riunione PRIN STOA – Bologna 18 Giugno.
D. Martello Dip. Fisica - Lecce Sintesi piani esperimenti CSN2 CNAF 7-marzo-2007.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Lecce 30 Settembre 2015.
FESR Consorzio COMETA - Progetto PI2S2 Il Tier-2 di ALICE a Catania Roberto Barbera Università di Catania e INFN Visita Referee.
Referaggio sigla CALCOLO D. Bonacorsi, G. Carlino, P. Morettini CCR – Roma 9 Settembre 2014.
Aggiornamento sui lavori di ampliamento degli impianti infrastrutturali del TIER1 e stato delle risorse Cristina Vistoli – Massimiliano Fiore INFN-CNAF.
1 ALICE I ITER2 DI ALICE IN ITALIA Bologna, 6 marzo 2007 M. Masera
Martedi 8 novembre 2005 Consorzio COMETA “Progetto PI2S2” UNIONE EUROPEA Accesso all’infrastruttura Grid del Consorzio COMETA Grid Open Day alla Facoltà.
Referaggio TIER2 di Pisa 30 giugno 2006 Silvia Arezzini (Servizio Calcolo e Reti)
TIER-2: Risorse e tabella di marcia M.L. Ferrer. 5/12/2005 M.L. Ferrer Referaggio TIER-2 LNF 2 Presenti Calcolo: Massimo Pistoni Claudio Soprano Dael.
SCOPE: stato e piano di integrazione Phd. Silvio Pardi CNAF
Test di storage a 10 Gbps proposta. Storage server a 10Gbps Si vuole vedere quali prestazioni si possano ottenere da server connessi a 10 GE –capacita’
G. Maggi 24/1/2006 Il Progetto del TIER2 di Bari Giorgio Maggi.
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
Domenico Elia1CdG Tier1-Tier2 / CNAF ALICE Tier2 sites Domenico Elia CdG Tier1-Tier2 Bologna, 15 Aprile 2015  Infrastruttura e risorse, coordinamento.
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
The INFN Tier-1: progetto di ampliamento Cristina Vistoli – INFN CNAF Referee Meeting Sep
Silvia Arezzini 2 luglio 2014 Consiglio di Sezione per Preventivi.
CCR - Roma 15 marzo 2007 Gruppo storage CCR Report sulle attivita’ Alessandro Brunengo.
Tier1: stato del servizio Pietro Matteuzzi e Luca Dell’Agnello.
L’infrastruttura del progetto ReCaS Paolo Lo Re on behalf of ReCaS collaboration.
Attività Gruppo Virtualizzazione Andrea Chierici CNAF Riunione CCR
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Stato dell’infrastruttura INFN CNAF, Stato dell’infrastruttura Impianti tecnologici Gli impianti di base stanno funzionando, ma sono urgenti.
Tier 2 dell’esperimento Atlas ai LNF
Engineering Faculty University of Messina, Italy Marco Scarpa
Attivita’ e compiti del Servizio Impianti Calcolo e Reti
Assegnazione risorse Stato INFN CNAF,
Transcript della presentazione:

Federico Ruggieri Riunione CSN1 PISA 22 Giugno 2004 Il Progetto TIER1 Status Update

Indice Infrastrutture Risorse DC esperimenti LHC e non Previsione 2005 Novità nell’immediato.

Infrastrutture Nuova Sala Macchine da 1000 mq. Gruppo Elettrogeno 1250 KVA ed UPS 800 KVA. Gruppo Frigorifero 550 KW e Sistema di Condizionamento con: Unità di Trattamento Aria (Temperatura + Umidità) da 110 KW e Unità Locali. Sistema di alimentazione via Blindo-sbarre con corrente trifase ed alimentatori/sezionatori nei Racks. Sistema rivelazione incendi e spegnimento (gas FM200). Trasmissione Dati completata con cablatura interna (UTP e FO) ed esterna (FO Mono e Multi-modo); in corso di completamento l’attestazione GARR (è realizzata temporaneamente con delle FO fra le due sale macchine). 60 Racks: 35 con power switch a controllo remoto dell’accensione e spegnimento. Consolle remota con apparati di switch KVM (tastiera, Video, Mouse) analogici e digitali (via IP) in uso.

Infrastrutture da completare Sistema di allarmistica integrato per i sistemi infrastrutturali e per i sistemi di calcolo. Sistema di controllo comprendente un insieme di telecamere ad accesso remoto. Sono previste per il futuro ulteriori interventi infrastrutturali come: –duplicazione del sistem UPS per avere ridondanza completa anche in caso di manutenzione; –eventuale acquisto di un secondo gruppo frigo per avere totale ridondanza anche sull’impianto di raffrescamento.

Personale Personale di ruolo (5): –Pietro Matteuzzi: Responsabile Servizi di Calcolo del CNAF e Tier1 –Luca Dell’Agnello: Responsabile servizi LCG e Sicurezza. –Andrea Chierici: Responsabile LCG Operations, Site Manager GRID. –Stefano Zani: Storage e Rete –Alessandro Italiano: Sistemistica ed Installazione, Robotica e Libreria, VideoConferenze, Site Manager GRID. Personale a Contratto (7): –Daniele Bonacorsi (A.R.) Supporto SW Esp. (CMS) –Donato De Girolamo (Art. 15) Sistemistica, Allarmistica e Sicurezze. –Giuseppe Lo Re (A.R.) Supporto SW Esp. (ALICE)/CASTOR –Barbara Martelli (Borsa) Sviluppo SW, DB e GRID (RLS). –Guido Negri (A.R.) Supporto SW Esp. (ATLAS) –Pier Paolo Ricci: (Art.23) CASTOR, Storage, Robotica. –Felice Rosso: (Art. 15) Monitoring, Sistemistica ed installazione.

Personale (2) Altro personale su attività collegate: –Massimo Donatelli: (Art.15) Sistemistica, AFS, NFS, KERBEROS. Nuovo Personale –3 Assegni di Ricerca (2 già espletati). –2 Posti Tecnologo (uno in espletamento). –1 Posto di Tecnico (concorso in espletamento). –1 AR LCG per supporto CASTOR al CERN.

Personale (3) Supporto operazioni sistemistiche durante orario di lavoro (9-17). Da fine Giugno: –Supporto orario esteso (8-20) –Reperibilità per problemi gravi ( sabato e festivi). Sono necessarie almeno 8 persone per turnare senza problemi (ferie, malattie, permessi, ecc.).

Il Tier1 multiutenza Viene assegnato in maniera statica solo un massimo del 50% delle risorse. L’altro 50% è acceduto dinamicamente sulla base delle richieste in coda con opportune priorità. GRID permette un accesso trasparente ad entrambe le tipologie di risorse. Si sta studiando un sistema di scheduling che permetta di evitare anche l’allocazione statica del primo 50%.

Risorse HW attuali TipoDescrizioneCapacità Farm 320 biprocessori Ghz 608 KSI2K +55 Babar +48 CDF +30 LHCb Disco Dischi FC, IDE, SCSI, NAS82 TB Raw RAID5+35 TB Nastri Robot L180 STK18 TB / 36 TB (comp.) 118/236 TB Robot L5500 STK 100 TB / 200 TB (comp.) Rete 14 Switch periferici (Rack)48 FE UTP + 2 GE FO 672 FE UTP 48 GE UTP 132 GE FO 2 Switch Periferici24 GE UTP + 4 GE FO 2 Core Switch96 GE FO

Farm Babar

Farm CDF PoP GARR-G

Statistiche PBS 1/3-10/6 Group#jobsdaysPercent ALICE ATLAS CMS LHCb CDF AMS ARGO MAGIC VIRGO2400 dteam tier1100 TOTAL

ALICE

CNAF LCG CNAF

Ultima settimana Ultimi 12 mesi CMS

Nuove Risorse 2004 CPU: 700 KSI2K (350 macchine biproc. Pentium Xeon 3GHz, 4 GB memoria). In consegna 21/6/04. Disco: 150 TB tecnologia FC/ATA (IBM FAStT900): in consegna 25/6/04. Core Switch di Rete da 128 porte Gb + 2 porte 10Gb: Gara in approvazione alla GE.

Le Capacità Richieste Per ogni Tier 1 Multi-esperimento : –Mass Storage: PB/anno -> 8-20% –disk: 1.5 PB -> 10 % –CPU: 10 MSPECint2000 -> 10% Networking Tier 0 (CERN) --> Tier 1: 2-10 Gbps -> 10-50%

Piano 2005 (Risorse) CPU: MSPECint2000 (+CDF+BaBar?) – Dual CPU Disco: TB (+ CDF+BaBar ?) – Dischi da 400 GB Nastri: 500 TB –2500 nastri da 200 GB –Espansione dell’attuale libreria da 2000 a 5000 cassette già prevista nella gara di acquisto.

Piano (Attività) Completamento della configurazione della FARM secondo un meccanismo di scheduling “fair share” combinato con Priorità e riserva di risorse. Portale con servizi: –informativo sulle risorse in uso; –Ticket system per tracciamento e gestione problemi –Supporto agli esperimenti.

Performance Linpack Le prestazioni quotate non sono misurate ma calcolate sulla base di sistemi equivalenti e considerano l’uso di interconnessioni a bassa latenza (es Myrinet). Che posizioni avrebbero le attuali Farm nella classifica dei TOP500

Test FARM per HPC biprocessori GHz con: –4 GB memoria –2 dischi GB –2 Gigabit Ethernet on-board –Interfaccia InfiniBand 4X (10Gbps) su PCI-X MHz Switch InfiniBand porte. Software MPI ottimizzato (SCALI ?) Sistema Operativo Linux (RH ?). Costo previsto “chiavi in mano”: circa 50 K€ (fondi Tier1). Sperimentazioni di applicazioni “Teoriche” e di sistemi di server per Analisi dati con File System distribuito (tipo Lustre).

Prestazioni di InfiniBand 489 MB/s con Dual Link

Scali MPI Connect Features Message latency is measured as half the round-trip delay (ping-pong-half) of a zero length MPI message. InterconnectLatencySustained Bandwidth Myrinet®<9 µsec480 MByte/sec GbE with TCP/IP<50 µsec222 MByte/sec GbE with DET<27 µsec226 MByte/sec SCI<4 µsec385 MByte/sec InfiniBand®<6.4 µsec768 MByte/sec

Bandwidth InfiniBand

Latenza Infiniband

Prodotti InfiniBand Switch 96 Porte Scheda PCI-X 2x10Gbps

PCI Express

Conclusioni Il Centro Regionale Tier1 al CNAF: – sta partecipando attivamente ai Data Challenge degli esperimenti LHC; –Supporta l’attività di altri esperimenti: CDF, BaBar, VIRGO, AMS, MAGIC (ARGO). Una piccola farm di nodi servirà a sperimentare le soluzioni per le farm di analisi.