Federico Ruggieri Riunione della CSN I Catania 18 Settembre 2002 Il Progetto TIER1 Status Report.

Slides:



Advertisements
Presentazioni simili
23/01/01Alberto Masoni – GR1 - Roma1 I MODELLI DI CENTRI REGIONALI POSIZIONE DI ALICE ITALIA CENTRO ITALIANO: CPU 450 KSI95, DISCO 400 TB (INSIEME TIER-1.
Advertisements

Progetto Speciale Prototipo Tier1 F. Ruggieri INFN – CNAF I Workshop CMS Italia del SW e Computing Roma 22 Novembre 2001.
Aspetti critici rete LAN e WAN per i Tier-2
WP 2.4 al Cnaf Cnaf 13/11/00 P.M Hardware: - 12 PC Rack mountable IBM XSeries 330 (1U) 2 processori Pentium III 800 Mhz, FSB 133 Mhz 512 MB Mem Ecc, Controller.
1 Riunione del 29 Marzo 2007 IL PROGETTO SCoPE Prof. Guido Russo I lavori Le apparecchiature Il portale.
Michele Michelotto INFN-Padova
1 Riunione Testbed - 17 gennaio Agenda - stato del testbed di INFN-GRID (L. Gaido) - le risorse del CNAF (A. Italiano) - report sullo stress test.
LNL M.Biasotto, Bologna, 13 dicembre La farm di Legnaro Massimo Biasotto – INFN LNL.
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
1 M. Biasotto – Legnaro, 22 Dicembre 2005 Prototipo Tier 2 di Legnaro-Padova INFN Legnaro.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
TISB - Pisa - P. Capiluppi Tier1-CNAF DC04 Activities and Status.
Benigno Gobbo – INFN Trieste 1 CSNI 21 maggio 2001 Stato della farm di COMPASS-TS CSNI Roma, 21 maggio 2001 Benigno Gobbo INFN Trieste
Stefano Zani e Pierpaolo Ricci (INFN CNAF)
Architettura di storage ad alta affidabilita e bilanciamento di carico per volumi centrali e di esperimento A.Brunengo, M.Corosu INFN Sezione di Genova.
Alessia Tricomi Università & INFN Catania
* * Data Challenge 04 Stato dei centri di produzione in Italia.
CCR 14-15/03/2006 Status Report Gruppo Storage CCR.
Servizio Sistema Informativo - Area Gestione Sistemi e Sicurezza – LNF – Dael Maselli Area Gestione Sistemi e Sicurezza LNF Plenaria Servizio Sistema Informativo.
Servizio Sistema Informativo - Area Gestione Sistemi e Sicurezza – LNF – Dael Maselli Area Gestione Sistemi e Sicurezza LNF Plenaria Servizio Sistema Informativo.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
CSN Maggio 2005 P. Capiluppi Il Computing Model (LHC) nella realta’ italiana u I Computing models degli esperimenti LHC gia’ presentati a Gennaio.
LNF Farm E. V. 9/8/2006. Hardware CE, LCFG, HLR, 3 WN: DL 360 1U; SE: DL 380 2U 5 WN: BL 25 P In totale 25 jobs general purpuse (coda Atlas) + una coda.
Federico Ruggieri Riunione CSN1 PISA 22 Giugno 2004 Il Progetto TIER1 Status Update.
Servizio Sistema Informativo - Area Gestione Sistemi e Sicurezza – LNF – Dael Maselli Area Gestione Sistemi e Sicurezza LNF Plenaria Servizio Sistema Informativo.
CSN1-Assisi L.Perini1 BaBar Calcolo L. Perini per i referees: L.Perini,A.Staiano…
Istituto Nazionale di Fisica Nucleare La Biodola, Isola d’Elba, 6-9 maggio 2002 AFS: Status Report WS CCR R.Gomezel Workshop sulle problematiche.
Workshop CCR Otranto - giugno 2006 Gruppo storage CCR Status Report Alessandro Brunengo.
Alessandro Tirel - Sezione di Trieste Storage Area Network Riunione gruppo Storage Padova, 5 ottobre 2005.
Grid nelle sezioni: Milano Luca Vaccarossa INFN – Sezione di Milano Workshop sulle Problematiche di Calcolo e Reti nell'INFN.
La Farm di Atlas a Roma 1 Outline Architettura della farm Architettura della farm Installazione Installazione Monitoring Monitoring Conclusioni Conclusioni.
Cosa cambia per CDF  S.Belforte mantiene per ora 20% (1 day/week) su CDF: il necessario per una attivita’ di coordinamento e transizione verso un nuovo.
1 Calcolo e software G. Bagliesi 23/3/01 Riassunto riunione calcolo Bologna 19/3/01 B/tau : futuri miniworkshop.
Federico Ruggieri INFN-CNAF Commissione Scientifica Nazionale I Lecce 24 Settembre 2003 Il Progetto TIER1 Status Update.
La Farm di Alice a Torino Workshop sulle problematiche di calcolo e reti Isola d’Elba 6-9 maggio 2002 Mario Sitta (Università del Piemonte Orientale e.
Federico Ruggieri INFN-CNAF Riunione della CSN I Perugia Novembre 2002 Il Progetto TIER1.
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
Riunione Servizi Servizio Calcolo e Reti 13 settembre 2004 Silvia Arezzini.
BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015.
GARR-X Progress Modello dell’evoluzione di rete nazionale Riunione CCR - Roma, Presidenza INFN - Roma - 8/settembre/2014
Roberto Covati – Roberto Alfieri INFN di Parma. Incontri di lavoro CCR dicembre Sommario VmWare Server (in produzione dal 2004) VmWare ESX.
Riunione PRIN STOA - Bologna - 18 Giugno 2014 Testbed del T2 distribuito Napoli-Roma Dr. Silvio Pardi INFN-Napoli Riunione PRIN STOA – Bologna 18 Giugno.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Lecce 30 Settembre 2015.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
Stato di GARR-X Claudia Battista Workshop CCR INFN - Isola d’Elba 17 maggio 2011.
FESR Consorzio COMETA - Progetto PI2S2 Il Tier-2 di ALICE a Catania Roberto Barbera Università di Catania e INFN Visita Referee.
Referaggio sigla CALCOLO D. Bonacorsi, G. Carlino, P. Morettini CCR – Roma 9 Settembre 2014.
High Avaliability with RHCS HA INFN CNAF 22 Marzo 2006 Bologna Ricci Pier Paolo, on behalf of INFN TIER1 Staff
Attività e servizi di calcolo a Roma Tor Vergata R. Kwatera, R. Lulli, R. Sparvoli Roma Tor Vergata.
Server & Storage Urgenze e anticipazioni seconde priorità CCR Marzo 2009 AG MM LC.
Progetto ReCaS status update Giuseppe Andronico WS CCR, Catania 28 Maggio 2014.
Aggiornamento sui lavori di ampliamento degli impianti infrastrutturali del TIER1 e stato delle risorse Cristina Vistoli – Massimiliano Fiore INFN-CNAF.
TIER-2: Risorse e tabella di marcia M.L. Ferrer. 5/12/2005 M.L. Ferrer Referaggio TIER-2 LNF 2 Presenti Calcolo: Massimo Pistoni Claudio Soprano Dael.
Riunione CSN1, Roma, Gennaio 2012F. Bedeschi, INFN-Pisa 1 Riunione CSN1  Comunicazioni  Comunicazioni varie  Riunioni future  Similfellows  Regole.
P. Morettini. Organizzazione della CCR Le principali attività della CCR consistono da un lato nell’assegnazione di fondi per le infrastrutture di rete.
G. Maggi 24/1/2006 Il Progetto del TIER2 di Bari Giorgio Maggi.
Aggiornamento potenziamento collegamenti e stato del Progetto GARR-X Claudia Battista CCR-INFN - 3 marzo 2008.
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
The INFN Tier-1: progetto di ampliamento Cristina Vistoli – INFN CNAF Referee Meeting Sep
CCR - Roma 15 marzo 2007 Gruppo storage CCR Report sulle attivita’ Alessandro Brunengo.
Tier1: stato del servizio Pietro Matteuzzi e Luca Dell’Agnello.
L’infrastruttura del progetto ReCaS Paolo Lo Re on behalf of ReCaS collaboration.
L.Perini Milano: 10 Gennaio Ex-ATLAS-Grid (Tier2 incluso) l Ruolo dei Tiers in ATLAS e grid l Le persone di Milano e le attività l Le infrastrutture.
Attività Gruppo Virtualizzazione Andrea Chierici CNAF Riunione CCR
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Engineering Faculty University of Messina, Italy Marco Scarpa
Assegnazione risorse Stato INFN CNAF,
Transcript della presentazione:

Federico Ruggieri Riunione della CSN I Catania 18 Settembre 2002 Il Progetto TIER1 Status Report

Le Capacità Richieste CERN (Somma di tutti gli esperimenti): –Mass Storage: 10 Peta Bytes (10 15 B)/anno –disk: 2 PB –CPU: 20 MSPECint2000 Per ogni Tier 1 Multi-esperimento : –Mass Storage: PB/anno –disk: 1.5 PB –CPU: 10 MSPECint2000 Networking Tier 0 (CERN) --> Tier 1:2 Gbps

La GRID dei TIER per LHC

Progetto Prototipo TIER1 Obiettivi: –Costruzione e sperimentazione di un prototipo di Tier1 INFN unico per i 4 esperimenti LHC. –Ottimizzazione delle risorse. –Formazione di personale. –Rappresentatività verso gli altri Tier1 e verso il CERN. –Coordinamento con i Tier2 e fornitura di servizi ed attrezzature non replicabili o costose.

Bilancio di un anno di lavoro Nuova Sala Macchine: –Progetto Definitivo completato a fine Maggio. –Gara per i Lavori pubblicata ad inizio Agosto. Installate nuove risorse (vedi seguito). 8 nuove persone assunte o in via di assunzione con contratti temporanei. Produzioni degli esperimenti effettuate con successo anche se in tempi limitati (vedi seguito).

Riassunto Esperimenti ALICEProduzione di MC (600 jobs in meno di 2 mesi). ATLASCirca il 30% della produzione estiva Italiana CMSTest di integrazione delle Produzioni anche con US (DataTAG). Preparazione “Summer” Prod (Ott. Nov. ’02). LHCbProduzione MC 1MEv. (2 o sito dopo CERN) VIRGOTrasferimento dati (4TB) Spett. Centrale e 2 macchine di preanalisi e selezione + 3 GRID.

ALICE Produzioni (Primo Mese) HostJobs finishedCPU time lxplus051.cern.ch na49b01.cern.ch ccwalj01.in2p3.fr pdsflx002.nersc.gov alifarm01.to.infn.it alice.fzk.de alifarm9.ct.infn.it pcalice6.pd.infn.it ccali04.in2p3.fr dell26.cnaf.infn.it

ATLAS Produzioni (40 gg)

Produzioni LHCb (1 Agosto-21 Settembre)

I Servizi Tecnici Necessari Potenza di calcolo (FARM di CPU) Accesso ai Dati in Linea (Dischi) Archiviazione Dati (Mass Storage/Nastri) Rete di Accesso ad Alta Banda e Qualità di Servizio Gestione Sistemi Operativi e File System Gestione DataBase Gestione Librerie Software Generali Supporto all’Utenza e servizi accessori Coordinamento con gli altri Centri Regionali (Tier0, Tier1, Tier2, ecc.).

Architettura dei sistemi (1) FARM –Racks da circa 40 macchine biprocessori collegati in dual fast ethernet a Switch di armadio con 2 o 4 uplink Gigabit Ethernet in modalità trunking. –Boot ed installazione automatica del sistema e del sw via rete tramite PXE ed LCFG con personalizzazioni. –Gestione remota delle console (KVM Analogici e Digitali). –Monitoring via SNMP (temperature, carico CPU, ecc.) con Ganglia -> SNMP e NAGIOS. –Batch system: PBS (o Condor). –Assegnazione di un pool base ad ogni esperimento. –Gestione dinamica di un pool schedulabile su richiesta.

FARMING 1U dual CPU Pentium III e MHz – 2.2 GHz/CPU 2 disks GB/Node 512MB – 2GB/Node 1 or 2 48FE + 2GE Switches Single TFT console via KVM Cost of 2500 € + VAT/Node 160 Dual CPU presently installed

DISCO –Pool di circa 2-10 TB per staging (CASTOR, o altro SW). –2-4 TB spazio utente (AFS/NFS) per esperimento. –Moduli di 1-2 TB spazio disco su richiesta. –Architetture: EIDE, SCSI e/o Fibre Channel con accesso tramite Gigabit Ethernet su Servers ridondati (Fail-over + Accesso distribuito) o NAS. –Sperimentazioni in corso su: FC-IDE, HA, iSCSI, uso di Volumi superiori a 2 TB, Lock Managers, File Systems Distribuiti (GFS, GPFS, PFS, ecc.) Architettura dei sistemi (2)

Disks NAS: –Procom dual head 17 TB single rack (96x180GB FC disks, RAID5 with hot spares) 4GEth. –IDE 2.5TB 16x160 GB disks in 4U, dual Processor and redundant Power Supply. SAS: –DELL FC storage 8TB dual RAID5 controller, 112x73GB disks in 24U (8x3U). –FC to IDE 2.5TB 16x160GB in 4U. –Raidtec SCSI 2TB RAID5 12x180GB in 4U. Costs ranging from 8 to 13 K€/TB.

NASTRI –Legato Networker per Backup (spazio utente). –CASTOR per Staging dati da nastri LTO. –Virtualizzazione della libreria L180 con ACSLS. –Possibile uso di DLT per import/export se richiesto. –Accesso tramite servers su Gigabit Ethernet con ridondanza (Fail-over + Distributed Access) –Nuova libreria da cassette entro fine 2002 – inizio Architettura dei sistemi (3)

Architettura dei sistemi (4) ACCESSO –GRID per le attività di utente sia schedulate che non schedulate (produzione e analisi). –Portale web personalizzato per monitoraggio ed amministrazione delle risorse assegnate all’esperimento. –Uso di certificati per l’autorizzazione. –Autenticazione Kerberos 5 (in corso di attivazione). –Rete IP con indirizzi “visibili” dall’esterno e limitazioni sulle porte. –Rete interna multi-gigabit con accesso a 1-10 Gbps.

Rete Accesso attuale a 1 Gbps. Attualmente il CNAF ospita il PoP per il Pilot GARR- G con 2 Link a 2.5 Gbps con Roma e Milano. La rete interna è già basata su core switches con interfacce Gbit: –8600 Cabletron (rete CNAF) 8 GE F/O; –Extreme 7i (Tier1) 32 GE F/O; –3COM (Tier1) 24 GE UTP + 4 GE F/O; –Cisco 6509 (GRID e Test) 20 GE F/O.

Networking GARR-G Pilot Infrastructure already in place (2.5 Gb F/O Lines) MI BO RM PI TO CT PD 2.5 Gbps 155 Mbps TIER1 CNAF 1 Gbps GEANT 2.5 Gbps US Abilene 2x2.5 Gbps

Trasferimento dei dati –Trasferimenti effettuati da LHCb al CNAF al CERN con un throughput massimo di 70 Mbit/s

Giga Switch Controllo Robot Tape Robotics Data Movers Disk Servers Gigabit Ethernet Dati Switch Fast Ethernet SCSI Farms Fibre Channel

Configurazione attuale

Esempio: Allocazione CPU 2002

Allocazione Disco

Personale In Organico: 4 persone –Pietro Matteuzzi: Responsabile –Luca Dell’Agnello: Farming, Storage, Sicurezza –Stefano Zani: Networking. Storage –Massimo Cinque: Servizi Generali ed Impianti Contratti temporanei: 10 persone –Andrea Chierici: Farming – LCFG - GRID –Pier Paolo Ricci: Storage - CASTOR –Guido Negri: Supporto agli Esperimenti (ATLAS) –Andrea Collamati: Supporto agli Esperimenti (LHCb) –Felice Rosso: Monitoring ed Allarmistica –Donato De Girolamo: Sicurezze ed Allarmistica –Massimo Donatelli: AFS, Kerberos5, NFS4, GRID –Assegno di Ricerca: Supporto Esperimenti –2 nuovi Art. 2222: Supporto Esperimenti e Programmazione SW.

Programma delle Installazioni NB: I numeri quotati sono aggiuntivi per anno

Costi in K€ Notes: 1) Virgo + LHC only – 2) Personnel costs are not included.

Scala dei tempi Novembre 2002: Aggiudicazione Gara Lavori Sala M. Aprile 2003: Fine Lavori Sala Macchine Giugno 2003: Completa operatività della nuova Sala Macchine. Dicembre 2004: Fine della fase sperimentale. Gennaio 2005: Revisione della sperimentazione ed aggiornamento tecnico-economico-logistico- organizzativo del piano. Dicembre 2005: Inizio della realizzazione del Centro per la fase di Produzione.

LHC Computing Grid Progetto CERN approvato a settembre. Si indirizza al calcolo per LHC e per la prototipizzazione dei sistemi Hw e SW necessari. Cerca di coordinare lo sforzo con i centri regionali (tier1 e tier2 almeno). Strettamente legato agli esperimenti, cerca di coordinarne le attività comuni.

Interazioni Tier1-LCG-GRID Il Tier1 è uno dei Centri Regionali per LHC e, come tale partecipa all’attività di LCG. L’attività di GRID è di fondamentale importanza per la realizzazione del sistema a Tiers previsto. L’architettura generale, definita dal progetto MONARC ha ora un’architettura pratica di riferimento. In prospettiva, il Tier1 dovrebbe anche assumere un ruolo di coordinamento e supporto generale.