Federico Ruggieri INFN-CNAF Riunione della CSN I Perugia 11-12 Novembre 2002 Il Progetto TIER1.

Slides:



Advertisements
Presentazioni simili
Progetto Speciale Prototipo Tier1 F. Ruggieri INFN – CNAF I Workshop CMS Italia del SW e Computing Roma 22 Novembre 2001.
Advertisements

Aspetti critici rete LAN e WAN per i Tier-2
Remote file access sulla grid e metodi di interconnesione di rete M. Donatelli, A.Ghiselli e G.Mirabelli Infn-Grid network 24 maggio 2001.
Grid Computing Sergio Andreozzi (INFN-CNAF). A chi interessano i dati prodotti da LHC? Circa 5,000 scienziati –sparsi nel mondo –appartenenti ad istituzioni/università
Grid Computing Sergio Andreozzi. Chi è interessato ad analizzare i dati generati da LHC? Circa 5,000 scienziati –distribuiti nel mondo –appartenenti ad.
Gruppo Directory Services Rapporto dell'attivita' svolta - Marzo 2000.
Michele Michelotto INFN-Padova
1 Riunione Testbed - 17 gennaio Agenda - stato del testbed di INFN-GRID (L. Gaido) - le risorse del CNAF (A. Italiano) - report sullo stress test.
LNL M.Biasotto, Bologna, 13 dicembre Installazione automatica Massimo Biasotto – INFN LNL.
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
1 M. Biasotto – Legnaro, 22 Dicembre 2005 Prototipo Tier 2 di Legnaro-Padova INFN Legnaro.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
TISB - Pisa - P. Capiluppi Tier1-CNAF DC04 Activities and Status.
Architettura di storage ad alta affidabilita e bilanciamento di carico per volumi centrali e di esperimento A.Brunengo, M.Corosu INFN Sezione di Genova.
Alessia Tricomi Università & INFN Catania
CCR 14-15/03/2006 Status Report Gruppo Storage CCR.
3 Aprile CSN1 P. Capiluppi Tier2 CMS Italia.
Servizio Sistema Informativo - Area Gestione Sistemi e Sicurezza – LNF – Dael Maselli Area Gestione Sistemi e Sicurezza LNF Plenaria Servizio Sistema Informativo.
1 CSN1 - Lecce 22/09/2003 Babar Relazione e proposte finanziarie Referee: M. de Palma, P. Lubrano, C. Luci, L. Perini,A. Staiano.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
Condor standard. Sistema Batch. Tool di installazione D. Bortolotti,P.Mazzanti,F.Semeria Workshop Calcolo Paestum 9-12 Giugno 2003.
CSN Maggio 2005 P. Capiluppi Il Computing Model (LHC) nella realta’ italiana u I Computing models degli esperimenti LHC gia’ presentati a Gennaio.
Attivita' Grid in BaBar Workshop sulle Problematiche di Calcolo e Reti nell'INFN Maggio 2004.
Federico Ruggieri Riunione CSN1 PISA 22 Giugno 2004 Il Progetto TIER1 Status Update.
CSN1 21 Giugno 2004 P. Morettini 1 Commissione Calcolo e Reti Ruolo e composizione della commissione I working groups I workshops Geant 4 Reti e potenziamento.
L. Servoli - CCR Roma 15 marzo Il progetto High Availability D. Salomoni - CNAF L. Servoli - INFN Perugia.
Istituto Nazionale di Fisica Nucleare La Biodola, Isola d’Elba, 6-9 maggio 2002 AFS: Status Report WS CCR R.Gomezel Workshop sulle problematiche.
Tier-2 Tier-2 ATLAS (Osservazioni sulla proposta dei referee del calcolo LHC) Lamberto Luminari CSN1 – Roma, 3 Aprile 2006.
Grid nelle sezioni: Milano Luca Vaccarossa INFN – Sezione di Milano Workshop sulle Problematiche di Calcolo e Reti nell'INFN.
Federico Ruggieri Riunione della CSN I Catania 18 Settembre 2002 Il Progetto TIER1 Status Report.
Report HEPiX Spring meeting 2002 Workshop sulle problematiche di calcolo e reti nell'INFN 6-9 Maggio 2002 La Biodola - Isola d'Elba Silvia Arezzini.
Federico Ruggieri INFN-CNAF Commissione Scientifica Nazionale I Lecce 24 Settembre 2003 Il Progetto TIER1 Status Update.
CMS 1 M. Biasotto – Bologna 20/01/2005 Infrastruttura di calcolo per CMS-Italia M.Biasotto – INFN Legnaro e i gestori dei centri CMS Italia.
STATO DEI PROGETTI TIER2 F. Bossi CCR, Roma, 20 Ottobre 2005 ( per il gruppo di referaggio)
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
Riunione Servizi Servizio Calcolo e Reti 13 settembre 2004 Silvia Arezzini.
CDF Calcolo Another brick in the wall Paolo Morettini CSN1 Lecce Valerio Vercesi Settembre 2003.
BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015.
Roberto Covati – Roberto Alfieri INFN di Parma. Incontri di lavoro CCR dicembre Sommario VmWare Server (in produzione dal 2004) VmWare ESX.
26 Giugno 2007CSN1 - Frascati1 Temi di attualità nella CCR Accanto alla tradizionale attività di controllo dei finanziamenti per le infrastrutture di calcolo.
Riunione PRIN STOA - Bologna - 18 Giugno 2014 Testbed del T2 distribuito Napoli-Roma Dr. Silvio Pardi INFN-Napoli Riunione PRIN STOA – Bologna 18 Giugno.
D. Martello Dip. Fisica - Lecce Sintesi piani esperimenti CSN2 CNAF 7-marzo-2007.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Lecce 30 Settembre 2015.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
Stato di GARR-X Claudia Battista Workshop CCR INFN - Isola d’Elba 17 maggio 2011.
Claudio Grandi Workshop CCR 2015 Claudio Grandi INFN Bologna.
PON a3_00052 "ReCaS" Rete di Calcolo per SuperB e altre applicazioni L. Merola riunione di gruppo I Napoli 21/12/2012 Sito e dominio web del progetto:
FESR Consorzio COMETA - Progetto PI2S2 Il Tier-2 di ALICE a Catania Roberto Barbera Università di Catania e INFN Visita Referee.
Gruppo Multimedia CCR “Report” Stefano Zani (INFN CNAF) Alfredo Pagano (INFN CNAF) Commissione Calcolo e Reti Roma, Dicembre 2006.
Referaggio sigla CALCOLO D. Bonacorsi, G. Carlino, P. Morettini CCR – Roma 9 Settembre 2014.
High Avaliability with RHCS HA INFN CNAF 22 Marzo 2006 Bologna Ricci Pier Paolo, on behalf of INFN TIER1 Staff
17 GennaioTier2 Milano G. Costa 1 17-Gennaio-2006.
Referaggio delle richieste dei gruppi di lavoro G. Ambrosi, R. Fantechi, M. Gulmini, O. Pinazza Commissione Calcolo e Reti, LNF, 5-7 Ottobre 2011.
1 referee-BaBar CSN I, Roma Gennaio 2008 RELAZIONE DEI REFEREE DI BaBar e SuperB M.De Palma, C.Luci, C.Troncon, B.Gobbo(calcolo),D. Pedrini
Aggiornamento sui lavori di ampliamento degli impianti infrastrutturali del TIER1 e stato delle risorse Cristina Vistoli – Massimiliano Fiore INFN-CNAF.
1 ALICE I ITER2 DI ALICE IN ITALIA Bologna, 6 marzo 2007 M. Masera
Riunione CSN1, Roma, Gennaio 2012F. Bedeschi, INFN-Pisa 1 Riunione CSN1  Comunicazioni  Comunicazioni varie  Riunioni future  Similfellows  Regole.
G. Maggi 24/1/2006 Il Progetto del TIER2 di Bari Giorgio Maggi.
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
The INFN Tier-1: progetto di ampliamento Cristina Vistoli – INFN CNAF Referee Meeting Sep
Silvia Arezzini 2 luglio 2014 Consiglio di Sezione per Preventivi.
Tier1: stato del servizio Pietro Matteuzzi e Luca Dell’Agnello.
L’infrastruttura del progetto ReCaS Paolo Lo Re on behalf of ReCaS collaboration.
L.Perini Milano: 10 Gennaio Ex-ATLAS-Grid (Tier2 incluso) l Ruolo dei Tiers in ATLAS e grid l Le persone di Milano e le attività l Le infrastrutture.
Attività Gruppo Virtualizzazione Andrea Chierici CNAF Riunione CCR
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Attivita’ e compiti del Servizio Impianti Calcolo e Reti
Transcript della presentazione:

Federico Ruggieri INFN-CNAF Riunione della CSN I Perugia Novembre 2002 Il Progetto TIER1

Indice Il Progetto Tier1 Tier1 e Tier2 INFN Interazioni con GRID Infrastrutture Risorse Personale Utilizzo Monitoring Console Remota Consumo potenza Conclusioni Tecnologia Stato dell’arte Obiettivi

Progetto Prototipo TIER1 Obiettivi: –Costruzione e sperimentazione di un prototipo di Tier1 INFN unico per i 4 esperimenti LHC. –Ottimizzazione delle risorse. –Formazione di personale. –Rappresentatività verso gli altri Tier1 e verso il CERN. –Coordinamento con i Tier2 e fornitura di servizi ed attrezzature non replicabili o costose.

Le Capacità Richieste CERN (Somma di tutti gli esperimenti): –Mass Storage: 10 Peta Bytes (10 15 B)/anno –disk: 2 PB –CPU: 20 MSPECint2000 Per ogni Tier 1 Multi-esperimento : –Mass Storage: PB/anno –disk: 1.5 PB –CPU: 10 MSPECint2000 Networking Tier 0 (CERN) --> Tier 1:2 Gbps

La GRID dei TIER per LHC

Tier1 e Tier2 La sperimentazione in LCG ha richiesto una esplicitazione delle risorse (hw ed umane) da mettere a disposizione per una GRID comune. Il carattere prototipale dell’attuale fase I richiede un impegno di risorse supplementare rispetto a quello che il Tier1 ed i Tier2 sono abituati a fornire agli esperimenti. Oltre al Tier1 al CNAF sono stati prospettati 3 candidati Tier2 Italiani (Alice, Atlas, CMS). Altri Tier2 INFN sono disposti a partecipare, se non nell’attuale fase I, sicuramente nella fase II di LCG. Alcuni siti sono “multi-esperimento” come il Tier1. Un obiettivo di medio e lungo termine potrebbe essere quello di “esportare” il modello Tier1 unico ad i Tier2, se questo dovesse rivelarsi adatto.

Il Tier1 multiutenza Attualmente vengono assegnate le risorse in maniera statica per periodi di tempo definiti. Questo non ottimizza l’uso delle risorse, nonostante i tempi di passaggio da una configurazione ad un’altra siano brevi (poche ore) se tutto è configurabile con RPM ed LCFG. In prospettiva dovrebbe essere assegnato in maniera statica solo un massimo del 50% delle risorse e le altre dovrebbero essere accedute dinamicamente sulla base delle richieste in coda con opportune priorità. GRID dovrebbe permettere un accesso trasparente ad entrambe le tipologie di risorse.

SPARE CAPACITY (50%) Schema di uso risorse ALICE ATLAS CMS LHCb VIRGO CDF BaBar YZ ATLAS

Interazioni con GRID Il Centro Regionale Tier1 è uno dei “nodi” principali della Grid Italiana, Europea e Mondiale. Partecipa all’attività di GRID e fornisce risorse. Il software sviluppato in Grid è di fondamentale importanza per i servizi che il CR dovrà fornire. Il CR, insieme ai Tier2 INFN, partecipa alla fase prototipale di LCG ed alle sue attività.

Infrastrutture Sala Macchine: –Conclusa la gara per i Lavori (CD 7673) per 519 K€ circa (Essenzialmente Impianti Tecnologici). –L’aggiudicazione sarà approvata al C.D. del 29 Novembre p.v. ed i lavori inizieranno a Dicembre ‘02. –Si pensa di avere la sala pronta per fine Aprile 2003 (160 gg per contratto). Gruppo Elettrogeno ed UPS: –Gara Terminata con proposta di aggiudicazione alla ditte SIGEM per € IVA inclusa.

Personale Personale di ruolo: –Pietro Matteuzzi: (Responsabile Servizi di Calcolo del CNAF) –Luca Dell’Agnello: Sistemi Linux, File Systems, Sicurezza, Rete. –Stefano Zani: Storage e Rete –Massimo Cinque: Servizi Generali ed Approvigionamento. Personale a Contratto: –Andrea Chierici: (Art.23) LCFG, Sistemistica, Site Man. GRID. –Andrea Collamati (Art.2222) Supporto SW Esp. (LHCb) –Donato De Girolamo (Art.2222) Allarmistica e Sicurezze. –Giuseppe Lo Re (Art.2222) CASTOR/Supporto SW Esp. (ALICE) –Barbara Martelli (Art. 2222) Sviluppo SW Generale e GRID. –Guido Negri (Art. 2222/ A.R.) Supporto SW Esp. (ATLAS) –Pier Paolo Ricci: (Art.23) Storage, Robotica e CASTOR. –Felice Rosso: (Art. 15) Monitoring ed LCFG.

Personale (2) Altro personale su attività collegate: –Alessandro Italiano: (Art.15) Robotica e Libreria, VideoConferenze, Site Manager GRID. –Massimo Donatelli: (Art.15) AFS, NFS, KERBEROS. Nuovo Personale –Assegno di Ricerca da bandire. –Un Tecnologo di ruolo (da bandire). –Un Tecnico (CTER) di ruolo (da bandire) –Richiesta di riassegnazione di 2 posti di tecnologo liberi per turnover.

Risorse HW attuali

Nuove Risorse da installare per Maggio 2003

FarmSW FarmSW FarmSWG FarmSW Switch-lanCNAF SSR2000 Vlan99 Catalyst6500 Vlan100 Fcds1 Fcds2 8T F.C. 2T SCSI NAS NAS Fcds3 LHCBSW (IBM) (DELL) vlan3 (4) vlan99 (99) lhcb1 (120) vlan99 (99) lhcb1 (120) vlan99 (99) lhcb1 (120) vlan99 (99) Vlan3 (4) LAN CNAF LAN TIER1

Networking GARR-G Pilot Infrastructure already in place (2.5 Gb F/O Lines) MI BO RM PI TO CT PD 2.5 Gbps 155 Mbps TIER1 CNAF 1 Gbps GEANT 2.5 Gbps US Abilene 2x2.5 Gbps

Accesso al GARR Giornaliero 15/10 Annuale

Allocazione CPU 2002

Allocazione Disco 2002

Programma delle Installazioni NB: I numeri quotati sono aggiuntivi per anno

Riassunto Esperimenti ALICEProduzione di MC (600 jobs in circa due mesi). Nuove macchine. ATLASCirca il 30% della produzione estiva Italiana. CMSTest di Produzione transatlantica con DataTAG e Stress Test GRID in corso. LHCbProduzione MC 1MEv. (2 o sito dopo CERN) Continua Produzione MC + Analisi VIRGOTrasferimento dati (4TB) Spett. Centrale e 2 macchine di preanalisi e selezione + 3 GRID. Nuovi Test in Corso

Monitoring & Allarmi Il monitoraggio è costruito con strumenti ad-hoc (scripts PHP + Java Applet) per ottenere visuali personalizzate per esperimento da esportare tramite web. Una versione più dettagliata è disponibile per il personale del Tier1. L’allarmistica è gestita tramite Nagios un prodotto Open Source a cui collaborano anche persone INFN.

NAGIOS

ALICE Jobs

ALICE Storage

Console Remota La Nuova Sala Macchine sarà non presidiata. E’ richiesto l’accesso alle macchine da console per effettuare operazioni di routine, ma anche di emergenza (reboot). E’ necessario anche un controllo remoto sull’alimentazione (Power off/on) per le situazioni non sbloccabili da console. Bisognerà avere accesso a decine di server e centinaia o migliaia di nodi di calcolo. Le soluzioni KVM normali (analogiche) non sono sufficienti e non scalano ai numeri suddetti. Le due soluzioni attualmente in osservazione sono della Avocent e della Raritan con differenze di approccio che cambiano il rapporto Prezzo/Prestazioni.

Esempio Raritan

Controllo Remoto Alimentazione Accensione e Spegnimento da remoto via IP. Sostituisce la presiera o PDU. Accesso tramite applicazione proprietaria su Windows. Alternativa da National Instruments con un sistema modulare da Personalizzare (assemblaggio, Cabinet, prese corrente, ecc.).

Consumo di Potenza CPU Transizione da 0.18 a 0.13 micron

Evoluzione Storica Intel Tier1 con UPS di 640 KW e < 300 KW per le CPU.

Scala dei tempi Novembre 2002: Aggiudicata Gara Lavori Sala Macchine Aprile 2003: Fine Lavori Sala Macchine Giugno 2003: Completa operatività della nuova Sala Macchine. Dicembre 2004: Fine della fase sperimentale. Gennaio 2005: Revisione della sperimentazione ed aggiornamento tecnico-economico-logistico- organizzativo del piano. Dicembre 2005: Inizio della realizzazione del Centro per la fase di Produzione.

Conclusioni Il CR è già operativo in modalità “ridotta”. La piena operatività è prevista per metà del 2003 (con la nuova sala macchine). Gli investimenti in materiali e persone sono già consistenti.