CMS 1 M. Biasotto – Bologna 20/01/2005 Infrastruttura di calcolo per CMS-Italia M.Biasotto – INFN Legnaro e i gestori dei centri CMS Italia.

Slides:



Advertisements
Presentazioni simili
Introduzione al prototipo Grid-SCoPE
Advertisements

A.Fanfani - C.Grandi CMS Bologna 10 febbraio 2009 La nuova farm di CMS Bologna al CNAF Alessandra Fanfani Claudio Grandi.
Microsoft Education Academic Licensing Annalisa Guerriero.
P.Capiluppi I Workshop CMS Italia del Computing & Software Roma Novembre 2001 Qualche conclusione e pianificazione per il prossimo futuro.
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
1 STATO DELLINTEGRAZIONE TRA I 4 PROGETTI AVVISO 1575/2004 ATTIVITA DEL GRUPPO TECNICO OPERATIVO Riunione del Comitato Tecnico sullInteroperabilità MUR,
Aspetti critici rete LAN e WAN per i Tier-2
Proposta di integrazione e consolidamento delle risorse presenti nellinfrastruttura Grid dellItalia Meridionale (L. Merola, )
La facility nazionale Egrid: stato dell'arte Egrid-Team Trieste, 9 ottobre 2004.
Cos’è un CMS? Content Management System
SP-Grid - setup Implementazione dei servizi per la produzione al CNAF: –Integrazione tra i tool di produzione standard di BaBar (ProdTools) e gli strumenti.
Istituto Nazionale di Fisica Nucleare Roma,12 febbraio 2001 Netgroup meeting Situazione attuale e attivita futura - R.Gomezel 1 Netgroup meeting Situazione.
Gruppo Directory Services Rapporto dell'attivita' svolta - Marzo 2000.
Michele Michelotto INFN-Padova
1 Riunione Testbed - 17 gennaio Agenda - stato del testbed di INFN-GRID (L. Gaido) - le risorse del CNAF (A. Italiano) - report sullo stress test.
Il Tutorial INFN-GRID/EDG di Torino Testbed INFN-GRID.
LNL M.Biasotto, Bologna, 13 dicembre Installazione automatica Massimo Biasotto – INFN LNL.
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
1 M. Biasotto – Legnaro, 22 Dicembre 2005 Prototipo Tier 2 di Legnaro-Padova INFN Legnaro.
E. Ferro / CNAF / 14 febbraio /13 GRID.it servizi di infrastruttura Enrico Ferro INFN-LNL.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
Servizi Grid ed agenti mobili : un ambiente di sviluppo e delivering
Alessia Tricomi Università & INFN Catania
* * Data Challenge 04 Stato dei centri di produzione in Italia.
C. Aiftimiei 1, S. Andreozzi 2, S. Dal Pra 1, G. Donvito 3, S. Fantinel 4, E. Fattibene 2, G. Cuscela 3, G. P. Maggi 3, G. Misurelli 2, A. Pierro 3 1 INFN-Padova.
FESR Trinacria Grid Virtual Laboratory ADAT (Archivi Digitali Antico Testo) Salvatore Scifo TRIGRID Second TriGrid Checkpoint Meeting Catania,
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
FESR Consorzio COMETA Giuseppe Andronico Industry Day Catania, 30 Giugno 2011 IaaS, PaaS e SaaS: cosa significano per le aziende.
CNAF 18/11/2004 Federica Fanzago INFN Padova a/grape... BAT... BATMAN...o? M.Corvo, F.Fanzago, N.Smirnov (INFN Padova) + tutte le persone che fanno i test.
CCR 14-15/03/2006 Status Report Gruppo Storage CCR.
AFS Working Group R.Gomezel CCRWS Verso la sfida di LHC Otranto (Lecce), 6-9 Giugno 2006.
3 Aprile CSN1 P. Capiluppi Tier2 CMS Italia.
Test Storage Resource Manager per SC4 Giacinto Donvito Vincenzo Spinoso.
16 Maggio CSN1 Computing-Software-Analysis CMS-INFN TEAM Analisi in CMS: stato e prospettive del supporto italiano.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
Condor standard. Sistema Batch. Tool di installazione D. Bortolotti,P.Mazzanti,F.Semeria Workshop Calcolo Paestum 9-12 Giugno 2003.
Attivita' Grid in BaBar Workshop sulle Problematiche di Calcolo e Reti nell'INFN Maggio 2004.
L. Servoli - CCR Roma 15 marzo Il progetto High Availability D. Salomoni - CNAF L. Servoli - INFN Perugia.
Grid nelle sezioni: Milano Luca Vaccarossa INFN – Sezione di Milano Workshop sulle Problematiche di Calcolo e Reti nell'INFN.
Calcolo esperimenti LHC 2004 F. Ferroni, P. Lubrano, A. Martin, M. Morandin, M. Sozzi.
1 Calcolo e software G. Bagliesi 23/3/01 Riassunto riunione calcolo Bologna 19/3/01 B/tau : futuri miniworkshop.
I testbed ed il loro uso 1 I testbed ed il loro uso L. Gaido, A.Ghiselli CSN1, Perugia novembre 2002.
M.Biasotto, Bologna, 28 giugno 2004 M.Biasotto, Bologna, 28 giugno LNL CMS T2 Legnaro Stato attuale e richieste 2004/2005.
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015.
Il nuovo sito della CSN1 Salvatore Costa (Catania) Andrea Ventura (Lecce) Roma - Riunione di CSN gennaio 2016.
Roberto Covati – Roberto Alfieri INFN di Parma. Incontri di lavoro CCR dicembre Sommario VmWare Server (in produzione dal 2004) VmWare ESX.
Tier-2 Legnaro-Padova Massimo Sgaravatto (INFN Padova) On behalf of the Legnaro-Padova T2 team Tier-2 Legnaro-Padova 1.
1 Attività per la formazione Scuole INFN Grid Edizione 2008 Valeria Ardizzone INFN Catania.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
Stato di GARR-X Claudia Battista Workshop CCR INFN - Isola d’Elba 17 maggio 2011.
Claudio Grandi Workshop CCR 2015 Claudio Grandi INFN Bologna.
Referaggio sigla CALCOLO D. Bonacorsi, G. Carlino, P. Morettini CCR – Roma 9 Settembre 2014.
Overview del middleware gLite Guido Cuscela INFN-Bari II Corso di formazione INFN su aspetti pratici dell'integrazione.
Worker node on demand: le soluzioni Andrea Chierici INFN-CNAF CCR 2009.
IV Corso di formazione INFN per amministratori di siti GRID Tutorial di amministrazione DGAS Giuseppe Patania.
1 ALICE I ITER2 DI ALICE IN ITALIA Bologna, 6 marzo 2007 M. Masera
19/4/2013 D. Menasce, M. Serra - Referaggio Progetti INFRA e WLCG 1.
P. Morettini. Organizzazione della CCR Le principali attività della CCR consistono da un lato nell’assegnazione di fondi per le infrastrutture di rete.
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
CCR - Roma 15 marzo 2007 Gruppo storage CCR Report sulle attivita’ Alessandro Brunengo.
EGEE is a project funded by the European Union under contract IST Il pre-production service in EGEE e in INFN-GRID D. Cesini - INFN-CNAF IV.
ALICE Computing Readiness Workshop Tier-2 CNAF Jan 17-18, ALICE Computing Readiness 1) ALICE Italia: Persone & organizzazione 2) Test & commisioning.
FESR Trinacria Grid Virtual Laboratory Workload Management System (WMS) Muoio Annamaria INFN - Catania Primo Workshop TriGrid VL Catania,
1 Le macchine di questo pool fanno parte di una lan privata (la 125 illustrata a pag.2), di cui t2cmcondor è il gateway. Sono presenti 3 macchine su rete.
La gestione della rete e dei server. Lista delle attività  Organizzare la rete  Configurare i servizi di base  Creare gli utenti e i gruppi  Condividere.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
EGEE is a project funded by the European Union under contract IST L'infrastruttura di produzione attuale A. Cavalli - INFN- CNAF D. Cesini.
Transcript della presentazione:

CMS 1 M. Biasotto – Bologna 20/01/2005 Infrastruttura di calcolo per CMS-Italia M.Biasotto – INFN Legnaro e i gestori dei centri CMS Italia

CMS 2 M. Biasotto – Bologna 20/01/2005 Outline Infrastruttura: risorse e servizi che permettano di accedervi e condividerle I centri di calcolo italiani Quali servizi per soddisfare i requisiti degli utenti? servizi locali e servizi distribuiti (Grid) Grid.it: struttura e modalita' per entrare in Grid configurazione minima e configurazione raccomandata farm in configurazione “ibrida” (locale + grid) Situazione attuale dei siti CMS

CMS 3 M. Biasotto – Bologna 20/01/2005 Ruolo dei Tiers nel Computing Model Tier-1: Storage e custodia (MSS) di parte dei dati ufficiali di CMS Storage e custodia di dati simulati Re-processing dei dati in custodia Processamento dei dati con codice dei Physics Groups Processamento dei dati con codice degli utenti Limitato supporto locale ad utenti singoli Tier-2: Risorse di calcolo per produzione dati simulati Supporto locale a Physics Groups e utenti singoli Storage di limitate quantita’ di dati (non in custodia) Tier-3 : Supporto locale a utenti singoli

CMS 4 M. Biasotto – Bologna 20/01/2005 Attivita' correnti Data Storage Gestione MSS e storage locale Produzioni locali Production manager locale, utilizzo di un local resource manager e di storage locale, nodo principale di PhedEx R&D Sviluppo tool di analisi per CMS Condivisione risorse e dati utilizzando i tools di LCG Supporto locale Accesso al local resource manager e storage locale ma anche accesso a cataloghi e risorse su grid

CMS 5 M. Biasotto – Bologna 20/01/2005 Risorse hardware Valori approssimati (estate 2004 e stime 2005) CPU (KSI2000)Disk (TB) CNAF164,0204,060,072,0 LNL127,0 46,050,0 PI16,850,85,013,0 BA13,621,64,06,0 BO13,221,25,8 PD35,0 3,85,8 RM12,416,45,09,0 CT10,8 1,03,0 FI7,211,25,2 MI12,4 1,0 NA6,0 1,03,0 PV0,04,00,02,0 PG14,4 2,4 TO10,4 2,84,0 Totale443,2545,2143,0182,2

CMS 6 M. Biasotto – Bologna 20/01/2005 Risorse hardware

CMS 7 M. Biasotto – Bologna 20/01/2005 Centri di calcolo italiani Ruoli attuali: Tier-1 (data storage, produzioni locali, R&D) CNAF Tier-2++ (produzioni locali, R&D, supporto locale) LNL (anche data storage), Pisa Tier-2 (R&D, supporto locale) Bari, Bologna, Padova, Roma Tier-3 (supporto locale) Catania, Firenze, Milano, Napoli, Pavia, Perugia, Torino Considerazione: Non c'e' una grossa distinzione tra T2 e T3; visti gli obblighi dei T2 verso la comunita’ CMS, potrebbe aver senso considerare come T2 solo LNL e Pisa

CMS 8 M. Biasotto – Bologna 20/01/2005 Supporto agli utenti Partendo da quello che vuole vedere l’utente finale, in ordine di priorita’: 1.accedere a risorse di calcolo per sviluppo codice e analisi 2.conoscere i dati disponibili localmente 3.analizzare i dati disponibili localmente (sa interattivamente che in modo batch) 4.conoscere i dati disponibili globalmente 5.copiare localmente i dati necessari 6.analizzare dati remoti 7.condividere con utenti remoti i risultati prodotti localmente 8.dare accesso ad utenti remoti ai dati locali 9.dare accesso ad utenti remoti alle risorse locali

CMS 9 M. Biasotto – Bologna 20/01/2005 Servizi locali A.L'accesso alle risorse locali avviene tramite un tradizionale login B.Sulle macchine di login sono disponibili l'ambiente di sviluppo ed il software applicativo 1. e' soddisfatto (accesso a risorse per sviluppo codice) C.Localmente e' disponibile un database contenente cataloghi POOL di dati 2. e' soddisfatto (elenco dati locali) D.Localmente e' disponibile un batch system che da' accesso ai nodi di calcolo E.Le aree di storage locali ed il software applicativo sono visibili dalle macchine di login e dai nodi batch 3. e' soddisfatto (analisi dati locali) Fin qui sono stati utilizzati solamente tool e servizi locali...

CMS 10 M. Biasotto – Bologna 20/01/2005 Servizi grid F.Dalle macchine di login si puo' accedere ad un sistema che conosce i dati di CMS (RefDB/Phedex) 4. e' soddisfatto (elenco dati remoti) G.Le macchine di login sono User Interfaces di LCG 5. e' soddisfatto, se i dati sono su server opportuni (import dati) 6. e' soddisfatto (analisi dati remoti) 7. e' soddisfatto, posto che si possa scrivere sui server (condivisione dati locali) H.Le aree di storage locali sono servite da uno Storage Element di LCG e i dati sono registrati nel servizio F) 7. e 8. sono soddisfatti (condivisione e accesso ai dai locali) I.Il sistema batch locale e' visto da un Computing Element di LCG 9. e' soddisfatto (accesso da remoto alle risorse locali) L'aggiunta dei tools grid non elimina le funzionalita' locali

CMS 11 M. Biasotto – Bologna 20/01/2005 Configurazione minimale I servizi A.-E. sono la richiesta base per qualsiasi sito, in quanto senza di essi sarebbe preclusa la possibilita’ di analizzare dati (requisiti 1.-3.) C richiede l’installazione di un server MySQL Il servizio F. e’ fornito da CMS Il servizio G. e’ implementato semplicemente rendendo disponibile sulle macchine di login il software di UI di LCG (nessun server e’ necessario!) Sono quindi soddisfatti i requisiti cioe’ la possibilita’ di analizzare tutti i dati di CMS Per CMS-Italia la configurazione minimale per qualsiasi sito e’ quella che fornisce i servizi A)-G), cioe’ che soddisfa i requisiti (accesso a dati e risorse locali e globali).

CMS 12 M. Biasotto – Bologna 20/01/2005 Configurazione raccomandata I siti che ospitano dati di CMS devono fornire anche il servizio H. (SE) in modo da consentire la copia dei dati ad altri siti. E’ raccomandato che i siti che ospitano i dati implementino anche il servizio I. (CE) in modo che utenti di altri siti possano soddisfare il requisito 6. (analisi remota dei dati). Implementare il servizio I. paradossalmente potrebbe semplificare la vita ai gestori locali l’installazione del software applicativo potrebbe essere fatta da remoto (software manager) la gestione del sito puo’ essere affidata ad un servizio calcolo non necessariamente CMS-specific (che e’ forse piu’ semplicemente disponibile in sezione!)

CMS 13 M. Biasotto – Bologna 20/01/2005 Produzioni e Data Storage I siti che garantiscono la possibilita’ di fare produzioni locali (CNAF, LNL, PI) non sono influenzati dal fatto di essere configurati con tutti i servizi LCG (CE, SE, UI). La presenza di servizi SE semplifica la configurazione del sito come nodo PhedEx garantendo quindi la possibilita’ di trasferire dati in input/output al sistema di distribuzione di dati di CMS (vedi talk D. Bonacorsi) La presenza di servizi di CE rende i dati prodotti immediatamente disponibili per l’analisi remota da parte di tutti i fisici di CMS-Italia (vedi talk S. Lacaprara) Tutti gli altri siti, se configurati con CE ed SE, possono essere utilizzati per produzioni distribuite. Il Tier-1 e i Tier-2++ devono fornire tutti i servizi di CE ed SE. Si raccomanda che almeno gli altri Tier- 2 lo facciano. CMS-Italia partecipera' al deployment di un sistema di produzioni distribuite basato su LCG (Grid.it).

CMS 14 M. Biasotto – Bologna 20/01/2005 La struttura di Grid.it Dal punto di vista organizzativo, gerarchia di diversi organismi per i vari compiti previsti: Coordinamento operazioni, supporto ai servizi, supporto agli utenti, gestione release e documentazione, ecc. Gestione di una release del middleware specifica per Grid.it e' in pratica un super-set di LCG: alla release base di LCG si aggiungono customizzazioni specifiche per la grid italiana e alcune funzionalita' in piu' (ad es. VOMS, DAG jobs) Deployment di servizi specifici per la grid italiana: Resource Brokers, Information Index, Monitoring, ecc. Buon livello di supporto sia per i site admin che per gli utenti finali: Sito web con documentazione, knowledge base, sistema di ticketing per gestione dei problemi

CMS 15 M. Biasotto – Bologna 20/01/2005 Grid.it: struttura organizzativa

CMS 16 M. Biasotto – Bologna 20/01/2005 Come entrare in Grid.it (I) Livello minimo: solo User Interface Installazione middlware UI su una macchina: download di un tar con script di setup, disponibile per RH7.3 e SL, richiede java Certificato personale + registrazione alla VO di CMS Condividere la farm locale CMS con un sito Grid.it gia' presente in sezione La gestione sistemistica della farm potrebbe essere demandata ad altri, occupandosi solo della parte CMS- specific locale Naturalmente si vuole tenere un certo livello di controllo sulle proprie risorse: Gateway con home locali e sw applicativo custom gestito in proprio Area storage locale oltre a quella su SE Coda batch locale con priorita' sui propri nodi di calcolo

CMS 17 M. Biasotto – Bologna 20/01/2005 Come entrare in Grid.it (II) Diventare a tutti gli effetti un sito Grid.it Maggiore controllo ma ovviamente maggiore impegno Al momento (release 2.3) supportata solo installazione con LCFG, dalla prossima release e' prevista solo l'installazione manuale del middleware (in buona parte automatizzata da script), senza tool sofisticati come LCFG (o il suo successore Quattor) Notevole lo sforzo richiesto inizialmente per partire, ma una volta avviati la gestione non e' particolarmente onerosa, anzi c'e' il vantaggio di trovarsi tante cose gia' pronte (security updates, sw applicativo, ecc.) Farm in configurazione “ibrida” per poter essere usata anche localmente come prima

CMS 18 M. Biasotto – Bologna 20/01/2005 Configurazione farm “ibrida” (I) La macchina “gateway” della farm locale viene mantenuta, con le home degli utenti locali e un'area con il software applicativo “locale” (codice CMS custom, ecc.), entrambe esportate via NFS Si aggiunge una macchina nuova a fare da CE (gateway per la grid) Almeno un server viene reinstallato come SE, l'area di storage puo' essere partizionata come si vuole: parte dedicata a grid e parte ad uso esclusivamente locale ma in teoria e' anche possibile non avere un SE o puntare verso un SE remoto in un altro sito I nodi di calcolo sono reinstallati col middleware di grid e montano via NFS sia le aree grid (da CE ed SE) che quelle locali (dal vecchio gateway e da SE o server locali): possono runnare sia in modo grid che locale

CMS 19 M. Biasotto – Bologna 20/01/2005 Configurazione farm “ibrida” (II) Nel batch system si crea una coda riservata agli utenti locali, dove si possono dinamicamente cambiare priorita', uso esclusivo di certe macchine, ecc. Dal punto di vista pratico la cosa richiede una certa customizzazione della configurazione di default fornita dalle release di Grid.it Un punto importante e' che la migrazione da farm locale a grid si puo' fare in maniera graduale: Creazione di una piccola farm grid-only (cioe' configurata come da default) con un pool minimo di macchine (CE, SE, 1-2 WN), senza modificare la farm locale Si prova poi ad applicare le modifiche per la configurazione ibrida e solo quando si e' certi che tutto funziona si procede via via a reinstallare i nodi di calcolo come WN di grid

CMS 20 M. Biasotto – Bologna 20/01/2005 Configurazione farm “ibrida” FastEth GE backbone GE backbone SWITCH N1FastEth SWITCHS1 SE1 N24FastEth SWITCHSn To WAN SE2 SE3 ComputingNodes ComputingNodes Local Servers Grid Storage Elements GWG1 UI Local Gateway Local Login CE N1 N24

CMS 21 M. Biasotto – Bologna 20/01/2005 Situazione attuale dei siti CMS Stato GridServizi SitoSito LCGSito Grid.itfarm condivisaUser InterfacePhedExPubDB CNAFX XXX LNLX X-/ PIX X-- BA X XXX BO X X-X PD X X-X Roma --- CT --- FI ?--- MI --- NA --- PV --- PG --- TO ---