BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015.

Slides:



Advertisements
Presentazioni simili
E835 & Hera-B Concezio Pisa, 21/12/2004. E835 (aka Jet-FNAL) timeline dell'esperimento –Presa dati conclusa nel Alcune analisi tuttora in corso.
Advertisements

A.Fanfani - C.Grandi CMS Bologna 10 febbraio 2009 La nuova farm di CMS Bologna al CNAF Alessandra Fanfani Claudio Grandi.
Progetto Speciale Prototipo Tier1 F. Ruggieri INFN – CNAF I Workshop CMS Italia del SW e Computing Roma 22 Novembre 2001.
Aspetti critici rete LAN e WAN per i Tier-2
La facility nazionale Egrid: stato dell'arte Egrid-Team Trieste, 9 ottobre 2004.
SP-Grid - setup Implementazione dei servizi per la produzione al CNAF: –Integrazione tra i tool di produzione standard di BaBar (ProdTools) e gli strumenti.
Gruppo Directory Services Rapporto dell'attivita' svolta - Marzo 2000.
Michele Michelotto INFN-Padova
1 Riunione Testbed - 17 gennaio Agenda - stato del testbed di INFN-GRID (L. Gaido) - le risorse del CNAF (A. Italiano) - report sullo stress test.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
Architettura di storage ad alta affidabilita e bilanciamento di carico per volumi centrali e di esperimento A.Brunengo, M.Corosu INFN Sezione di Genova.
Alessia Tricomi Università & INFN Catania
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
LNL GM, CNAF, 18 ottobre INFN-Farm Management Toolkit 1.Fabric Management per DataGrid e INFNGrid 2.Definizione dei requisiti degli esperimenti.
CCR 14-15/03/2006 Status Report Gruppo Storage CCR.
Test Storage Resource Manager per SC4 Giacinto Donvito Vincenzo Spinoso.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
Condor standard. Sistema Batch. Tool di installazione D. Bortolotti,P.Mazzanti,F.Semeria Workshop Calcolo Paestum 9-12 Giugno 2003.
Attivita' Grid in BaBar Workshop sulle Problematiche di Calcolo e Reti nell'INFN Maggio 2004.
Grid nelle sezioni: Milano Luca Vaccarossa INFN – Sezione di Milano Workshop sulle Problematiche di Calcolo e Reti nell'INFN.
La Farm di Atlas a Roma 1 Outline Architettura della farm Architettura della farm Installazione Installazione Monitoring Monitoring Conclusioni Conclusioni.
CMS 1 M. Biasotto – Bologna 20/01/2005 Infrastruttura di calcolo per CMS-Italia M.Biasotto – INFN Legnaro e i gestori dei centri CMS Italia.
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
Servizio Sistema Informativo - Area Gestione Sistemi e Sicurezza – LNF – Dael Maselli Area Gestione Sistemi e Sicurezza LNF Plenaria Servizio Sistema Informativo.
WORKSHOP GARR_08 GARR-X: il futuro della Rete _ Milano 1-4 aprile 2008 Modelli di MAN ed integrazione in GARR-X Marco Marletta Workshop GARR_08 Milano.
ATLAS PRIN Alessandro De Salvo A. De Salvo – 12 novembre 2015 Cloud Computing Condivisione di risorse tra gruppi EventIndex LHCONE PoD T2D.
OpenStack/WNoDeS integration: a demo and next steps Vincenzo Ciaschini Catania, 29/5/14.
Report R.Gomezel CCR dicembre 2006 Roma.
Tier-2 Legnaro-Padova Massimo Sgaravatto (INFN Padova) On behalf of the Legnaro-Padova T2 team Tier-2 Legnaro-Padova 1.
26 Giugno 2007CSN1 - Frascati1 Temi di attualità nella CCR Accanto alla tradizionale attività di controllo dei finanziamenti per le infrastrutture di calcolo.
Riunione PRIN STOA - Bologna - 18 Giugno 2014 Testbed del T2 distribuito Napoli-Roma Dr. Silvio Pardi INFN-Napoli Riunione PRIN STOA – Bologna 18 Giugno.
Atlas Italia - Milano, 17/11/2009 G. Carlino – News dal Computing 1 1 News dal computing Gianpaolo Carlino INFN Napoli Atlas Italia, Milano, 17/11/09 Nuovo.
PRIN «Calcolo LHC» Attività previste Finanziamenti Sinergie CCR12 Dicembre 2012L.Perini1.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
Esperienza di Elastic Computing al Tier 1 Vincenzo Ciaschini & Donato de Girolamo CCR 16-20/5/2016.
Claudio Grandi Workshop CCR 2015 Claudio Grandi INFN Bologna.
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
Referaggio sigla CALCOLO D. Bonacorsi, G. Carlino, P. Morettini CCR – Roma 9 Settembre 2014.
DA e controlli DAFNE Riccardo Gargana Frascati 13/12/ /12/13.
Presentazione WS del 23/10/2013 al CNAF: 0&resId=0&materialId=slides&confId=6920
Worker node on demand: le soluzioni Andrea Chierici INFN-CNAF CCR 2009.
Servizi Nazionali e Locali Preentivo 2013
Il futuro della infrastruttura Grid INFN : le risorse economiche e le competenze ” Workshop CCR INFN GRID 2011.
1 ALICE I ITER2 DI ALICE IN ITALIA Bologna, 6 marzo 2007 M. Masera
19/4/2013 D. Menasce, M. Serra - Referaggio Progetti INFRA e WLCG 1.
Stato e previsione rete nelle sedi INFN Survey ed ipotesi di sviluppo fino al 2018 CCR 8-10 Settembre 2018 (Roma) 1 S.Zani (Netgroup)
Progetti CCR Referaggio progetti della Commissione Calcolo e RetiReferaggio progetti della Commissione Calcolo e Reti Referees: Tommaso Boccali, Alessandro.
Attività Gruppo Virtualizzazione Andrea Chierici CNAF CCR
SCOPE: stato e piano di integrazione Phd. Silvio Pardi CNAF
EEE e Cloud Enrico Fattibene, Andrea Ferraro INFN – CNAF Workshop di CCR sull'Infrastruttura Cloud 15 Dicembre 2014 Quest'opera è distribuita con Licenza.
Domenico Elia1CdG Tier1-Tier2 / CNAF ALICE Tier2 sites Domenico Elia CdG Tier1-Tier2 Bologna, 15 Aprile 2015  Infrastruttura e risorse, coordinamento.
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
Silvia Arezzini 2 luglio 2014 Consiglio di Sezione per Preventivi.
Sinica Taipei R.Gomezel CCR marzo 2009 Roma.
ATLAS Italia – Sestri Levante, 15 Giugno 2010 G. Carlino – Richieste Run Efficiency = time for physics / total time LHC Efficiency = time with colliding.
ALICE Computing Readiness Workshop Tier-2 CNAF Jan 17-18, ALICE Computing Readiness 1) ALICE Italia: Persone & organizzazione 2) Test & commisioning.
CCR - Roma 15 marzo 2007 Gruppo storage CCR Report sulle attivita’ Alessandro Brunengo.
Checkpoint e restore di job LSF Workshop Congiunto INFN CCR e GRID Acireale, Maggio 2010 INFN - Sezione di Trieste - C. Strizzolo - L. Strizzolo.
1 Le macchine di questo pool fanno parte di una lan privata (la 125 illustrata a pag.2), di cui t2cmcondor è il gateway. Sono presenti 3 macchine su rete.
L’infrastruttura del progetto ReCaS Paolo Lo Re on behalf of ReCaS collaboration.
Aggiornamento AFS R.Gomezel Commissione Calcolo e Reti Presidenza 5/10/2010-7/10/2010.
Workshop congiunto CCR & INFN-GRID. Tema: l’efficienza Sede: Hotel Cala di Lepre – Palau Date: maggio Comitato organizzatore: V. Ardizzone, D. Anzellotti,
Attività Gruppo Virtualizzazione Andrea Chierici CNAF Riunione CCR
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Dynamic Farm Espansione Dinamica di una Farm Vincenzo Ciaschini CCR 31/3/2015.
20-21/03/2006Workshop sullo storage - CNAF Alessandro Brunengo.
Risultati ultimi mesi Piano di lavoro prossimi mesi Reclutamento
INFN-TS INFN - Sezione di Trieste - C. Strizzolo - L. Strizzolo.
Interfacce SRM: l'utilizzo di STORM - Overview e prospettive (ALICE)
Transcript della presentazione:

BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015

Configurazione del sito 12/11/15L. Rinaldi - Prin STOA Bologna Report1 INFN-BOLOGNA-T3: farm locale connessa alla GRID “co-locato” al CNAF-Tier1 (collaborazione Unibo, INFN-BO, INFN CNAF) Utilizzo shared tra ATLAS,CMS,LHCB, (altri, minor) 42 Macchine: 39 WN e 3 HV per servizi (CE, SE, BDII, UI) 2 CE Cream per sottomissione grid LSF, stessa istanza del Tier-1; tre code dedicate: –analisi locale –coda “grid” –coda fast test (  usa nodi sulle UI) 150 TB Disco GPFS StoRM (1 SE con BE e FE, ARGUS) –area local con accesso posix –area storm lettura posix/scrittura srm

BOT3 2 Server XrootD installati su Server GridFTP Configurazione multi-server INFN-BOLOGNA-T3 fa parte delle federazioni AAA (CMS) e FAX (ATLAS) 12/11/15L. Rinaldi - Prin STOA Bologna Report2

Virtualizzazione e Cloud Gestione dinamica della farm: aggiunta dinamica di VM come UI o WN on–demand L’implementazione: VM create con Red Hat KickStart e OZ TDL tunnel VPN tra le VM remote e VPN server Generic Routing Encapsulation (GRE) tra il VPN server e le macchine della farm che devono essere necessariamente visibili alle VM (es: LSF server,...) Vantaggi: Nessun requisito sull’hypervisor: la VM può essere lanciata su provider Cloud qualunque Semplici requisiti sulla VM (un RPM) Efficienza: il traffico è rediretto verso la farm solo per il minimo necessario. Dinamicità: se servono più risorse basta far partire nuove VM, se non servono più basta spegnerle 12/11/15L. Rinaldi - Prin STOA Bologna Report3

Cloud Bursting 12/11/15L. Rinaldi - Prin STOA Bologna Report4 Generic Routing Encapsulation G. Codispoti Workshop CCR Frascati, 25-29/5/2015 G. Codispoti Workshop CCR Frascati, 25-29/5/2015

Cloud Bursting del Tier 3 Bologna WN istanziabili su richiesta su Cloud Non richiede accesso diretto allo storage ma sfrutta srm/XrootD Non usa utenti locali ma solo Grid Pool Account Cloud Bursting testato su Cloud CNAF-OpenStack È lo use case naturale per l’utilizzo di Cloud commerciali 12/11/15L. Rinaldi - Prin STOA Bologna Report5 Stato attuale: Sistema testato con successo sul Tier3 per CMS Meccanismo di Cloud Bursting su Cloud Aruba in produzione al Tier-1 per CMS Sistema in fase di test per ATLAS (manca test di accesso alla cloud e sottomissione jobs da PANDA)

Osservazioni su Cloud bursting Estenzione dinamica perfettamente funzionante problema di infrastruttura: performance GPFS (area contenente le immagini delle VM) Il bottleneck di accesso utente a GPFS via NFS è chiaramente la maggiore limitazione Al momento SOLO accesso via XrootD No accesso per utenti locali (NO export delle home) Il progetto iniziale prevedeva WNoDeS, in corso d’opera si è deciso di utilizzare OpenStack 12/11/15L. Rinaldi - Prin STOA Bologna Report6

Accesso Cloud diretto tramite glidein 12/11/15L. Rinaldi - Prin STOA Bologna Report7 Sottomissione diretta ad OpenStack dai WMS di esperimento Test di CMS con glidein-WMS Jobs di workflow di analisi sottomessi con CRAB-3 eseguiti con successo all’infrastruttura OpenStack del CNAF

Prospettive future Il sito Tier-3 continuerà ad essere attivo per le esigenze di analisi degli utenti delle comunità locali per esperimenti LHC (ATLAS, CMS, LHCb) e altri. E’ già in progetto assieme al CNAF la migrazione del sito Grid di Bologna ad una infrastruttura totalmente Cloud, con l’implementazione anche di un Batch- System-as-a service per il supporto della comunità locale. Il lavoro di ricerca e sviluppo relativo al Cloud Bursting descritto in precedenza è già utilizzato da CMS per l’estensione dinamica del Tier-1 su risorse esterne (Aruba). 12/11/15L. Rinaldi - Prin STOA Bologna Report8

Spese 12/11/15L. Rinaldi - Prin STOA Bologna Report9 Solamente spese personale Spese cofinanziamento contratto RTD-A (Rinaldi): 34424,00 € Finanziamento ore dipendenti (Bonacorsi, Fabbri, Zoccoli): 30575,00 €