Storage (ieri, oggi e domani) Luca dell’Agnello INFN-CNAF.

Slides:



Advertisements
Presentazioni simili
OMEN: Conclusioni seconda TRR. La strategia della Commissione Europea per lInnovazione regionale In occasione del lancio dei nuovi fondi strutturali 2007/2013,
Advertisements

Luglio 2004Storage Resource Management1 STORAGE RESOURCE MANAGEMENT (SRM) Luglio 2004.
Workshop CCR Otranto - maggio 2006 General Parallel File System: caratteristiche, prestazioni ed esempi di utilizzo in produzione Alessandro Brunengo -
Monitoraggio online con la mappa del tracker M.S. Mennea, G. Zito Università & INFN di Bari Riunione Consorzio – Bari 9 Settembre 2005.
Tier1 - cpu KSI2k days ATLAS KSI2k days CMS. Tier1 - storage CASTOR disk space CMS requires: T1D0, T0D1 ATLAS requires: T1D0, T0D1 and T1D1.
LHCf Status Report Measurement of Photons and Neutral Pions in the Very Forward Region of LHC Oscar Adriani INFN Sezione di Firenze - Dipartimento di Fisica.
INFN-GRID WP1 11 gennaio 2001 GridFTP: stato dellarte Luciano Gaido 1 Progetto INFN-GRID GridFTP: stato dellarte Riunione WP1 (GLOBUS) Cnaf, 11 gennaio.
INFN-GRID WP1 20 novembre 2000 Sperimentazione GridFTP Luciano Gaido 1 Progetto INFN-GRID Sperimentazione GridFTP Riunione WP1 (GLOBUS) Cnaf, 20 novembre.
1 M. Biasotto – Legnaro, 22 Dicembre 2005 Prototipo Tier 2 di Legnaro-Padova INFN Legnaro.
Secure Socket Layer (SSL) Transport Layer Security (TLS)
Last quarter work and future activities
EGEE is a project funded by the European Union under contract IST Using SRM: DPM and dCache G.Donvito,V.Spinoso INFN Bari
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
LNL GM, CNAF, 18 ottobre INFN-Farm Management Toolkit 1.Fabric Management per DataGrid e INFNGrid 2.Definizione dei requisiti degli esperimenti.
Analysis unibo una proposta. Work flow di una tipica analisi 1.Simulazione di piccoli campioni di eventi per studio segnale 2.Generazione in grande.
CCR 14-15/03/2006 Status Report Gruppo Storage CCR.
CMS RPC R&D for phase 2 Two types of upgrades proposed for the CMS RPC muon system: 1.Aging and longevity: installed in 2007, must continue to operate.
Test Storage Resource Manager per SC4 Giacinto Donvito Vincenzo Spinoso.
16 Maggio CSN1 Computing-Software-Analysis CMS-INFN TEAM Analisi in CMS: stato e prospettive del supporto italiano.
Extreme Cluster Administration Toolkit Alberto Crescente, INFN Sez. Padova.
CMS RPC R&D for phase 2 Two types of upgrades proposed for the CMS RPC muon system: 1.Aging and longevity: installed in 2007, must continue to operate.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
LNF Farm E. V. 9/8/2006. Hardware CE, LCFG, HLR, 3 WN: DL 360 1U; SE: DL 380 2U 5 WN: BL 25 P In totale 25 jobs general purpuse (coda Atlas) + una coda.
8 Maggio 2002Workshop CCR - La Biodola W2K Coordination Group & HEP-NT Report Enrico M.V. Fasanelli Gian Piero Siroli.
BaBar Tier A Administration Workshop CCR, Paestum Giugno 2003 Alberto Crescente, INFN Sez. Padova.
Workshop CCR Otranto - giugno 2006 Gruppo storage CCR Status Report Alessandro Brunengo.
Alessandro Tirel - Sezione di Trieste Storage Area Network Riunione gruppo Storage Padova, 5 ottobre 2005.
Gruppo Windows: passato, presente e futuro Gian Piero Siroli, Dip. di Fisica, Universita’ di Bologna e INFN III Workshop sulle problematiche di calcolo.
Istituto Nazionale di Fisica Nucleare Italy Report Roberto Gomezel INFN - Trieste.
Report HEPiX Spring meeting 2002 Workshop sulle problematiche di calcolo e reti nell'INFN 6-9 Maggio 2002 La Biodola - Isola d'Elba Silvia Arezzini.
Halina Bilokon ATLAS Software di fisica DC1 – DC2 DC1 aprile fine 2003 (versioni di software  3.x.x – 7.x.x)  Validation del Software  Aggiornamento.
La Farm di Alice a Torino Workshop sulle problematiche di calcolo e reti Isola d’Elba 6-9 maggio 2002 Mario Sitta (Università del Piemonte Orientale e.
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015.
Brunengo - Padova - 18/12/2007 Infrastrutture di storage per Tier2 Gruppo storage CCR.
17-18 Dicembre 2014 Second Belle II italian collaboration meeting – Dicembre 2014 Networking e calcolo di Belle II a Napoli - Recas Silvio Pardi.
1 Mirco Mazzucato Direttore del CNAF CNAF e Tier1 INFN Organizzazione, stato e risorse CSN1 - Pisa 16 Settembre 2008.
High Avaliability with RHCS HA INFN CNAF 22 Marzo 2006 Bologna Ricci Pier Paolo, on behalf of INFN TIER1 Staff
#sqlsatTorino #sqlsat400 May 23, 2015 AzureML - Creating and Using Machine Learning Solutions Davide
Call 5: ACTIVE – 3 rd Meeting G. Darbo – INFN / Genova 8 July 2013 o ACTIVE – 3 rd Meeting G. Darbo – INFN / Genova Indico agenda:
SCOPE: stato e piano di integrazione Phd. Silvio Pardi CNAF
G. Maggi 24/1/2006 Il Progetto del TIER2 di Bari Giorgio Maggi.
KLOE - Referee Paolo Checchia, Luca Lista, Ezio Menichetti, Pierluigi Paolucci con l’aiuto sostanziale di Luca dell’Agnello, Mauro Morandin CSN1.
Calcolo a LHC Concezio Bozzi, INFN Ferrara per il gruppo di referaggio: F. Bossi, CB, R. Ferrari, D. Lucchesi, D. Martello, [M. Morandin], S. Pirrone,
Domenico Elia1CdG Tier1-Tier2 / CNAF ALICE Tier2 sites Domenico Elia CdG Tier1-Tier2 Bologna, 15 Aprile 2015  Infrastruttura e risorse, coordinamento.
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
The INFN Tier-1: progetto di ampliamento Cristina Vistoli – INFN CNAF Referee Meeting Sep
Sinica Taipei R.Gomezel CCR marzo 2009 Roma.
CCR - Roma 15 marzo 2007 Gruppo storage CCR Report sulle attivita’ Alessandro Brunengo.
Tier1: stato del servizio Pietro Matteuzzi e Luca Dell’Agnello.
1 Le macchine di questo pool fanno parte di una lan privata (la 125 illustrata a pag.2), di cui t2cmcondor è il gateway. Sono presenti 3 macchine su rete.
L’infrastruttura del progetto ReCaS Paolo Lo Re on behalf of ReCaS collaboration.
Calcolo a LHC e proposte per Tier2 C. Bozzi, INFN Ferrara per il comitato di referaggio F. Bossi, C.B., R. Carlin, R. Ferrari, D. Lucchesi, D. Martello,
Sessione "EGI Production Infrastructure" martedì 14 Settembre ore 14 From EGEE to EGI: status of the EGI infrastructure, results and roadmap: – ROC_CE.
The INFN Tier-1: migrazione verso l’ampliamento Cristina Vistoli – INFN CNAF.
PANNON GÉP PANNON GÉP KFT Production of agricoltural tools and equipments since Our company is distinguished for the use of high quality material.
20-21/03/2006Workshop sullo storage - CNAF Alessandro Brunengo.

Status Report Gruppo Storage CCR CCR 14-15/03/2006.
Riunione INFN – Bologna, 17 January 2013
Reparto Storage: attivita’ 2010
Dichiarazione dei servizi di sito nel GOCDB
Alberto Masoni EU-IndiaGrid Project Manager INFN Sezione di Cagliari
Gruppo storage CCR Nuove attivita’ 2007 Alessandro Brunengo CCR - Roma
From 8 to 80 boxes. From FBSNG to Condor CPU Satura !
Assegnazione risorse Stato INFN CNAF,
Aggiornamento sullo stato del Tier-2 di Catania
Nuove funzionalità e futura implementazione nella Sezione di Trieste
Interfacce SRM: l'utilizzo di STORM - Overview e prospettive (ALICE)
Study of Bc in CMSSW: status report Silvia Taroni Sandra Malvezzi Daniele Pedrini INFN Milano-Bicocca.
Transcript della presentazione:

Storage (ieri, oggi e domani) Luca dell’Agnello INFN-CNAF

Tematiche della sessione Consolidamento del servizio  Supporto StoRM  Stato del MSS al Tier1  Integrazione gestione sistemi storage per il calcolo e per i servizi Uno sguardo sul futuro  Test di file-system/sistemi di storage per HEP  Idee (e dubbi ) sul futuro dello storage Incipit discussione in vista meeting storage WLCG

StoRM Product team (~ 3.5 FTE) ha in carico sviluppo, test, certificazione, supporto (v. talk F. Giacomini)  ….ed alcune componenti “esterne” Plug-in gridftp per checksum Layer GPFS-TSM Stage roll-out con “early adopters”  ~ 2 settimane  INFN-T1, INFN-CNAF, INFN-BARI, INFN-PADOVA, … Prevista procedura per “urgent fix”  Solo se per problemi bloccanti AND solo se non esiste workaround  Rilascio rpm ad hoc per sito con problema 3 livelli supporto  Helpdesk di EGI (smistamento ticket)  Support unit in INSPIRE (esperti in shift)  Sviluppatori: da interpellarsi solo per bug!

4 GEMSS: GPFS/TSM/StoRM integration GPFS is a parallel file system while TSM is a high-performance backup/archiving solution Both products (from IBM) are widely used (separately) and diffused Large GPFS installation is in production at CNAF since 2005, with increasing disk space and number of users 2 PB of net disk space (~ 6 PB in Q2 2010) partitioned in several GPFS clusters 150 disk-servers (NSD + GridFTP) connected to the SAN We combined the features introduced in version 3.2 of GPFS and TSM with StoRM, to provide a transparent grid-enabled HSM solution. An interface between GPFS and TSM (named GEMSS) was implemented to enable tape-ordered recalls CASTOR phase-out nearly completed (Q1 2010)

Disk-centric system with five fundamental components 1. GPFS: disk-storage software infrastructure 2. TSM: tape management system 3. StoRM: SRM service 4. GEMSS: StoRM-GPFS-TSM interface 5. GridFTP: WAN data transfers 5 ILM DAT A FILE GEMSS DATA MIGRATION PROCESS DAT A FILE StoRM GridFTP GPFS DAT A FILE WAN data transfers DAT A FILE TSM DAT A FILE GEMSS DATA RECALL PROCESS DAT A FILE WORKER NODE Building blocks of the new system SAN TAN LA N SAN 5

Lo storage: un tema sempre caldo in ambito WLCG Revisione critica del modello attuale di storage  Forte spinta dagli esperimenti  Varie idee non ancora focalizzate Alcune “tappe” fissate  Storage jamboree (Amsterdam Giugno)  WLCG workshop (London 7-9 Luglio) Porteremo nostra esperienza come INFN

Links Storage Jamboree (June ) ?confId= ?confId=92416 WLCG workshop (July )

StoRM production layout for CMS 2x10 Gbps 500 TB GPFS file system 4 GridFTP servers (4x2 Gbps) 6 NSD servers (6x2 Gbps on LAN) HSM STA HSM STA HSM STA 8x4 Gbps 3x4 Gbps 8x4 Gbps 11 tape drives 1 TB per tape 1 Gbps per drive TSM server SAN TAN 6x4 Gbps TAPE LIBRAR Y LAN 3 TSM Storage Agents and HSM clients 20x4 Gbps DB2 SA N DB2 9

StoRM layout for ATLAS (T1D0) 2x10 Gbps 16 (  60 TB) GPFS fs 6 GridFTP servers (6x2 Gbps) 4 NSD servers (4x2 Gbps on LAN) HSM STA HSM STA 8x4 Gbps 2x4 Gbps 8x4 Gbps 11  13 tape drives 1 TB per tape 1 Gbps per drive TSM server SAN TAN 4x4 Gbps TAPE LIBRAR Y LAN TSM Storage Agents and HSM clients 20x4 Gbps DB2 SA N DB2 10