EGEE is a project funded by the European Union under contract IST-2003-508833 SRM overview: d-Cache, DPM G.Donvito INFN Bari www.eu-egee.org.

Slides:



Advertisements
Presentazioni simili
EGEE is a project funded by the European Union under contract IST Using SRM: DPM and dCache G.Donvito,V.Spinoso INFN Bari
Advertisements

CCR 14-15/03/2006 Status Report Gruppo Storage CCR.
Test Storage Resource Manager per SC4 Giacinto Donvito Vincenzo Spinoso.
1 Le macchine di questo pool fanno parte di una lan privata (la 125 illustrata a pag.2), di cui t2cmcondor è il gateway. Sono presenti 3 macchine su rete.
Aggiornamento attivita’ gruppo Windows Gian Piero Siroli, Dip. di Fisica, Università di Bologna e INFN CCR, ottobre 2007.
FESR Catania, Trigrid Open Day, Trinacria Grid Virtual Laboratory PROGETTO “ISOSPIN” Supporters : AnnaMaria Muoio, Marcello IaconoManno.
EGEE is a project funded by the European Union under contract IST L'infrastruttura di produzione attuale A. Cavalli - INFN- CNAF D. Cesini.
Dynamic Farm Espansione Dinamica di una Farm Vincenzo Ciaschini CCR 31/3/2015.
PRIN NAPOLI Enzo Capone, Gianpaolo Carlino, Alessandra Doria, Rosario Esposito, Leonardo Merola, Silvio Pardi, Arturo Sanchez Pineda.
+ Call di Big Data (EINFRA- 1). + La call … + + Cosa abbiamo in mano (come INFN) 1. L’infrastruttura 1 Tier Tier2 O(25000) cores O(20) PB di Disco.
Progetto NOBEL 2 PARTECIPANTI: Marco Bencivenni (100%) Tiziana Ferrari (20%) SCADENZA PROGETTO: 29 Febbraio 2008 OBIETTIVI DEL PROGETTO: E voluzione della.
EGEE is a project funded by the European Union under contract IST Il Sistema di Supporto nel ROC-IT Riccardo Brunetti INFN-Torino Riunione.
HLRmon per IGI: nuove funzionalità Enrico Fattibene INFN – CNAF
Alessandro De Salvo Status dei Tier2 di ATLAS Alessandro De Salvo
AFS NELLA SEZIONE DI PADOVA aree_utenti: attualmente nessuno ha la proria home in AFS e quasi nessuno utilizza l'area utenti di AFS. /usr/local: si preferisce.
Torino, Andrea Dainese 1 Andrea Dainese (INFN – LNL) Stato del Tier-2 ALICE a Legnaro.
Acquisti TIER T2 team e Pistoni per la consulenza sull’hardware.
PGDay 2009 FSGateway Ing. Torello Querci Resp. Architetture SW - Negens S.r.l. 4 Dicembre 2009, Pisa.
20-21/03/2006Workshop sullo storage - CNAF Alessandro Brunengo.
Configurazione Router IR794- IG601
Corso per Webmaster base
SCoPE - Stato dei Lavori
Riccardo Veraldi - Massimo Donatelli CCR 3-4 Marzo 2008
Resoconto delle attività del Gruppo di Lavoro DR
Status Report Gruppo Storage CCR CCR 14-15/03/2006.
Summary di (quasi) tutti gli utenti non presentati…
dCache Test effettuati al CNAF
WPC069 Il deployment automatizzato di Windows 10
Riunione INFN – Bologna, 17 January 2013
Monitoring e loadbalancing dei servizi Grid
INFN-Bari.
Attività su middleware Grid e sua evoluzione
Applicazione web basata su web service e web socket
Risultati ultimi mesi Piano di lavoro prossimi mesi Reclutamento
Richieste di upgrade dei link di accesso alla rete Geografica
Collegamento a Garr-X Il collegamento alla nuova rete Garr-X dovrà garantire il massimo della efficienza nella gestione della banda. Per identificare opportunamente.
HLRmon: visualizzazione di dati di accounting
Terza Lezione → Navigare nel file System → parte 2
Dichiarazione dei servizi di sito nel GOCDB
Cloud per HA nei Servizi
PRIN Roma1 – status Luciano Barone, Alessandro De Salvo
Stato Acquisti Switch/Router T2
Servizi per CCRC, INFN Grid release, stato dei servizi centrali e T2
Sicurezza e Grid Computing
GridFlex: gestione di software
CMS T2: monitoring Cosa c’e’ / cosa vorremmo / cosa manca
Assegnazione risorse Stato INFN CNAF,
Metriche SE monitoring G.Donvito G.Cuscela INFN Bari
INDIGO-DataCloud MidnightBlue Tutorial Days
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
Nuove funzionalità e futura implementazione nella Sezione di Trieste
Attvità Computing – Inverno 08/09
INFN-TS INFN - Sezione di Trieste - C. Strizzolo - L. Strizzolo.
Portal Architecture Data Management
Belle II Computing: Accesso alle risorse di storage via http/webdav
Tier2 Milano Gli acquisti di fine 2008 saranno installati in 10 giorni circa Nuovo Storage Element vicino a commissioning No RFIO, cache, GPFS based, usato.
PI2S2 Regional Operation Centre Sistema di Supporto Sistema di Monitoring Rita Ricceri Consorzio Cometa Tutorial per Site Administrator Messina,
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
Giordano Scuderi Unico SRL - Messina,
Job Application Monitoring (JAM)
ONEDATA - distributed data caching -
Interfacce SRM: l'utilizzo di STORM - Overview e prospettive (ALICE)
LA GESTIONE DEI PACCHETTI
Sviluppo di server web e sistema di caching per contenuti dinamici
PROGETTO “ISOSPIN” Supporters : AnnaMaria Muoio, Marcello IaconoManno
analizzatore di protocollo
389 Directory Server Dael Maselli.
Job Management Systems ovvero
SAGE – Un sistema per l’accounting dello storage in gLite
ATLAS PRIN Roma1 - status Alessandro De Salvo
Transcript della presentazione:

EGEE is a project funded by the European Union under contract IST SRM overview: d-Cache, DPM G.Donvito INFN Bari

Workshop Storage, Marzo Outline Overview of SRM dCache  Overview  Test DPM  Overview  Test Conclusion

Workshop Storage, Marzo dCache overview Collaborazione fra Desy e FNAL (più altre piccole collaborazioni) Obbiettivo:  Sistema di storage distribuito per utilizzare storage server economici  Fornisce un’astrazione dello spazio disco sotto unico root file-system navigabile per i meta-data (attraverso interfaccia NFS)  Possibilità di aggiungere il supporto per il proprio sistema di Tape Library È necessario scrivere due/tre script bash o perl (put/get/remove)  Garantire la scalabilità nell’ordine delle centinaia di Tb di spazio disco e centinaia di pool node Accesso:  Fornisce accesso locale e non (anche posix like) con vari protocolli (dcap, ftp) autenticati e non Gestione dei pool:  Possibilità di gestire l’accesso ai pool secondo classi di storage (read, write, cache, on VO or user base)

Workshop Storage, Marzo dCache overview (2) Supporta copie multiple dei file (per garantire alta disponibilità o bilanciamento del carico)  Supporta pool-2-pool automatic transfer Dinamic “match-making” fra i pool  con i parametri configurabili da amministratore (in base a spazio disco, carico, network, ecc) Supporta multiple “acces point” e doors E’ possibile “svuotare” un pool per uno “scheduled downtime” Possibilità di suddividere i vari servizi su macchine diverse con elevata granularità Elevate possibilità di configurazione per venire incontro a tutti gli ambiti di utilizzo Sistema di monitoring integrato via web Interfaccia grafica di amministrazione in JAVA

Workshop Storage, Marzo dCache overview (3)

Workshop Storage, Marzo dCache overview (4)

Workshop Storage, Marzo dCache testbeds Bari: Installazione di produzione  3 pool server (gigabit eth): 6 Tb in totale (a breve verranno aggiunti altri 11 Tb aggiungendo 2 server)  1 admin node  ~ 40 Client  Rete: 2 Gbit/sec aggregati fra i client e i server (a breve porteremo la banda aggregata fra client e server a 3 Gbit/sec) CNAF: Installazione di test  4 pool server: circa 50 Tb  1 admin node  34 client (in seguito farm di produzione del CNAF)  Nella prima configurazione 2 Gbit/sec, attualmente 4 Gbit/sec di uplink Bari: Installazione di test  2 Macchine (1 admin+pool e 1 pool)  Macchine virtuali Torino: Installazione di produzione  1 nodo come admin e pool (80 Gbyte)  Usato principalmente per testare i trasferimenti fra CNAF e TO

Workshop Storage, Marzo Bari: Installazione di produzione Tests + Usato principalmente come SE di esperimento (CMS) + Buona stabilità operativa + Usato in tutte le fasi di SC3 (trasferiti su WAN, usando PHEDEX, più di 7TB di dati) + Usato per i trasferimenti con PHEDEX e con FTS + Pubblicato nel BDII di sito  Corrette (e dinamiche) le informazioni su spazio disco occupato e disponibile + Saturata la banda di rete disponibile  Sia con “bench” che con il software di CMS (era necessario aggiungere un parametro di configurazione nel software di CMS) + Test dimostrano la possibilità di aprire più di 2000 descrittori di files, usando questa configurazione (probabilmente sufficienti per ~ 200 job)  Eseguiti più di 100 job contemporaneamente senza problemi

Workshop Storage, Marzo Bari: Installazione di produzione Tests (2) - Per raggiungere i risultati di performance e scalabilità riportati sono state necessarie diverse configurazioni fini (alcune non ben documentate) - Provato l’aggiornamento dalla versione alla  Diversi problemi nella conversione fra il vecchio e il nuovo database dei Metadata  Aggiornamento effettuato senza aspettare la nuova versione di LCG: problemi per aggiornare il software di LCG su un dCache più nuovo di quello atteso - Problemi nel third-party-trasfer con SE non dCache  Necessario usare SRMCP per ottenere il massimo livello di performance  Problemi di performance con l’uso di FTS (versioni precedenti: non supportavano correttamente srmcp)

Workshop Storage, Marzo CNAF: Installazione di test Schema dCache CORE PNFS Server Postgres DB Admin node SRM door Pool node dcap door Pool service SRM door Pool node dcap door Pool service SRM door Pool node dcap door Pool service SRM door Pool node dcap door Pool service

Workshop Storage, Marzo CNAF: Installazione di test Tests + Test di lettura il locale con il protocollo “dcap”  Usati i WN dedicati (34 Macchine, banda passante massima: 3Gbit/sec)  Usato il programma “bench” (previsti test in futuro con i job di analisi di CMS) + Test di funzionalità avanzate  Replica dei files per garantire alta disponibilità e alte performance  Vacating di un pool “on-line” con successo +/- Test di trasferimento su WAN  Provati vari trasferimenti sia in scrittura (da FNAL e CERN) che in lettura (verso LNL e Bari) con link a 1 Gbit/sec  Problemi iniziali a causa di crush delle macchine, prima per problemi derivanti dalla configurazione dei socket di rete e poi per il file-system XFS  Alla fine risolti con buone prestazioni + Abilitato un bilanciamento del carico in tutte le funzioni fornite dal sistema (tranne DB e Admin-node)  Usato un DNS a round-robin con un alias

Workshop Storage, Marzo Risultati dei test: Trasferimenti in lettura su WAN CNAF LNL Bari + Il carico sulle macchine al CNAF era molto basso, quindi tutto lascia pensare che si potrebbe salire di molto con la rate - il valore basso della banda passante di LNL è dovuto al comportamento dell’installazione di DPM di LNL (dettagli in seguito) + La banda di Bari era satura

Workshop Storage, Marzo Risultati dei test: Trasferimenti in scrittura su WAN + Dopo diverse configurazioni siamo riusciti a raggiungere (e superare per poco tempo) i 100 files trasferiti in parallelo con 5 streams per ogni file. + In totale fra i vari test sono stati trasferiti poco meno di 20 Tb di files I due link hanno latenza molto diversa. Per ovviare all’alta latenza nel caso di FNAL è stato necessario usare un numero molto alto di files in parallelo CERN FNAL + I trasferimenti con il CERN sono riusciti a saturare la banda + Con FNAL si è riuscito ad arrivare a 936 Mbit/sec

Workshop Storage, Marzo Bench e bopener Bench scrive/legge file di test in numero e dimensioni personalizzabili È possibile centralizzare la registrazione dei risultati dei test su un DB MySql I log contenenti le misure di performance possono essere rielaborati (via scripts Perl) per ottenere statistiche Mentre bench legge i files in sequenza, e ciascun file dall’inizio alla fine, bopener:  Apre tutti i files contemporaneamente  Divide ciascun file in chunks  Legge in ordine random tutti i chunks di tutti i files Bopener simula il funzionamento dei jobs di CMS in condizioni teoriche limite  “Se dCache regge le richieste di I/O di bopener, allora deve reggere quelle dei jobs di CMS” (stress test)

Workshop Storage, Marzo Bench - Scrittura – Tempo medio di apertura dei files

Workshop Storage, Marzo Bench - Scrittura – Rate medio

Workshop Storage, Marzo Bench - Lettura – Tempo medio di apertura dei files

Workshop Storage, Marzo Bench - Lettura – Rate medio

Workshop Storage, Marzo Bopener 34 istanze di bopener vengono lanciate su altrettanti WN; ciascuna istanza di bopener legge 60 files (nei test successivi il numero di files sarà aumentato progressivamente); ogni file è grande 1 GB; ogni file viene diviso in chunks di dimensione di 1 MB, e quindi in 1000 chunks/file. Le istanze di bopener sui 34 WN:  aprono, a regime, un totale di 60 × 34 = 2040 descrittori lato server;  leggono tutti i chunks di tutti i files, leggendo complessivamente chunks!  chiudono, infine, tutti i file.

Workshop Storage, Marzo test bopener Aumentando il numero di files…

Workshop Storage, Marzo Bopener - Rate medio

Workshop Storage, Marzo Replica manager di dCache Replica files e controlla periodicamente il numero n di repliche: MIN<=n<=MAX  Se n>MAX allora cancella una replica  Se n<MIN allora duplica il file su un altro pool Vantaggi  Distribuzione della lettura su più repliche dello stesso file diminuisce il carico sul singolo pool  Se un pool “muore”, almeno un’altra replica è SUBITO disponibile Attivando il replica manager sui 4 server abbiamo verificato che l’overhead sulle operazioni di scrittura complessivamente introdotto dal replica manager è trascurabile. Abbiamo configurato 34 WN come pool di dCache, in aggiunta ai 4 disk server; si è assegnata a ciascuno di essi una quota di 40 GB di spazio disco; Abbiamo così incrementato lo spazio disponibile di 34 WN * 40 GB/WN = 1.3 TB

Workshop Storage, Marzo Bopener – Lettura da dCache con o senza replica manager

Workshop Storage, Marzo dCache: Comments and future Manca una implementazione SRM2.1 L’integrazione con LCG è ancora parziale Il supporto è quasi sempre puntuale per seri problemi di produzione, molto meno per test su nuove funzionalità ecc. La configurazione di un’installazione standard è semplice ma le funzionalità più avanzate “costano” tempo di configurazione Manca ancora un buon supporto all’autenticazione VOMS Interfaccia di monitoring via WEB Interfaccia grafica di management in JAVA

Workshop Storage, Marzo DPM overview Sviluppato dal CERN SRM standard di LCG/gLite Fornisce accesso posix like via RFIO autenticato e per la copia via GRIDFTP Unisce vari pool sotto un unico name space, navigabile con appositi comandi Costituito da un leggero e veloce layer software su un RDBMS (MySQL) Obbiettivo:  Facilità di installazione e management  Compatibilità con il ClassicSE Fornisce una prima implementazione dell’interfaccia SRM2.1

Workshop Storage, Marzo Example: SRM put processing (1)

Workshop Storage, Marzo Example: SRM put processing (2)

Workshop Storage, Marzo Example: SRM put processing (3)

Workshop Storage, Marzo Example: SRM put processing (4)

Workshop Storage, Marzo Example: SRM put processing (5)

Workshop Storage, Marzo Example: SRM put processing (6)

Workshop Storage, Marzo Client SRM2 del cvs di DPM Client di Test SRM v2 presenti nei CVS di DPM, scaricabili e compilabili  Client poco documentati (sono usati ufficialmente solo per i test) “test2” è un semplice script Bash per il test di DPM (SRM2)  Scarica i cvs di DPM e compila i client SRM2  Possiede uno script di “environment” (CONFIG) facilmente configurabile  Avvia test più complessi del singolo test di funzionalità, per analizzare situazioni estreme (saturazione spazio libero) implicit pinning alberi di directory (rimozione di directory vuote)

Workshop Storage, Marzo test2 put  =PrepareToPut (filesize=200MB) +globus-url-copy +PutDone get  =PrepareToGet (filesize=200MB) +globus-url-copy +ReleaseFiles/RemoveFiles rmonput, rmonget putoversize putoverspace  While (Free space exists) PrepareToPut;  Rollback! dirs  Ls, Mkdir, Rmdir, Rm, Mv

Workshop Storage, Marzo Classi di funzionalità SRM 2 Data Transfer Functions Directory functions Space Management Functions Permission Functions

Workshop Storage, Marzo Implicit pinning PrepareToGet e PrepareToPut non mantengono il pinning sui files?  il server restituisce correttamente sia il TURL (via RFIO oppure GridFTP), sia il token della richiesta  tuttavia durante globus-url-copy è possibile rimuovere il file usando srmRm (srm2_testRm)  PrepareToGet deve mantenere un pinning (implicito) del file almeno fino all’invocazione di ReleaseFiles da parte del client ReleaseFiles/RemoveFiles/PutDone/ExtendFileLifeTime funzionano? “PrepareToPut does not implement an hard limit on filesize. This has been discussed in SRM Collaboration meetings and probably all developpers also implement a soft limit.” JPB

Workshop Storage, Marzo AbortRequest AbortRequest esce con “successo” (exit=0), ma lo spazio non viene disallocato Attendendo lo scadere del lifetime, lo spazio non viene disallocato Se dopo AbortRequest si riavvia il daemon dpm sul server, allora lo spazio preallocato viene liberato! “fixed in DPM version > 1.5.4” JPB

Workshop Storage, Marzo Suspend/Resume SuspendRequest/ResumeRequest non sono previste in DPM Sono richieste (anche se con bassa priorità) per SC4 “We have no plan to implement Suspend/Resume. This is also true for Castor and dCache” JPB

Workshop Storage, Marzo Ls Di una directory, “Ls” restituisce path, size, type, owner, permissions, date, ma non restituisce il listing! Mkdir, Rmdir, Rm, Mv funzionano correttamente

Workshop Storage, Marzo ReserveSpace Funzionalità era attesa per fine Febbraio Non ha senso testare ReleaseSpace/UpdateSpace “global space reservation will come during the spring. At the workshop in Mumbai, the priority assigned to this item was relatively low.” JPB

Workshop Storage, Marzo Permission Functions srmSetPermission srmReassignToUser srmCheckPermission “srmCheckPermission works in DPM version >= 1.5.4” JPB

Workshop Storage, Marzo DPM testbeds Installazione a LNL  1 admin node  1 pool node: 4 Tb Installazione a Catania  1 admin node  1 pool node che usa GPFS come file-system

Workshop Storage, Marzo Test bench: risultati (1 file da 2GB) Transfer Rate totale in MB/s

Workshop Storage, Marzo Trasferimento dati CNAF-LNL con Phedex Grafico percentuale-CPU e traffico-rete del disk-server DPM Grafico traffico rete GARR

Workshop Storage, Marzo Virtual Ids and VOMS integration DNs are mapped to virtual UIDs: the virtual uid is created on the fly the first time the system receives a request for this DN (no pool account) VOMS roles are mapped to virtual GIDs A given user may have one DN and several roles, so a given user may be mapped to one UID and several GIDs Currently only the primary role is used in LFC/DPM Support for normal proxies and VOMS proxies Administrative tools available to update the DB mapping table:  To create VO groups in advance  To keep same uid when DN changes  To get same uid for a DN and a Kerberos principal

Workshop Storage, Marzo Access Control Lists LFC and DPM support Posix ACLs based on Virtual Ids  Access Control Lists on files and directories  Default Access Control Lists on directories: they are inherited by the sub- directories and files under the directory Example  dpns-mkdir /dpm/cern.ch/home/dteam/jpb  dpns-setacl -m d:u::7,d:g::7,d:o:5 /dpm/cern.ch/home/dteam/jpb  dpns-getacl /dpm/cern.ch/home/dteam/jpb # file: /dpm/cern.ch/home/dteam/jpb # owner: /C=CH/O=CERN/OU=GRID/CN=Jean-Philippe Baud 7183 # group: dteam user::rwx group::r-x #effective:r-x other::r-x default:user::rwx default:group::rwx default:other::r-x

Workshop Storage, Marzo DPM: Comments and future L’implementazione di SRM2.1 non è ancora ne completa ne a “production level” Mancano ancora molte funzionalità avanzate (utili per siti grandi o amministratori esperti) Stabilità operativa da provare Performance su WAN da indagare Scalabilità nell’ordine delle centinaia di Tb e di pool da dimostrare La filosofia che guida lo sviluppo privilegia piuttosto la velocità che la stabilità operativa

Workshop Storage, Marzo SC4 / pilot WLCG Service Workshop (1/2)

Workshop Storage, Marzo SC4 / pilot WLCG Service Workshop (2/2)

Workshop Storage, Marzo Conclusioni Feedback dai siti è prezioso!  è necessario pianificare le attività di test (vedi SC4 WLCG Service Workshop) L’uso di SRMv2.1 è stato “spostato” in futuro  Anche a causa del ritardo nell’implementazione da parte dei software di SRM I test fatti con dCache coprono le esigenze di eventuali Tier2 (sia per SC4 che per l’attività a regime), per il tier1 (come scala e come performance) non sono ancora sufficienti Sarebbe utile capire l’interesse dei vari Tier2 su questi sistemi per cercare di capire su cosa concentrare i test  Sia come sistemi, sia come funzionalità Sarebbe utile fare degli stress test (simili a quelli fatti al CNAF per dCache) su DPM (che siano lunghi e complessi) per mettere alla prova l’affidabilità del sistema oltre che le performance. Sono necessari test di interoperabilità fra i vari SRM (sono mandatori anche per quello che viene riportato in “SC4 WLCG”) Interazione più stretta con gli sviluppatori dei vari sistemi. Dare dei suggerimenti sul sistema da adottare non è facile e molto dipende dal man-power disponibile e dalle esigenze che si devono soddisfare

Workshop Storage, Marzo Ringraziamenti & Riferimenti Ringraziamenti:  Vincenzo Spinoso, Vincenzo Vagnoni,  Daniele Bonacorsi  Simone Badoer, Emidio Giorgio  Giuseppe Lo Re, Pierpaolo Ricci, Vladimir Saputenko  Jean Philippe Baud, Patrick Fuhrman Riferimenti:  Wiki Gruppo Storage:  LCG Baseline Services Group Report  Storage Resource Management Working Group:  Tests on Storage Managers  SC4 / pilot WLCG Service Workshop