1 Le macchine di questo pool fanno parte di una lan privata (la 125 illustrata a pag.2), di cui t2cmcondor è il gateway. Sono presenti 3 macchine su rete.

Slides:



Advertisements
Presentazioni simili
EGEE is a project funded by the European Union under contract IST Test di performance su dCache G.Donvito,V.Spinoso INFN Bari
Advertisements

1 Introduzione ai calcolatori Parte II Software di base.
Unità D1 Architetture di rete.
ISA Server 2004 Enterprise Edition Preview. ISA Server 2004.
Giuseppe Fabio Fortugno.
Workshop CCR Otranto - maggio 2006 General Parallel File System: caratteristiche, prestazioni ed esempi di utilizzo in produzione Alessandro Brunengo -
Remote file access sulla grid e metodi di interconnesione di rete M. Donatelli, A.Ghiselli e G.Mirabelli Infn-Grid network 24 maggio 2001.
1 Riunione del 29 Marzo 2007 IL PROGETTO SCoPE Prof. Guido Russo I lavori Le apparecchiature Il portale.
Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
File System NTFS 5.0 Disco: unità fisica di memorizzazione
Riunione CRESCO Infrastruttura HPC Cresco Analisi Preliminare.
Sistemi Operativi Distribuiti: indice
Linguaggi di programmazione
Introduzione Cosa è un Sistema Operativo ?
La facility nazionale Egrid: stato dell'arte Egrid-Team Trieste, 9 ottobre 2004.
4 Cosa è una rete? ã Punto di vista logico: sistema di dati ed utenti distribuito ã Punto di vista fisico: insieme di hardware, collegamenti, e protocolli.
Michele Michelotto INFN-Padova
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
Case study Maiora srl.
Benvenuti a Un incontro informativo di grande valore ed alto contenuto sulla Virtualizzazione e sistemi ad alta disponibiltà per le PMI.
SISTEMA OPERATIVO..
Terminal Services. Sommario Introduzione al Terminal Services Introduzione al Terminal Services Funzioni di un Terminal Server in una rete Windows 2000.
Configurazione in ambiente Windows Ing. A. Stile – Ing. L. Marchesano – 1/23.
Architettura di storage ad alta affidabilita e bilanciamento di carico per volumi centrali e di esperimento A.Brunengo, M.Corosu INFN Sezione di Genova.
Fabrizio Grossi. 11) Adozione procedure di back-up centralizzato.
Configurazione di una rete Windows
Lezione 1 Approccio al sistema operativo : la distribuzione Knoppix Live Cd Knoppix 3.6 Interfacce a caratteri e grafica: console e windows manager File.
QMAN Queue Manager Documentazione Commerciale Presentazione prodotti.
SIARL ARCHITETTURA DEL SISTEMA E GESTIONE DELLA SICUREZZA Milano, 5 novembre 2003 Struttura Sistemi Informativi e Semplificazione.
CCR 14-15/03/2006 Status Report Gruppo Storage CCR.
Riunione gruppo storage – Roma 05/05/2005 Test di affidabilita’ e performance a Genova Alessandro Brunengo.
10 azioni per lo scheduling su Grid Uno scheduler per Grid deve selezionare le risorse in un ambiente dove non ha il controllo diretto delle risorse locali,
Test Storage Resource Manager per SC4 Giacinto Donvito Vincenzo Spinoso.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
Temp Sentry: un sistema di rilevazione dati ambientali Guerra Alberto INFN-Sezione di Roma, P.le Aldo Moro, 2, I Roma, Italy Introduzione Il sistema.
Attivita' Grid in BaBar Workshop sulle Problematiche di Calcolo e Reti nell'INFN Maggio 2004.
TW Asp - Active Server Pages Nicola Gessa. TW Nicola Gessa Introduzione n Con l’acronimo ASP (Active Server Pages) si identifica NON un linguaggio di.
Reti di calcolatori Modulo 2 -Protocolli di rete TCP/IP Unità didattica 2 – Il protocollo TCP/IP Ernesto Damiani Università degli Studi di Milano - SSRI.
1 Migrazione dei processi: Mosix. 2 Cosa è Mosix/OpenMOSIX ? OpenMOSIX è un è una patch del kernel di Linux che aggiunge funzionalit à avanzate di clustering.
Sistemi operativi di rete Ing. A. Stile – Ing. L. Marchesano – 1/18.
Alex Marchetti Infrastruttura di supporto per l’accesso a un disco remoto Presentazione del progetto di: Reti di calcolatori L-S.
Workshop CCR Otranto - giugno 2006 Gruppo storage CCR Status Report Alessandro Brunengo.
Alessandro Tirel - Sezione di Trieste Storage Area Network Riunione gruppo Storage Padova, 5 ottobre 2005.
Grid nelle sezioni: Milano Luca Vaccarossa INFN – Sezione di Milano Workshop sulle Problematiche di Calcolo e Reti nell'INFN.
La Farm di Alice a Torino Workshop sulle problematiche di calcolo e reti Isola d’Elba 6-9 maggio 2002 Mario Sitta (Università del Piemonte Orientale e.
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
Bologna Batch System (BBS). BBS e’ un sistema batch basato su Condor. L’utente sottomette i job da una macchina e il sistema li distribuisce sulle altre.
BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015.
Dischi magnetici e scheduling del braccio del disco Pag. 216 – 224.
CNAF 6 Novembre Layout del testbed  wn a OS SL5.0 8 GB RAM kernel xen_3.1.0 SMP  wn a OS SL5.0 8 GB RAM kernel.
Roberto Covati INFN di Parma. Workshop CCR/INFN GRID Palau maggio Sommario VmWare Server (in produzione dal 2004 al 2008) VmWare Infrastructure.
Roberto Covati – Roberto Alfieri INFN di Parma. Incontri di lavoro CCR dicembre Sommario VmWare Server (in produzione dal 2004) VmWare ESX.
La Famiglia di Prodotti Network Analyzer. L’analizzatore J6801A DNA è un probe di cattura dati ultra leggero che comprende un sistema di acquisizione.
Riunione PRIN STOA - Bologna - 18 Giugno 2014 Testbed del T2 distribuito Napoli-Roma Dr. Silvio Pardi INFN-Napoli Riunione PRIN STOA – Bologna 18 Giugno.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
Brunengo - Padova - 18/12/2007 Infrastrutture di storage per Tier2 Gruppo storage CCR.
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
Riccardo Veraldi, CCR Dic 2008 Xen Problematiche sulla virtualizzazione.
High Avaliability with RHCS HA INFN CNAF 22 Marzo 2006 Bologna Ricci Pier Paolo, on behalf of INFN TIER1 Staff
Overview del middleware gLite Guido Cuscela INFN-Bari II Corso di formazione INFN su aspetti pratici dell'integrazione.
 Cenni su switch e vlan  Layout fisico per la rete della cloud  Layout virtuale dei computing nodes  Layout virtuale del nerwork node  Riassunto.
Attività e servizi di calcolo a Roma Tor Vergata R. Kwatera, R. Lulli, R. Sparvoli Roma Tor Vergata.
Progetto iSCSI Report alla CCR 12-13/12/2006 Alessandro Tirel – Sezione di Trieste.
Test di storage a 10 Gbps proposta. Storage server a 10Gbps Si vuole vedere quali prestazioni si possano ottenere da server connessi a 10 GE –capacita’
G. Maggi 24/1/2006 Il Progetto del TIER2 di Bari Giorgio Maggi.
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
CCR - Roma 15 marzo 2007 Gruppo storage CCR Report sulle attivita’ Alessandro Brunengo.
Alessandro Tirel - Sezione di Trieste Storage servers & TCP Tuning Proposta di studio delle problematiche connesse alla fornitura di servizi di storage.
La gestione della rete e dei server. Lista delle attività  Organizzare la rete  Configurare i servizi di base  Creare gli utenti e i gruppi  Condividere.
Transcript della presentazione:

1 Le macchine di questo pool fanno parte di una lan privata (la 125 illustrata a pag.2), di cui t2cmcondor è il gateway. Sono presenti 3 macchine su rete pubblica e certificate per il loro utilizzo nel contesto grid. Lo switch e tutte le macchine coinvolte sono stati portati a 9000MTU per supportare i jumbo frames. Sullo storage sono state create 3 unità da 9.8T l'una più 1 da 8.8T e 4 unità da 200G destinata all'area software di Atlas. Un disco (1T) è stato usato come global hot-spare. Le unità per i dati di produzione sono state mappate da gpfs su tutte le macchine di testa come network shared disk (da c2 a c5) e accorpate in un filesystem (/dev/storage_1). Per l'area software abbiamo 4 nsd (c1,c6,c7,c8), su cui risiede il filesystem /dev/software. A pag.3 uno schema riassuntivo. L'attuale configurazione consente di avere un filesystem per un totale di 36T (in pag.4), su cui è stato attivato il sistema quote tunato sulle VO grid. Tre delle 4 macchine manager (le ts) fanno parte del quorum di gpfs, i worker nodes WN sono invece client. In questo contesto, la macchina t2cmcondor viene usata per il frontend di Storm e come client di gpfs, per via del fatto che storm richiede una directory condivisa per l'autenticazione delle request. La stessa macchina svolge anche le funzioni di central manager del batch system Condor. Al backend Storm e al gridftp è stata dedicata la macchina se-b1-1 Attualmente sono presenti sul filesystem delle directory specifiche per la gestione dei fileset di storm: /gpfs/storage_1/atlas (per la VO atlas, con tutti i suoi spacetokens) /gpfs/storage_1/dteam (per la VO dteam di sviluppo) /gpfs/storage_1/egee (per la VO egee, testing) /gpfs/storage_1/proxies (per l'autenticazione di storm) A pag.2 è visibile la configurazione per le storage area E' stata creata anche una directory per l'area software usata dai worker nodes /gpfs/storage_1/exp_software (linkata come /opt/exp_software)‏ Pool GPFS-Storm Milano

2 ts-b1-1ts-b1-2ts-b1-3ts-b1-4 Wn-b1-1Wn-b1-35 T2cmcondor (gateway)‏ ce-b1-1 se-b / /24 Rete

3 gpfs sde sdd ts-b1-1ts-b1-2ts-b1-3ts-b1-4 c Wn-b1-1 (condor exe)‏ gpfs Wn-b1-35 (condor exe)‏ Xyratex Ctrl 1Ctrl 2 gpfs T2cmcondor (central manager)‏ UI Storm FE Ce-b1-1 (condor scheduler)‏ c2 c3 c4 c5 /dev/storage_1 sdc sdb gpfs se-b1-1 Storm BE gridftp gpfs Fiber channel /dev/software c6 c7 c8 sdh sdg sdf sda

4 Sullo storage sono stati eseguiti alcuni test volti a determinare le performance di gpfs e della rete. Esiste una debole asimmetria sulla distribuzione dei nsd del filesystem storage_1, dovuta alla presenza del disco spare. Una lun è stata ridotta e gpfs si adegua sempre al disco più lento e comunque in modo tale da riempire sui singoli nsd la medesima percentuale di spazio. Le operazioni di scrittura quindi saranno complessivamente più lente. Il massimo ottenibile è ~800MB/s La velocità di rete massima, monitorata con dstat e netperf per le 4 macchine è di ~412MB/s Il limite è dettato dalle interfacce di rete delle macchine, che non raggiungono i teorici 125MB/s Dai test sono risultati i seguenti valori per /dev/storage_1, usando dd e dstat: - lettura di files in contemporanea dalle 4 macchine di testa ~780MB/s - lettura da 16 client ~380MB/s - scrittura da quattro server di testa ~330MB/s - scrittura da 16 client ~320MB/s Caratterizzazione Sul filesystem /dev/software, usando dd e dstat: - lettura di files in contemporanea dalle 4 macchine di testa ~450MB/s - lettura da 16 client ~400MB/s - scrittura da quattro server di testa ~250MB/s - scrittura da 16 client ~180MB/s le performance su questo fs sono ridotte a causa del block-size assegnato a /dev/software di 64K, notevolmente più piccolo della stripe sul raid6 (2.3MB). Il controller perde tempo nel caching dei dati. D'altro canto software ospita più di 3M di files anche di piccole dimensioni, un blocksize maggiore comporta perdita di spazio. - compilazione software Arana da worker-node: lettura ~617KB/s scrittura ~70KB/s Per migliorare le prestazioni durante l'esercizio delle funzioni grid, può essere una buona strategia spostare i workernodes su un cluster distinto, in modo da poter ridimensionare il parametro pagepool. Si tratta della memoria dedicata alla cache di gpfs, ma i WN hanno bisogno di tutta la memoria possibile a disposizione per operare in modo ottimale.

5 Test eseguiti 4x local on storage_1 16x network on software 16x network on storage_1 4x local on software

6 mmdf /dev/storage_1: mmdf /dev/software:

7 Per Storm sono stati eseguiti i seguenti test col client standard: Test di raggiungibilità: /opt/srmv2storm/bin/clientSRM ping -e httpg://t2cmcondor:8444 Copia del file (PreparetoPut + copy + PutDone): /opt/srmv2storm/bin/clientSRM ptp -e httpg://t2cmcondor:8444 -s srm://t2cmcondor.mi.infn.it:8444/srm/managerv2?SFN=/dteam/validation/testFile.txt -p lcg-cp file:///home/pistolese/storm_test.txt gsiftp://se-b1- 1.mi.infn.it:2811/gpfs/storage_1/dteam/validation/testFile.txt oppure: globus-url-copy file:/home/pistolese/testFile.txt gsiftp://se-b1- 1.mi.infn.it:2811/gpfs/storage_1/dteam/validation/testFile.txt Chiusura transazione: /opt/srmv2storm/bin/clientSRM pd -e httpg://t2cmcondor:8444 -t "773605e2-67cf-4594-b5b8-cc7d54dcaa17" -s srm://t2cmcondor.mi.infn.it:8444/srm/managerv2?SFN=/dteam/validation/testFile.txt Rimozione file: /opt/srmv2storm/bin/clientSRM rm -e httpg://t2cmcondor:8444 -s srm://t2cmcondor.mi.infn.it: 8444/managerv2?SFN=/dteam/validation/testFile.txt Retrieve del file: prenotazione remoto - /opt/srmv2storm/bin/clientSRM ptg -e httpg://t2cmcondor:8444 -s srm://t2cmcondor.mi.infn.it:8444/srm/managerv2?SFN=/dteam/validation/testFile.txt -p copia file -lcg-cp gsiftp://se-b1-1.mi.infn.it:2811/gpfs/storage_1/dteam/validation/testFile.txt file://home/pistolese/test prenotazione locale -/opt/srmv2storm/bin/clientSRM ptg -e httpg://t2cmcondor:8444 -s srm://t2cmcondor.mi.infn.it:8444/srm/managerv2?SFN=/dteam/validation/testFile.txt -p -T -P file copia file - lcg-cp file:///gpfs/storage_1/dteam/validation/testFile.txt file:///root/test Inoltre su una delle UI è stata installata la suite Cern S2, per eseguire dei test più estesi. Sono stati scelti per il pool quelli indicati nella tabella che segue. Oltre alle funzioni base sono stati compiuti 2 test di carico, PutMany (scrittura concorrente) e GetParallel (accesso concorrente in lettura)‏ Sessione di test funzionale

8