Alessandro Tirel - Sezione di Trieste Storage servers & TCP Tuning Proposta di studio delle problematiche connesse alla fornitura di servizi di storage.

Slides:



Advertisements
Presentazioni simili
I bridge Standard IEEE 802.1D.
Advertisements

Le reti informatiche Una rete può essere definita come un insieme di nodi, dislocati in posizioni differenti, collegati tra loro medianti mezzi trasmissivi,che.
Cluster openMosix Linux Day ’04 Caserta Ing. Diego Bovenzi.
I modelli di riferimento OSI e TCP/IP
Giuseppe Fabio Fortugno.
CSN1 2 Aprile 2003 P. Morettini 1 Relazione sulla CCR La riunione di Commissione Calcolo e Reti del 6 Marzo è stata in parte dedicata alla discussione.
Introduzione allinformatica. Cosè linformatica ? Scienza della rappresentazione e dellelaborazione dellinformazione ovvero Studio degli algoritmi che.
Aspetti critici rete LAN e WAN per i Tier-2
Remote file access sulla grid e metodi di interconnesione di rete M. Donatelli, A.Ghiselli e G.Mirabelli Infn-Grid network 24 maggio 2001.
Giornata di incontro con i Borsisti GARR, Roma, Andrea Petricca Problematiche di rete nella sperimentazione di file-system distribuiti su WAN.
1 Riunione del 29 Marzo 2007 IL PROGETTO SCoPE Prof. Guido Russo I lavori Le apparecchiature Il portale.
Riunione CRESCO Infrastruttura HPC Cresco Analisi Preliminare.
Michele Michelotto INFN-Padova
TASK 2: Ftp Partecipanti A. Chierici INFN-CNAF T. Ferrari A. Forte INFN-TO L. Gaido S. Lusso P. Mastroserio INFN-NA G. Tortone Coordinatori A. Forte, G.
Meeting MDT Italia - Pavia 30 settembre Integrazione del vecchio prototipo di EF nella DAQ Integrazione del vecchio prototipo di EF nella DAQ integrazione.
Case study Maiora srl.
Situazione attuale delle reti e problematiche
GIADA O N L I N E.
Benvenuti a Un incontro informativo di grande valore ed alto contenuto sulla Virtualizzazione e sistemi ad alta disponibiltà per le PMI.
La rete di istituto Maninder Bansal 5Bz Vital Ivo 5Bz Anno scolastico 2005/06.
U N INFRASTRUTTURA DI SUPPORTO PER SERVIZI DI FILE HOSTING Matteo Corvaro Matricola Corso di Reti di Calcolatori LS – Prof. A. Corradi A.A.
Architettura di storage ad alta affidabilita e bilanciamento di carico per volumi centrali e di esperimento A.Brunengo, M.Corosu INFN Sezione di Genova.
Modulo 2 - U.D. 3 - L.4 Ernesto Damiani - Sistemi di eleborazione dell'informazione.
Reti di calcolatori LS Manni Tiziano  IT e nuovi scenari applicativi …  … portabilità dei dati …  … condivisione dati …  … disponibilità.
L’architettura a strati
CCR 14-15/03/2006 Status Report Gruppo Storage CCR.
RHCS XEN Cluster Dael Maselli – Workshop CCR – Maggio 2009.
Tecnologie Informatiche ed Elettroniche per le Produzioni Animali (corso TIE) CORSO LAUREA MAGISTRALE IN SCIENZE E TECNOLOGIE DELLE PRODUZIONI ANIMALI.
Dal click alla pagina web... Centro di Calcolo Corso Internet 22 Novembre 1996 Stefano Bistarelli Università di Chieti-Pescara “G. D’Annunzio” Dipartimento.
L. Servoli - CCR Roma 15 marzo Il progetto High Availability D. Salomoni - CNAF L. Servoli - INFN Perugia.
MCSA Mobile Code System Architecture Infrastruttura a supporto della code mobility Pierfrancesco Felicioni Reti di Calcolatori L.S. 2005/2006.
INSTALLAZIONE DI UNA RETE LOCALE
1 Migrazione dei processi: Mosix. 2 Cosa è Mosix/OpenMOSIX ? OpenMOSIX è un è una patch del kernel di Linux che aggiunge funzionalit à avanzate di clustering.
Proxy-Based Infrastructure for LBS Tailoring Reti di Calcolatori LS – Prof. A. Corradi Presentazione di: Roberto Amici Gruppo: Roberto Amici Alessandro.
Reti di calcolatori LS1 Service Middleware Reti di calcolatori LS progetto di Andrea Belardi Infrastruttura dedicata alla gestione di servizi disponibili.
Servizi continui su rete IEEE – Music Everywhere Presentazione di Alberto Mercati Reti di Calcolatori LS.
Muse2: MUSic Everywhere with WI-FI Progetto realizzato da: Bambini Stefano Bergamini Andrea Pierangeli Diego Bologna C.d.L.S. Ingegneria Informatica.
SnippetSearch Database di snippet bilanciato e replicato di Gianluigi Salvi Reti di calcolatori LS – Prof. A.Corradi.
1 MUSE2 Reti di Calcolatori L-S Progetto di un servizio di audio streaming in reti wireless Progetto di un servizio di audio streaming in reti wireless.
Workshop CCR Otranto - giugno 2006 Gruppo storage CCR Status Report Alessandro Brunengo.
Alessandro Tirel - Sezione di Trieste Storage Area Network Riunione gruppo Storage Padova, 5 ottobre 2005.
La Farm di Atlas a Roma 1 Outline Architettura della farm Architettura della farm Installazione Installazione Monitoring Monitoring Conclusioni Conclusioni.
La Farm di Alice a Torino Workshop sulle problematiche di calcolo e reti Isola d’Elba 6-9 maggio 2002 Mario Sitta (Università del Piemonte Orientale e.
Dael Maselli – Workshop CCR – Maggio  SAN  Red Hat Cluster Suite ◦ RedHat Enterprise, Scientific Linux o CentOS  XEN.
Software di Packet-Filtering e Port-Filtering su reti TCP/IP Come filtrare il traffico di rete in transito sulle interfacce presenti, frapponendosi tra.
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
Le basi di dati.
Applicazione Presentazione Sessione Trasporto Rete Data link Fisico OSI Processo / Applicazione Trasporto Rete- Internet Interfaccia di.
Dischi magnetici e scheduling del braccio del disco Pag. 216 – 224.
CNAF 6 Novembre Layout del testbed  wn a OS SL5.0 8 GB RAM kernel xen_3.1.0 SMP  wn a OS SL5.0 8 GB RAM kernel.
Implementazioni di un analizzatore di protocollo Esistono quattro fondamentali tradeoff per la realizzazione di un analizzatore di protocollo:  Analisi.
Roberto Covati – Roberto Alfieri INFN di Parma. Incontri di lavoro CCR dicembre Sommario VmWare Server (in produzione dal 2004) VmWare ESX.
La Famiglia di Prodotti Network Analyzer. L’analizzatore J6801A DNA è un probe di cattura dati ultra leggero che comprende un sistema di acquisizione.
Centralizzazione del servizio di posta elettronica per l’INFN ─ INTEGRAZIONE ─ Ombretta Pinazza Per il Gruppo Mailing CCR, Marzo 2008.
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
6/1/2016ATLAS Milano1 Agenda :. 6/1/2016ATLAS Milano2 Agenda : A)AGGIORNAMENTO SITUAZIONE RELIABILITY SITO -potrebbe essere utile discutere le nostre.
II PROVA Svolgimento tramite protocollo ISO/OSI. I LIVELLO : LIVELLO FISICO Scelta del mezzo fisico; tenere conto degli standard IEEE Procedura di codifica.
Riccardo Veraldi, CCR Dic 2008 Xen Problematiche sulla virtualizzazione.
VLAN Virtual LAN.
Riunione gruppo reti E. P.. IPMI Porta da mascherare sul router Scan IPMI e piano di indirizzamento (privato ?) Da fare nel piano generale quando si ha.
Progetto iSCSI Report alla CCR 12-13/12/2006 Alessandro Tirel – Sezione di Trieste.
Uso della rete geografica e richieste di upgrade CCR 31/3/2015 (Roma) S.Zani.
Aggiornamento Netgroup R.Gomezel Commissione Calcolo e Reti Presidenza 5/10/2010-7/10/2010.
Test di storage a 10 Gbps proposta. Storage server a 10Gbps Si vuole vedere quali prestazioni si possano ottenere da server connessi a 10 GE –capacita’
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
Silvia Arezzini 2 luglio 2014 Consiglio di Sezione per Preventivi.
CCR - Roma 15 marzo 2007 Gruppo storage CCR Report sulle attivita’ Alessandro Brunengo.
1 Le macchine di questo pool fanno parte di una lan privata (la 125 illustrata a pag.2), di cui t2cmcondor è il gateway. Sono presenti 3 macchine su rete.
Transcript della presentazione:

Alessandro Tirel - Sezione di Trieste Storage servers & TCP Tuning Proposta di studio delle problematiche connesse alla fornitura di servizi di storage basati sul protocollo Tcp/Ip

Frascati - Workshop CCR WGs2 10 dicembre 2007 Premessa Con la diffusione oramai totale di schede gigabit ethernet è venuta a mancare la differenza di prestazioni tra server e client. L’utilizzo sui server di schede a 10 gigabit comportano costi importanti in termini di aggiornamento di infrastruttura. Tuttavia in ambienti come le attuali farm di calcolo diviene indispensabile aumentare la capacità dei server di trasferire le potenzialità dei sistemi di storage verso i client.

Frascati - Workshop CCR WGs3 10 dicembre 2007 Bonding Per aumentare le capacità di trasferimento dati dei server esiste una soluzione a costo zero rappresentata dalla possibilità di accorpare due o più interfacce gigabit per creare un’ unica interfaccia virtuale. In ambiente linux questa operazione prende il nome di bonding. Questo modulo del kernel permette di utilizzare vari algoritmi per la gestione del traffico di rete

Frascati - Workshop CCR WGs4 10 dicembre 2007 LACP o 802.3ad Uno degli algoritmi utilizzabili è il Link Aggregation Control Protocol (802.3ad). Questo algoritmo viene consigliato nel caso di impiego con NSD servers (GPFS) o iSCSI target. La sua prerogativa è di minimizzare il numero di pacchetti out-of-order poiché nella trasmissione del traffico applica la seguente formula: ((MAC source) XOR (MAC destination)) MOD n. slave Questo fa si che il ‘colloquio’ tra il server ed il client avvenga utilizzando sempre la stessa interfaccia del bonding. Per ottenere il massimo risultato sono stati modificati i MAC address in modo da renderli consecutivi. Tuttavia dall’esperienza fatta sembra che lo switch ed il modulo di bonding ottengano risultati diversi nell’applicare la formula??

Frascati - Workshop CCR WGs5 10 dicembre 2007 Descrizione del testbed Il testbed costruito per effettuare i test di iSCSI/GPFS è formato da 16 client (gcltxx), due NSD server (gsrvxx) ed un target iSCSI (iscsi-tg). Sono macchine principalmente con Xeon 5xxx, solo quattro client (gclt13-16) utilizzano processori AMD Opteron. Il kernel utilizzato è il ELsmp sui nodi del cluster mentre l’iSCSI target utilizza una distribuzione chiamata Openfiler con kernel smp. Tutte le macchine hanno almeno 4 GB di memoria. Le schede ethernet sono Intel ad eccezione dei client con Opteron e della scheda aggiuntiva sul server gsrv01, che sono Broadcom. Le aggregazioni sono state create sui due nodi dotati di risorse di storage (gsrv01 e iscsi-tg). Sul primo sono state accorpate due distinte schede costituite dalle due porte Intel sulla scheda madre più le due presenti sulla scheda Broadcom. Sul secondo invece le quattro porte risiedono su una scheda Intel 1000 PT Quad. Lo switch Summit X450e-48p (XOS ) a cui è connesso l’intero sistema è stato configurato opportunamente creando le VLAN, configurando le porte con il supporto jumbo frame e definendo gli aggregati.

Frascati - Workshop CCR WGs6 10 dicembre 2007 Testbed

Frascati - Workshop CCR WGs7 10 dicembre 2007 Test effettuati Per poter valutare le prestazioni in termini di I/O di GPFS ho pensato che fosse opportuno conoscere prima quelle della rete, in particolare in caso di trasferimento concorrenti per questo ho utilizzato iperf per effettuare i test. Nello specifico i comandi utilizzati sono stati i seguenti: Test unidirezionale iperf –c server –t 60 –l 256K –r Test bidirezionale iperf –c server –t 60 –l 256K –d Nel primo caso con unidirezionale si intende prima in un verso e poi nell’altro, mentre nel secondo i due flussi sono contemporanei. Il flag –l indica la grandezza del buffer da trasferire, poiché stiamo parlando di I/O, i blocchi da trasferire sono solitamente ‘importanti’ ed inoltre permette di osservare anche il comportamento nel caso di utilizzo di diverse MTU.

Frascati - Workshop CCR WGs8 10 dicembre 2007 Risultati ottenuti

Frascati - Workshop CCR WGs9 10 dicembre 2007

Frascati - Workshop CCR WGs10 10 dicembre 2007 Modifica dei parametri del kernel I varie pubblicazioni relative a GPFS ed iSCSI viene consigliato di modificare i parametri del kernel relativi ai buffer di rete ed in particolare del tcp. Come prova sono stati applicati i seguenti parametri: gsrv01: net.core.rmem_default = net.core.rmem_max = net.core.wmem_default = net.core.wmem_max = net.ipv4.tcp_rmem = net.ipv4.tcp_wmem = iscsi-tg: net.core.rmem_default = net.core.rmem_max = net.core.wmem_default = net.core.wmem_max = net.ipv4.tcp_rmem = net.ipv4.tcp_wmem = net.ipv4.tcp_mem = Nel caso del target iSCSI è lo stesso script del daemon che provvede alla modifica dei parametri.

Frascati - Workshop CCR WGs11 10 dicembre 2007 Risultati ottenuti 2

Frascati - Workshop CCR WGs12 10 dicembre 2007

Frascati - Workshop CCR WGs13 10 dicembre 2007 Applicazione del modello a GPFS Uno dei punti definiti nella scheda del progetto iSCSI era quello di testare il protocollo quando si utilizza GPFS come filesystem. In particolare si volevano chiarire i seguenti punti: funzionalità scalabilità performance

Frascati - Workshop CCR WGs14 10 dicembre 2007 Fibre Channel* vs iSCSI In questo test si sono messi a confronto le due tipologie del cluster GPFS ovvero quella con lo storage direttamente connesso ai client (iSCSI) e quella che utilizza i server NSD (Fibre Channel). Per effettuare i test è stato utilizzato gpfsperf-mpi, fornita come software accessorio al pacchetto GPFS.

Frascati - Workshop CCR WGs15 10 dicembre 2007

Frascati - Workshop CCR WGs16 10 dicembre 2007

Frascati - Workshop CCR WGs17 10 dicembre 2007

Frascati - Workshop CCR WGs18 10 dicembre 2007

Frascati - Workshop CCR WGs19 10 dicembre 2007 Conclusioni In gioco ci sono molti fattori che determinano le performance del sistema e cioè: caratteristiche della scheda ethernet (funzioni di tcp off-loading, buffer interni) algoritmo di bonding (efficienza, conformità allo standard*) TCP (window size, congestione, pacchetti ACK, buffer) E` chiaro che non si riuscirà ad ottenere trasferimenti perfettamente bilanciati e vicino alle velocità teoriche ma cercare di ottenere risultati migliori, si spera, sia sempre possibile. Per quanto riguarda implementazione di iSCSI in ambiente GPFS appare evidente che la soluzione con NSD server tradizionali garantisce prestazioni migliori ed inoltre e` supportata dal filesystem.