Riunione gruppo storage – Roma 05/05/2005 Test di affidabilita’ e performance a Genova Alessandro Brunengo.

Slides:



Advertisements
Presentazioni simili
E835 & Hera-B Concezio Pisa, 21/12/2004. E835 (aka Jet-FNAL) timeline dell'esperimento –Presa dati conclusa nel Alcune analisi tuttora in corso.
Advertisements

A.Fanfani - C.Grandi CMS Bologna 10 febbraio 2009 La nuova farm di CMS Bologna al CNAF Alessandra Fanfani Claudio Grandi.
Linux la gestione dei dischi. Agenda I nomi delle unità fisiche in ambiente Linux Partizioni e associazione tra file system e unità Amministrare le unità
Gli hard disk.
File system Casi di studio (3).
Giuseppe Fabio Fortugno.
Aspetti critici rete LAN e WAN per i Tier-2
Workshop CCR Otranto - maggio 2006 General Parallel File System: caratteristiche, prestazioni ed esempi di utilizzo in produzione Alessandro Brunengo -
WP 2.4 al Cnaf Cnaf 13/11/00 P.M Hardware: - 12 PC Rack mountable IBM XSeries 330 (1U) 2 processori Pentium III 800 Mhz, FSB 133 Mhz 512 MB Mem Ecc, Controller.
Workshop sulle Problematiche di Calcolo e Reti nellINFN Maggio 2004 SantElmo Beach Hotel, Castiadas (CA) Esperienze di storage Test di funzionalità
Riunione CRESCO Infrastruttura HPC Cresco Analisi Preliminare.
Polo SBN della Sapienza e della Regione Lazio tra passato, presente e futuro: uno sguardo alla tecnologia Ugo Contino SBN 2004 Vecchio.
INTRODUZIONE Il termine Informatica deriva dalla fusione dei termini INFORmazione autoMATICA si intende indicare la scienza che ha il compito di raccogliere,
Reti di Calcolatori L-S Un Sistema Decentrato di Allocazione del Carico per Applicazioni di Calcolo Distribuito Mauro Bampo.
Vincenzo Vagnoni per il gruppo di Bologna
LNL M.Biasotto, Bologna, 13 dicembre La farm di Legnaro Massimo Biasotto – INFN LNL.
LNL M.Biasotto, Bologna, 13 dicembre Installazione automatica Massimo Biasotto – INFN LNL.
M. Biasotto – INFN Legnaro
LNL M.Biasotto, Bologna, 18 ottobre La farm CMS di Padova - Legnaro Proposta di acquisto hardware 2° semestre 2001.
LNL M.Biasotto, Bologna, 19 marzo La farm CMS di Padova - Legnaro Proposta di acquisto hardware 1° semestre 2001.
1 M. Biasotto – Legnaro, 22 Dicembre 2005 Prototipo Tier 2 di Legnaro-Padova INFN Legnaro.
Case study Maiora srl.
Benvenuti a Un incontro informativo di grande valore ed alto contenuto sulla Virtualizzazione e sistemi ad alta disponibiltà per le PMI.
Il Calcolatore Elettronico
Atempo Time Navigator HyperStream Server La prima installazione italiana Bologna, 27 aprile 2010.
Stefano Zani e Pierpaolo Ricci (INFN CNAF)
Architettura di storage ad alta affidabilita e bilanciamento di carico per volumi centrali e di esperimento A.Brunengo, M.Corosu INFN Sezione di Genova.
Riunione CCR 20/10/2005 Gruppo Storage Relazione attivita primo semestre 2005 e pianificazione 2006 Alessandro Brunengo.
Dischi in RAID  Redundant Array of Independent Disk Configurazione che permette di combinare più dischi secondo obiettivi di performance e ridondanza.
Works in progress.  Semplificazione e maggiore efficienza della gestione  Risparmio (nel medio periodo)  Riallocazione delle risorse (hardware e timesheet)
SIARL ARCHITETTURA DEL SISTEMA E GESTIONE DELLA SICUREZZA Milano, 5 novembre 2003 Struttura Sistemi Informativi e Semplificazione.
CCR 14-15/03/2006 Status Report Gruppo Storage CCR.
Servizio Sistema Informativo - Area Gestione Sistemi e Sicurezza – LNF – Dael Maselli Area Gestione Sistemi e Sicurezza LNF Plenaria Servizio Sistema Informativo.
Servizio Sistema Informativo - Area Gestione Sistemi e Sicurezza – LNF – Dael Maselli Area Gestione Sistemi e Sicurezza LNF Plenaria Servizio Sistema Informativo.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
Servizio Sistema Informativo - Area Gestione Sistemi e Sicurezza – LNF – Dael Maselli Area Gestione Sistemi e Sicurezza LNF Plenaria Servizio Sistema Informativo.
Servizio Sistema Informativo - Area Gestione Sistemi e Sicurezza – LNF – Dael Maselli Area Gestione Sistemi e Sicurezza LNF Plenaria Servizio Sistema Informativo.
1 Alcuni esempi di dispositivi (2) Disco rigido, RAID, video.
Workshop CCR Otranto - giugno 2006 Gruppo storage CCR Status Report Alessandro Brunengo.
Alessandro Tirel - Sezione di Trieste Storage Area Network Riunione gruppo Storage Padova, 5 ottobre 2005.
La Farm di Alice a Torino Workshop sulle problematiche di calcolo e reti Isola d’Elba 6-9 maggio 2002 Mario Sitta (Università del Piemonte Orientale e.
M.Biasotto, Bologna, 28 giugno 2004 M.Biasotto, Bologna, 28 giugno LNL CMS T2 Legnaro Stato attuale e richieste 2004/2005.
Dael Maselli – Workshop CCR – Maggio  SAN  Red Hat Cluster Suite ◦ RedHat Enterprise, Scientific Linux o CentOS  XEN.
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
Nuovo Ambiente CS7402. Attività Principali Gli obiettivi principali della migrazione sono stati quelli di ottenere: –Un’infrastruttura di produzione (Mainframe.
Servizio Calcolo Alessandro Brunengo. Indice Attivita’ del servizio calcolo Infrastruttura (sala CED, rete) Servizi centrali Supporto al calcolo scientifico.
“Lezioni imparate dall’ultimo spegnimento del TIER1” Michele Onofri, Stefano Zani, Andrea Chierici CCR 2014 LNS.
Dischi magnetici e scheduling del braccio del disco Pag. 216 – 224.
CNAF 6 Novembre Layout del testbed  wn a OS SL5.0 8 GB RAM kernel xen_3.1.0 SMP  wn a OS SL5.0 8 GB RAM kernel.
Roberto Covati INFN di Parma. Workshop CCR/INFN GRID Palau maggio Sommario VmWare Server (in produzione dal 2004 al 2008) VmWare Infrastructure.
Roberto Covati – Roberto Alfieri INFN di Parma. Incontri di lavoro CCR dicembre Sommario VmWare Server (in produzione dal 2004) VmWare ESX.
Servizio posta Situazione al 27/09/2012 Marco De Rossi Marco Esposito Antonio Forte.
Brunengo - Padova - 18/12/2007 Infrastrutture di storage per Tier2 Gruppo storage CCR.
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
High Avaliability with RHCS HA INFN CNAF 22 Marzo 2006 Bologna Ricci Pier Paolo, on behalf of INFN TIER1 Staff
Dipartimento di Ingegneria elettrica, elettronica e informatica - LAUREA IN INGEGNERIA INFORMATICA, C. GRECO 23/11/2011 S YSTEM R ECOVERY E A FFIDABILITÀ.
Attività e servizi di calcolo a Roma Tor Vergata R. Kwatera, R. Lulli, R. Sparvoli Roma Tor Vergata.
Progetto iSCSI Report alla CCR 12-13/12/2006 Alessandro Tirel – Sezione di Trieste.
Server & Storage Urgenze e anticipazioni seconde priorità CCR Marzo 2009 AG MM LC.
Martedi 8 novembre 2005 Consorzio COMETA “Progetto PI2S2” UNIONE EUROPEA Accesso all’infrastruttura Grid del Consorzio COMETA Grid Open Day alla Facoltà.
Test di storage a 10 Gbps proposta. Storage server a 10Gbps Si vuole vedere quali prestazioni si possano ottenere da server connessi a 10 GE –capacita’
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
CCR - Roma 15 marzo 2007 Gruppo storage CCR Report sulle attivita’ Alessandro Brunengo.
Alessandro Tirel - Sezione di Trieste Storage servers & TCP Tuning Proposta di studio delle problematiche connesse alla fornitura di servizi di storage.
Il calcolo per l’esperimento GERDA Luciano Pandola INFN, Laboratori del Gran Sasso Riunione della CSN2, LNF Frascati, 29 Novembre 2011.
1 Le macchine di questo pool fanno parte di una lan privata (la 125 illustrata a pag.2), di cui t2cmcondor è il gateway. Sono presenti 3 macchine su rete.
Aggiornamento AFS R.Gomezel Commissione Calcolo e Reti Presidenza 5/10/2010-7/10/2010.
20-21/03/2006Workshop sullo storage - CNAF Alessandro Brunengo.
Care and Feeding of the ALICE Grid
Transcript della presentazione:

Riunione gruppo storage – Roma 05/05/2005 Test di affidabilita’ e performance a Genova Alessandro Brunengo

Layout di test

Controller Infortrend Eonstore A16F-R1112 doppio controller FC to SATA alimentazione e ventilazione ridondata 256 MB di cache 16 HD SATA da 250 GB tre volumi in RAID 5 da 1 TB

Layout di test Due switch Emulex 355 (ex Vixel InSpeed 355)

Layout di test Disk server dual Xeon 2.8 e 3.0 GHz, 2 GB di RAM HBA Qlogic QLA3212 dual head SLC3

Layout di test Switch Extreme Networks (48 porte GE)

Layout di test 4 client dual Xeon 3.2 GHz, SLC3

Layout di test

Ridondanza sul controller Ciascun volume viene esportato come LUN da un solo controller, eventualmente su entrambi i canali Ciascun volume viene esportato come LUN da un solo controller, eventualmente su entrambi i canali In caso di guasto ad un controller, il controller operativo si presenta sul loop con entrambi gli indirizzi, simulando la presenza dell’altro controller, ed esporta i volumi originariamente associati al controller off-line In caso di guasto ad un controller, il controller operativo si presenta sul loop con entrambi gli indirizzi, simulando la presenza dell’altro controller, ed esporta i volumi originariamente associati al controller off-line

Ridondanza sulle HBA dual head Se un volume e’ visibile da entrambe le porte, l’HBA lo riconosce: Se un volume e’ visibile da entrambe le porte, l’HBA lo riconosce: se non e’ operativo il failover, uno dei due cammini verso il volume viene automaticamente disattivato e puo’ essere attivato manualmente in caso di failure dell’altro camminose non e’ operativo il failover, uno dei due cammini verso il volume viene automaticamente disattivato e puo’ essere attivato manualmente in caso di failure dell’altro cammino se il failover e’ operativo, uno dei due cammini viene disattivato ed attivato automaticamente in caso di failure del primo camminose il failover e’ operativo, uno dei due cammini viene disattivato ed attivato automaticamente in caso di failure del primo cammino con il failover operativo e’ possibile configurare il cammino preferenziale a livello di singola LUN (load balancing)con il failover operativo e’ possibile configurare il cammino preferenziale a livello di singola LUN (load balancing) Il driver inserito nel kernel della SLC3 contiene il codice per la gestione del failover, ma deve essere esplicitamente attivato Il driver inserito nel kernel della SLC3 contiene il codice per la gestione del failover, ma deve essere esplicitamente attivato La configurazione dell’HBA puo’ essere fatta editando un file di testo, ma non e’ documentato; esiste un pacchetto software (SANsurfer) scaricabile gratuitamente che fornisce una GUI per la configurazione La configurazione dell’HBA puo’ essere fatta editando un file di testo, ma non e’ documentato; esiste un pacchetto software (SANsurfer) scaricabile gratuitamente che fornisce una GUI per la configurazione

GPFS GPFS e’ stato configurato in modalita’ “tiebreaker disk”, con i due disk server definiti come “quorum node” GPFS e’ stato configurato in modalita’ “tiebreaker disk”, con i due disk server definiti come “quorum node” I test sono stati fatti in diverse configurazioni, utilizzando un file system costituito da I test sono stati fatti in diverse configurazioni, utilizzando un file system costituito da un solo NSDun solo NSD due NSD esportati da un solo disk serverdue NSD esportati da un solo disk server due NSD esportati ciascuno da un diverso disk server; in questo caso ciascun server ha funzioni di backup per l’esportazione dell’NSD dell’altro serverdue NSD esportati ciascuno da un diverso disk server; in questo caso ciascun server ha funzioni di backup per l’esportazione dell’NSD dell’altro server

Test di failover E’ stata testata l’operativita’ del sistema in presenza dei diversi eventi: E’ stata testata l’operativita’ del sistema in presenza dei diversi eventi: failure di un HDfailure di un HD failure del controller FC (primario e secondario)failure del controller FC (primario e secondario) failure di uno switchfailure di uno switch failure di un disk server (in configurazione con 2 NSD esportate e server di backup configurato)failure di un disk server (in configurazione con 2 NSD esportate e server di backup configurato) In tutti i casi il test e’ stato fatto in condizioni di I/O sul disco, che non si e’ interrotto In tutti i casi il test e’ stato fatto in condizioni di I/O sul disco, che non si e’ interrotto le operazioni di I/O si arrestano per tempi diversi a seconda del tipo di failure e quindi del meccanismo di recovery coinvolto, comunque inferiore al minuto, e poi riprendonole operazioni di I/O si arrestano per tempi diversi a seconda del tipo di failure e quindi del meccanismo di recovery coinvolto, comunque inferiore al minuto, e poi riprendono

Layout test di affidabilita’

Failure del controller

Failure dello switch

Failure del disk server

Prestazioni Sono stati fatti test di prestazioni utilizzando lmdd (un front-end per dd), per scrivere e rileggere file di 4 GB, in diverse configurazioni Sono stati fatti test di prestazioni utilizzando lmdd (un front-end per dd), per scrivere e rileggere file di 4 GB, in diverse configurazioni I/O operata direttamente dai server, per mettere in relazione ext3 con GPFS (1 server e due server)I/O operata direttamente dai server, per mettere in relazione ext3 con GPFS (1 server e due server) I/O concomitanti operate da 1, 2 e 4 client, anche con piu’ processi per client, per mettere in relazione NFS/ext3, NFS/GPFS e GPFS nativoI/O concomitanti operate da 1, 2 e 4 client, anche con piu’ processi per client, per mettere in relazione NFS/ext3, NFS/GPFS e GPFS nativo

Problemi Sono stati sostituiti i due banchi di RAM da 512 MB (partita difettosa, problema noto ad Infortrend) Sono stati sostituiti i due banchi di RAM da 512 MB (partita difettosa, problema noto ad Infortrend) Fibra difettosa (identificazione difficile per via delle ridondanze che si attivavano automaticamente) Fibra difettosa (identificazione difficile per via delle ridondanze che si attivavano automaticamente) Un HBA (su 3) ha rotto l’NVRAM: sostituita Un HBA (su 3) ha rotto l’NVRAM: sostituita Un disco si e’ rotto: sostituito Un disco si e’ rotto: sostituito In occasione di I/O intensivo e prolungato, i controller si congelavano dopo uno/due giorni: dopo alcune prove effettuate dalla manutenzione Infortrend ha sostituito i controller In occasione di I/O intensivo e prolungato, i controller si congelavano dopo uno/due giorni: dopo alcune prove effettuate dalla manutenzione Infortrend ha sostituito i controller Infortrend ha inviato uno dei due controller con Board Revision ID vecchia (1 anziche’ 2) e su questa non si possono utilizzare i banchi da 512 MB di RAM, quindi i test conclusivi presentati sono stati fatti con 256 MB di cache totali; invieranno un controller sostitutivoInfortrend ha inviato uno dei due controller con Board Revision ID vecchia (1 anziche’ 2) e su questa non si possono utilizzare i banchi da 512 MB di RAM, quindi i test conclusivi presentati sono stati fatti con 256 MB di cache totali; invieranno un controller sostitutivo

Problemi seri Il protocollo Fiber Channel Il protocollo Fiber Channel formalmente il protocollo prevede che un oggetto possa essere attaccato alla SAN e tutto va bene, maformalmente il protocollo prevede che un oggetto possa essere attaccato alla SAN e tutto va bene, ma i manuali dei vendor suggeriscono o esplicitamente supportano solo configurazioni dei parametri operazionali della HBA ben definite, non necessariamente compatibili i manuali dei vendor suggeriscono o esplicitamente supportano solo configurazioni dei parametri operazionali della HBA ben definite, non necessariamente compatibili il tentativo di connettere un controller Fiber Channel diverso (StorageTeK) sugli stessi switch e’ fallito (problema non ancora indagato a fondo) il tentativo di connettere un controller Fiber Channel diverso (StorageTeK) sugli stessi switch e’ fallito (problema non ancora indagato a fondo) Il driver degli HBA per linux (qla2300.o) Il driver degli HBA per linux (qla2300.o) in occasione di uno spegnimento brutale del disk server durante operazioni di I/O ha portato il sistema in condizioni di instabilita’ (kernel panic piu’ che occasionale) al caricamento del driver; il problema deve ancora essere indagatoin occasione di uno spegnimento brutale del disk server durante operazioni di I/O ha portato il sistema in condizioni di instabilita’ (kernel panic piu’ che occasionale) al caricamento del driver; il problema deve ancora essere indagato