Architettura di storage ad alta affidabilita e bilanciamento di carico per volumi centrali e di esperimento A.Brunengo, M.Corosu INFN Sezione di Genova.

Slides:



Advertisements
Presentazioni simili
© 2007 SEI-Società Editrice Internazionale, Apogeo Unità D1 Architetture di rete.
Advertisements

Unità D1 Architetture di rete.
© 2007 SEI-Società Editrice Internazionale, Apogeo Unità D1 Architetture di rete.
Il Consolidamento di Servizi Virtual Server 2005 PierGiorgio Malusardi Evangelist - IT Professional Microsoft.
File system Casi di studio (3).
Giuseppe Fabio Fortugno.
1 14. Verifica e Validazione Come assicurarsi che il software corrisponda alle necessità dellutente? Introdurremo i concetti di verifica e validazione.
IL PATRIMONIO DI DATI - LE BASI DI DATI. Il patrimonio dei dati Il valore del patrimonio di dati: –Capacità di rispondere alle esigenze informative di.
Gestione dei dischi RAID
Aspetti critici rete LAN e WAN per i Tier-2
Workshop CCR Otranto - maggio 2006 General Parallel File System: caratteristiche, prestazioni ed esempi di utilizzo in produzione Alessandro Brunengo -
Workshop sulle Problematiche di Calcolo e Reti nellINFN Maggio 2004 SantElmo Beach Hotel, Castiadas (CA) Esperienze di storage Test di funzionalità
Remote file access sulla grid e metodi di interconnesione di rete M. Donatelli, A.Ghiselli e G.Mirabelli Infn-Grid network 24 maggio 2001.
Struttura dei sistemi operativi (panoramica)
File System NTFS 5.0 Disco: unità fisica di memorizzazione
Sistemi Operativi Distribuiti: indice
Software di base Il sistema operativo è un insieme di programmi che opera sul livello macchina e offre funzionalità di alto livello Es.organizzazione dei.
Strutture dei sistemi di calcolo Funzionamento di un sistema di calcolo Struttura di I/O Struttura della memoria Gerarchia delle memorie Architetture di.
Reti di Calcolatori L-S Un Sistema Decentrato di Allocazione del Carico per Applicazioni di Calcolo Distribuito Mauro Bampo.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
Case study Maiora srl.
INTRODUZIONE l sistema operativo è il primo software che lutente utilizza quando accende il computer; 1)Viene caricato nella memoria RAM con loperazione.
Benvenuti a Un incontro informativo di grande valore ed alto contenuto sulla Virtualizzazione e sistemi ad alta disponibiltà per le PMI.
Laboratorio Informatico: RETI E INTERNET I
U N INFRASTRUTTURA DI SUPPORTO PER SERVIZI DI FILE HOSTING Matteo Corvaro Matricola Corso di Reti di Calcolatori LS – Prof. A. Corradi A.A.
Agenti Mobili Intelligenti e Sicurezza Informatica
Stefano Zani e Pierpaolo Ricci (INFN CNAF)
Riunione CCR 20/10/2005 Gruppo Storage Relazione attivita primo semestre 2005 e pianificazione 2006 Alessandro Brunengo.
© Sediin e Achab 2007 MDaemon in Cluster: il cluster in azione Milano, 5 luglio 2007 Emiliano Biocchetti - SEDIIN S.p.A. &
Reti di calcolatori LS Manni Tiziano  IT e nuovi scenari applicativi …  … portabilità dei dati …  … condivisione dati …  … disponibilità.
Dischi in RAID  Redundant Array of Independent Disk Configurazione che permette di combinare più dischi secondo obiettivi di performance e ridondanza.
1 Collaboration Server “La collaborazione verso il successo” Che cosa è un Collaboration Server? A cosa mi può servire?
SIARL ARCHITETTURA DEL SISTEMA E GESTIONE DELLA SICUREZZA Milano, 5 novembre 2003 Struttura Sistemi Informativi e Semplificazione.
CCR 14-15/03/2006 Status Report Gruppo Storage CCR.
Riunione gruppo storage – Roma 05/05/2005 Test di affidabilita’ e performance a Genova Alessandro Brunengo.
RHCS XEN Cluster Dael Maselli – Workshop CCR – Maggio 2009.
Benvenuti al Un incontro informativo di grande valore ed alto contenuto sulla Virtualizzazione e sistemi ad alta disponibiltà per le PMI.
Reti di computer Condivisione di risorse e
Supporto per la replicazione attiva di servizi Progetto per il corso di Reti di Calcolatori LS Montanari Mirko Matr:
1 Migrazione dei processi: Mosix. 2 Cosa è Mosix/OpenMOSIX ? OpenMOSIX è un è una patch del kernel di Linux che aggiunge funzionalit à avanzate di clustering.
Multi agent System per la gestione di feed RSS. Obiettivi  Progettazione di un sistema ad agenti basato su tucson per la gestione di feed RSS  Sviluppo.
Sistemi operativi di rete Ing. A. Stile – Ing. L. Marchesano – 1/18.
Alex Marchetti Infrastruttura di supporto per l’accesso a un disco remoto Presentazione del progetto di: Reti di calcolatori L-S.
SnippetSearch Database di snippet bilanciato e replicato di Gianluigi Salvi Reti di calcolatori LS – Prof. A.Corradi.
Workshop CCR Otranto - giugno 2006 Gruppo storage CCR Status Report Alessandro Brunengo.
Alessandro Tirel - Sezione di Trieste Storage Area Network Riunione gruppo Storage Padova, 5 ottobre 2005.
Dael Maselli – Workshop CCR – Maggio  SAN  Red Hat Cluster Suite ◦ RedHat Enterprise, Scientific Linux o CentOS  XEN.
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
31 ottobre Security Assessment per Cassa Centrale Analisi delle modalità di deployment di server e di postazioni utente. Simulazione di consulente.
Le basi di dati.
BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015.
Servizio Calcolo Alessandro Brunengo. Indice Attivita’ del servizio calcolo Infrastruttura (sala CED, rete) Servizi centrali Supporto al calcolo scientifico.
Implementazioni di un analizzatore di protocollo Esistono quattro fondamentali tradeoff per la realizzazione di un analizzatore di protocollo:  Analisi.
Roberto Covati – Roberto Alfieri INFN di Parma. Incontri di lavoro CCR dicembre Sommario VmWare Server (in produzione dal 2004) VmWare ESX.
Dispositivi di comando e controllo Dispositivi a logica programmabile.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
Brunengo - Padova - 18/12/2007 Infrastrutture di storage per Tier2 Gruppo storage CCR.
Claudio Grandi Workshop CCR 2015 Claudio Grandi INFN Bologna.
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
Attività e servizi di calcolo a Roma Tor Vergata R. Kwatera, R. Lulli, R. Sparvoli Roma Tor Vergata.
Progetto iSCSI Report alla CCR 12-13/12/2006 Alessandro Tirel – Sezione di Trieste.
Test di storage a 10 Gbps proposta. Storage server a 10Gbps Si vuole vedere quali prestazioni si possano ottenere da server connessi a 10 GE –capacita’
Corso sul file system parallelo distribuito GPFS Alessandro Brunengo INFN-Genova Vladimir Sapunenko INFN-CNAF.
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
CCR - Roma 15 marzo 2007 Gruppo storage CCR Report sulle attivita’ Alessandro Brunengo.
Alessandro Tirel - Sezione di Trieste Storage servers & TCP Tuning Proposta di studio delle problematiche connesse alla fornitura di servizi di storage.
Il calcolo per l’esperimento GERDA Luciano Pandola INFN, Laboratori del Gran Sasso Riunione della CSN2, LNF Frascati, 29 Novembre 2011.
1 Le macchine di questo pool fanno parte di una lan privata (la 125 illustrata a pag.2), di cui t2cmcondor è il gateway. Sono presenti 3 macchine su rete.
La gestione della rete e dei server. Lista delle attività  Organizzare la rete  Configurare i servizi di base  Creare gli utenti e i gruppi  Condividere.
Transcript della presentazione:

Architettura di storage ad alta affidabilita e bilanciamento di carico per volumi centrali e di esperimento A.Brunengo, M.Corosu INFN Sezione di Genova Conclusioni Caratteristiche del sistema disco Volumi in RAID5 o RAID1, con hot spare dedicati e globali Doppio controller in ridondanza con sincronizzazione della cache: in caso di failure un controller esporta i volumi dellaltro subentrando al volo senza perdita di dati; il controller che subentra simula la presenza del controller guasto annunciando verso lesterno un doppio indirizzo FC, ed esportando sullindirizzo simulato i volumi gestiti dal controller guasto Doppio canale FC: ogni controller dispone di due canali FC su cui esportare i volumi; lo stesso volume puo essere reso visibile su entrambi i canali; ciascun canale appartiene ad un loop FC distinto Il sistema e dotato di allarmistica via mail per qualsiasi evento di failure relativo al sistema combinato disco/controller. Lallarmistica e integrata con un meccanismo di controllo esterno che verifica ciclicamente la connettivita del sistema Le possibilita offerte dalla tecnologia SAN su Fiber Channel permettono di realizzare infrastrutture di accesso allo storage ridondate in ogni loro componente: lutilizzo di volumi RAID, controller ridondati, cammini multipli attraverso switch FC indipendenti e Host Adapter dual head con software capace di gestire il failover consentono di mantenere visibilita verso il singolo volume in caso di guasto di una qualunque componente della architettura, e spesso anche di guasti combinati. Unitamente a questo, lutilizzo di file system paralleli dotati di funzionalita di failover intrinseche e di parallelizzazione degli accessi (ad esempio il General Parallel File System, prodotto da IBM) permette di configurare un sistema di accesso al disco ad alta affidabilita, senza singoli punti critici, con capacita di bilanciare il carico sulle diverse componenti. La soluzione realizzata nella Sezione di Genova e dotata di tutte queste caratteristiche, ed e stata messa alla prova sia in occasione di guasti imprevisti che per necessita di riconfigurazioni globali dei sistemi realizzate attraverso lo spegnimento e la migrazione di un componente per volta, in modo da risultare trasparente allutenza. Caratteristiche del file system GPFS Caratteristiche della SAN Doppio switch FC, indipendenti, appartenenti a loop FC distinti I due canali dei controller sono connessi ciascuno ad uno switch FC differente: tutti i volumi sono accessibili attraverso entrambi i loop Host adapter dual head: ciascuna porta viene connessa ad un diverso switch FC: tutti i volumi sono potenzialmente visibili da ciascuna porta Zoning: ogni porta connessa ad un HBA appartiene ad una zona differente; le porte connesse al sistema disco appartengono a tutte le zone Driver con funzionalita di gestione del failover: il volume e reso visibile solo attraverso un canale; laccesso si sposta dinamicamente sullaltro canale in caso di failure di porta, fibra, connettori o switch FC, senza perdita di continuita di accesso GPFS e un file system conforme allo standard Posix. Il file system GPFS e costituito dalla unione di diversi Network Share Disk ciascuno dei quali coincide con un device file (una partizione fisica o logica); NSD di uno stesso file system possono essere fisicamente situati su calcolatori differenti. Le operazioni di I/O vengono effettuate in parallelo (striping) su tutti gli NSD che costituiscono il file system GPFS. Ogni accesso verso una NSD (read o write) viene realizzato: direttamente se il nodo vede lNSD come direttamente connessa attraverso un NSD server in caso contrario Ciascun NSD viene esportato da un NSD server primario, e da un opzionale NSD server secondario che subentra al primario in caso di guasto, senza perdita di funzionalita. Il file system prevede la possibilita di duplicare le informazioni di dati o di metadati su diverse NSD senza punti critici comuni. GPFS supporta le funzioni di quota ed ACL. Lutilizzo di diversi primary NSD server verso lo stesso file system permette di realizzare la ripartizione del carico Laccentramento dei volumi di servizio ed opzionalmente anche di esperimento sotto un unico sistema di accesso richiede una alta affidabilita di ciascuna componente del sistema, per prevenire disservizi che impatterebbero su tutte le attivita locali. Larchitettura realizzata sfruttando le caratteristiche di opportuni controller, SAN/FC, dual path failover, parallelizzazione GPFS e capacita di failover di NSD server, permette di raggiungere questo obiettivo, proteggendo laccessibilita del sistema disco contro ogni tipo di guasto, ivi compreso il guasto del disk server. Le caratteristiche dei componenti permettono con semplicita di realizzare anche un bilanciamento del carico su diversi server, controller e canali Fiber Channel. Schema della architettura ridondata GPFS utilizza la tecnologia di cluster per organizzare laccesso al file system, con meccanismi di quorum basati su quorum nodes o su tie-breaker disk. Requisito essenziale e la possibilita che root di ciascun membro possa eseguire comandi remoti su qualunque altro membro del cluster senza specificare password (via rsh o ssh). Il file system GPFS puo essere esportato verso client di un altro cluster, dietro autorizzazione inter-cluster basata su chiavi pubbliche specifiche dei due cluster Per limitare il problema di sicurezza si utilizza questa tecnica per esportare i volumi di esperimento verso host non controllati dal servizio calcolo Laccesso ai volumi GPFS da host esterni al cluster viene realizzato esportando i volumi via NFS Cluster GPFS, export NFS ed export inter-cluster