Alessandro Tirel - Sezione di Trieste Storage Area Network Riunione gruppo Storage Padova, 5 ottobre 2005.

Slides:



Advertisements
Presentazioni simili
A.Fanfani - C.Grandi CMS Bologna 10 febbraio 2009 La nuova farm di CMS Bologna al CNAF Alessandra Fanfani Claudio Grandi.
Advertisements

Unità D1 Architetture di rete.
I file system.
Giuseppe Fabio Fortugno.
Progetto Speciale Prototipo Tier1 F. Ruggieri INFN – CNAF I Workshop CMS Italia del SW e Computing Roma 22 Novembre 2001.
Aspetti critici rete LAN e WAN per i Tier-2
Workshop CCR Otranto - maggio 2006 General Parallel File System: caratteristiche, prestazioni ed esempi di utilizzo in produzione Alessandro Brunengo -
WP 2.4 al Cnaf Cnaf 13/11/00 P.M Hardware: - 12 PC Rack mountable IBM XSeries 330 (1U) 2 processori Pentium III 800 Mhz, FSB 133 Mhz 512 MB Mem Ecc, Controller.
Workshop sulle Problematiche di Calcolo e Reti nellINFN Maggio 2004 SantElmo Beach Hotel, Castiadas (CA) Esperienze di storage Test di funzionalità
File System NTFS 5.0 Disco: unità fisica di memorizzazione
Riunione CRESCO Infrastruttura HPC Cresco Analisi Preliminare.
Software di base Il sistema operativo è un insieme di programmi che opera sul livello macchina e offre funzionalità di alto livello Es.organizzazione dei.
Vincenzo Vagnoni per il gruppo di Bologna
Michele Michelotto INFN-Padova
LNL M.Biasotto, Bologna, 13 dicembre La farm di Legnaro Massimo Biasotto – INFN LNL.
LNL M.Biasotto, Bologna, 18 ottobre La farm CMS di Padova - Legnaro Proposta di acquisto hardware 2° semestre 2001.
LNL M.Biasotto, Bologna, 19 marzo La farm CMS di Padova - Legnaro Proposta di acquisto hardware 1° semestre 2001.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
Benvenuti a Un incontro informativo di grande valore ed alto contenuto sulla Virtualizzazione e sistemi ad alta disponibiltà per le PMI.
Benigno Gobbo – INFN Trieste 1 CSN 1 17 settembre 2002 Stato della Farm di Trieste CSN 1 17 settembre 2002 Benigno Gobbo INFN Sezione di Trieste
Atempo Time Navigator HyperStream Server La prima installazione italiana Bologna, 27 aprile 2010.
Stefano Zani e Pierpaolo Ricci (INFN CNAF)
Architettura di storage ad alta affidabilita e bilanciamento di carico per volumi centrali e di esperimento A.Brunengo, M.Corosu INFN Sezione di Genova.
Riunione CCR 20/10/2005 Gruppo Storage Relazione attivita primo semestre 2005 e pianificazione 2006 Alessandro Brunengo.
EGEE is a project funded by the European Union under contract IST Using SRM: DPM and dCache G.Donvito,V.Spinoso INFN Bari
Dischi in RAID  Redundant Array of Independent Disk Configurazione che permette di combinare più dischi secondo obiettivi di performance e ridondanza.
Works in progress.  Semplificazione e maggiore efficienza della gestione  Risparmio (nel medio periodo)  Riallocazione delle risorse (hardware e timesheet)
Riunione gruppo storage – Roma 05/05/2005 Test di affidabilita’ e performance a Genova Alessandro Brunengo.
Test Storage Resource Manager per SC4 Giacinto Donvito Vincenzo Spinoso.
Extreme Cluster Administration Toolkit Alberto Crescente, INFN Sez. Padova.
RHCS XEN Cluster Dael Maselli – Workshop CCR – Maggio 2009.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
L. Servoli - CCR Roma 15 marzo Il progetto High Availability D. Salomoni - CNAF L. Servoli - INFN Perugia.
Istituto Nazionale di Fisica Nucleare La Biodola, Isola d’Elba, 6-9 maggio 2002 AFS: Status Report WS CCR R.Gomezel Workshop sulle problematiche.
Workshop CCR Otranto - giugno 2006 Gruppo storage CCR Status Report Alessandro Brunengo.
La Farm di Atlas a Roma 1 Outline Architettura della farm Architettura della farm Installazione Installazione Monitoring Monitoring Conclusioni Conclusioni.
La Farm di Alice a Torino Workshop sulle problematiche di calcolo e reti Isola d’Elba 6-9 maggio 2002 Mario Sitta (Università del Piemonte Orientale e.
M.Biasotto, Bologna, 28 giugno 2004 M.Biasotto, Bologna, 28 giugno LNL CMS T2 Legnaro Stato attuale e richieste 2004/2005.
Dael Maselli – Workshop CCR – Maggio  SAN  Red Hat Cluster Suite ◦ RedHat Enterprise, Scientific Linux o CentOS  XEN.
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
Nuovo Ambiente CS7402. Attività Principali Gli obiettivi principali della migrazione sono stati quelli di ottenere: –Un’infrastruttura di produzione (Mainframe.
Storage (ieri, oggi e domani) Luca dell’Agnello INFN-CNAF.
Report R.Gomezel CCR dicembre 2006 Roma.
Dischi magnetici e scheduling del braccio del disco Pag. 216 – 224.
CNAF 6 Novembre Layout del testbed  wn a OS SL5.0 8 GB RAM kernel xen_3.1.0 SMP  wn a OS SL5.0 8 GB RAM kernel.
Roberto Covati – Roberto Alfieri INFN di Parma. Incontri di lavoro CCR dicembre Sommario VmWare Server (in produzione dal 2004) VmWare ESX.
D. Martello Dip. Fisica - Lecce Sintesi piani esperimenti CSN2 CNAF 7-marzo-2007.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Lecce 30 Settembre 2015.
Brunengo - Padova - 18/12/2007 Infrastrutture di storage per Tier2 Gruppo storage CCR.
Centralizzazione del servizio di posta elettronica per l’INFN ─ INTEGRAZIONE ─ Ombretta Pinazza Per il Gruppo Mailing CCR, Marzo 2008.
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
FESR Consorzio COMETA - Progetto PI2S2 Il Tier-2 di ALICE a Catania Roberto Barbera Università di Catania e INFN Visita Referee.
High Avaliability with RHCS HA INFN CNAF 22 Marzo 2006 Bologna Ricci Pier Paolo, on behalf of INFN TIER1 Staff
DA e controlli DAFNE Riccardo Gargana Frascati 13/12/ /12/13.
Attività e servizi di calcolo a Roma Tor Vergata R. Kwatera, R. Lulli, R. Sparvoli Roma Tor Vergata.
Progetto iSCSI Report alla CCR 12-13/12/2006 Alessandro Tirel – Sezione di Trieste.
Server & Storage Urgenze e anticipazioni seconde priorità CCR Marzo 2009 AG MM LC.
Martedi 8 novembre 2005 Consorzio COMETA “Progetto PI2S2” UNIONE EUROPEA Accesso all’infrastruttura Grid del Consorzio COMETA Grid Open Day alla Facoltà.
Test di storage a 10 Gbps proposta. Storage server a 10Gbps Si vuole vedere quali prestazioni si possano ottenere da server connessi a 10 GE –capacita’
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
CCR - Roma 15 marzo 2007 Gruppo storage CCR Report sulle attivita’ Alessandro Brunengo.
Alessandro Tirel - Sezione di Trieste Storage servers & TCP Tuning Proposta di studio delle problematiche connesse alla fornitura di servizi di storage.
Il calcolo per l’esperimento GERDA Luciano Pandola INFN, Laboratori del Gran Sasso Riunione della CSN2, LNF Frascati, 29 Novembre 2011.
1 Le macchine di questo pool fanno parte di una lan privata (la 125 illustrata a pag.2), di cui t2cmcondor è il gateway. Sono presenti 3 macchine su rete.
20-21/03/2006Workshop sullo storage - CNAF Alessandro Brunengo.
Referaggi SST Riunione settembre 2017
Carbone, Gianoli, Mezzadri
Nuove funzionalità e futura implementazione nella Sezione di Trieste
Transcript della presentazione:

Alessandro Tirel - Sezione di Trieste Storage Area Network Riunione gruppo Storage Padova, 5 ottobre 2005

Alessandro Tirel - Sezione di Trieste Premessa La scelta di costruire una SAN e` stata dettata dalla necessita di gestire un discreto quantitativo di storage (decine di TB) in maniera molto flessibile, cercando di rendere per quanto possibile indipendente lo storage dai server.

Schema

Alessandro Tirel - Sezione di Trieste Hardware Switch FC Qlogic 5200 HBA FC Qlogic 2340 Infortrend A16F-R1211-R2 (12 TB) Infortrend F16F-R2A2A (2 TB) Servers Supermicro Xeon mono 2/4GB di memoria Switch Summit400 Extreme Networks

Alessandro Tirel - Sezione di Trieste Filesystem Dopo alcune prove con GFS (RedHat ES 3) non troppo soddisfacenti, siamo passati all’implementazione di GPFS che ha dato da subito buoni risultati in termini di affidabilità e di performance. La configurazione iniziale si e` rivelata un po' ostica a causa dell’utilizzo di ssh/scp come mezzo per il colloquio tra i vari nodi.

Alessandro Tirel - Sezione di Trieste Configurazione cluster GPFS Il cluster e` formato da tre server collegati alla SAN i quali distribuiscono lo storage ai client tramite le due interfacce Ethernet configurate in modalità balance-rr. I client attualmente sono 14 tra Xeon ed Opteron. Sono stati creati due volumi GPFS uno dedicato all’esperimento Alice (10 TB) mentre il secondo e` di utilizzo comune (2 TB).

Alessandro Tirel - Sezione di Trieste Esempio: configurazione volume Alice L’EonStor A16F e` formato dall’unita controller piu` altri 2 JBOD per un totale di 48 dischi da 250 GB. E` stato creato un RAID set per ogni JBOD e quindi partizionato in due. Ad ogni partizione, inferiore ai 2 TB, e` stata assegnata una host lun. Tali host lun rappresentano i dischi visibili dai server i quali sono stati definiti come NSD (network shared disk) e sommati per ottenere il filesystem GPFS File system Disk name Primary node Backup node fs0 ali0d00 filer1.ts.infn.it filer2.ts.infn.it fs0 ali0d01 filer2.ts.infn.it filer3.ts.infn.it fs0 ali0d02 filer3.ts.infn.it filer1.ts.infn.it fs0 ali0d03 filer1.ts.infn.it filer2.ts.infn.it fs0 ali0d04 filer2.ts.infn.it filer3.ts.infn.it fs1 com1d00 filer1.ts.infn.it filer2.ts.infn.it Come si vede dalla lista, per ogni NSD e` stato definito un primary ed un backup node in modo da mantenere attivo il filesystem in caso di problemi su uno dei server.

Alessandro Tirel - Sezione di Trieste Test Per testare le performance del sistema e` stata utilizzata la suite di test prodotta da Vincenzo Vagnoni al CNAF. I risultati ottenuti si attestano in lettura tra i 180~200 MB/sec mentre in scrittura si raggiungono gli 80~90 MB/sec

Alessandro Tirel - Sezione di Trieste Test 10 client - 4 GB - 64K - 1 loop

Alessandro Tirel - Sezione di Trieste Test 10 client MB - 64K - 10 loop

Alessandro Tirel - Sezione di Trieste Test 10 client - 10 MB - 64K loop

Alessandro Tirel - Sezione di Trieste Sviluppi futuri Espansione dello spazio disco per l’esperimento Compass 6 TB Export via NFS dei filesystem GPFS Acquisto Tape library partizionabile per backup e HSM Installazione di castor o altro HSM