Workshop CCR Otranto - maggio 2006 General Parallel File System: caratteristiche, prestazioni ed esempi di utilizzo in produzione Alessandro Brunengo -

Slides:



Advertisements
Presentazioni simili
© 2007 SEI-Società Editrice Internazionale, Apogeo Unità D1 Architetture di rete.
Advertisements

Unità D1 Architetture di rete.
ISA Server 2004 Enterprise Edition Preview. ISA Server 2004.
Realizzato da: Cappiello Rossella 566/667 Cimmino Antonietta566/1085.
File System Cos’è un File System File e Directory
Cluster openMosix Linux Day ’04 Caserta Ing. Diego Bovenzi.
Giuseppe Fabio Fortugno.
Architettura Three Tier
Workshop sulle Problematiche di Calcolo e Reti nellINFN Maggio 2004 SantElmo Beach Hotel, Castiadas (CA) Esperienze di storage Test di funzionalità
Remote file access sulla grid e metodi di interconnesione di rete M. Donatelli, A.Ghiselli e G.Mirabelli Infn-Grid network 24 maggio 2001.
File System NTFS 5.0 Disco: unità fisica di memorizzazione
Riunione CRESCO Infrastruttura HPC Cresco Analisi Preliminare.
Polo SBN della Sapienza e della Regione Lazio tra passato, presente e futuro: uno sguardo alla tecnologia Ugo Contino SBN 2004 Vecchio.
La facility nazionale Egrid: stato dell'arte Egrid-Team Trieste, 9 ottobre 2004.
UNIVERSITA’ STUDI DI ROMA “FORO ITALICO”
Reti di Calcolatori L-S Un Sistema Decentrato di Allocazione del Carico per Applicazioni di Calcolo Distribuito Mauro Bampo.
Test sul Cisco VPN Concentrator
Michele Michelotto INFN-Padova
LNL M.Biasotto, Bologna, 13 dicembre Installazione automatica Massimo Biasotto – INFN LNL.
LNL M.Biasotto, Bologna, 19 marzo La farm CMS di Padova - Legnaro Proposta di acquisto hardware 1° semestre 2001.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
Case study Maiora srl.
GIADA O N L I N E.
INTRODUZIONE l sistema operativo è il primo software che lutente utilizza quando accende il computer; 1)Viene caricato nella memoria RAM con loperazione.
Benvenuti a Un incontro informativo di grande valore ed alto contenuto sulla Virtualizzazione e sistemi ad alta disponibiltà per le PMI.
Atempo Time Navigator HyperStream Server La prima installazione italiana Bologna, 27 aprile 2010.
Configurazione in ambiente Windows Ing. A. Stile – Ing. L. Marchesano – 1/23.
Stefano Zani e Pierpaolo Ricci (INFN CNAF)
Architettura di storage ad alta affidabilita e bilanciamento di carico per volumi centrali e di esperimento A.Brunengo, M.Corosu INFN Sezione di Genova.
Riunione CCR 20/10/2005 Gruppo Storage Relazione attivita primo semestre 2005 e pianificazione 2006 Alessandro Brunengo.
File system distribuito transazionale con replicazione
Reti di calcolatori LS Manni Tiziano  IT e nuovi scenari applicativi …  … portabilità dei dati …  … condivisione dati …  … disponibilità.
FESR Trinacria Grid Virtual Laboratory ADAT (Archivi Digitali Antico Testo) Salvatore Scifo TRIGRID Second TriGrid Checkpoint Meeting Catania,
Dischi in RAID  Redundant Array of Independent Disk Configurazione che permette di combinare più dischi secondo obiettivi di performance e ridondanza.
1 Collaboration Server “La collaborazione verso il successo” Che cosa è un Collaboration Server? A cosa mi può servire?
Works in progress.  Semplificazione e maggiore efficienza della gestione  Risparmio (nel medio periodo)  Riallocazione delle risorse (hardware e timesheet)
CCR 14-15/03/2006 Status Report Gruppo Storage CCR.
Riunione gruppo storage – Roma 05/05/2005 Test di affidabilita’ e performance a Genova Alessandro Brunengo.
Extreme Cluster Administration Toolkit Alberto Crescente, INFN Sez. Padova.
RHCS XEN Cluster Dael Maselli – Workshop CCR – Maggio 2009.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
L. Servoli - CCR Roma 15 marzo Il progetto High Availability D. Salomoni - CNAF L. Servoli - INFN Perugia.
1 Migrazione dei processi: Mosix. 2 Cosa è Mosix/OpenMOSIX ? OpenMOSIX è un è una patch del kernel di Linux che aggiunge funzionalit à avanzate di clustering.
Alex Marchetti Infrastruttura di supporto per l’accesso a un disco remoto Presentazione del progetto di: Reti di calcolatori L-S.
Workshop CCR Otranto - giugno 2006 Gruppo storage CCR Status Report Alessandro Brunengo.
Alessandro Tirel - Sezione di Trieste Storage Area Network Riunione gruppo Storage Padova, 5 ottobre 2005.
Grid nelle sezioni: Milano Luca Vaccarossa INFN – Sezione di Milano Workshop sulle Problematiche di Calcolo e Reti nell'INFN.
La Farm di Alice a Torino Workshop sulle problematiche di calcolo e reti Isola d’Elba 6-9 maggio 2002 Mario Sitta (Università del Piemonte Orientale e.
Dael Maselli – Workshop CCR – Maggio  SAN  Red Hat Cluster Suite ◦ RedHat Enterprise, Scientific Linux o CentOS  XEN.
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
Nuovo Ambiente CS7402. Attività Principali Gli obiettivi principali della migrazione sono stati quelli di ottenere: –Un’infrastruttura di produzione (Mainframe.
Storage (ieri, oggi e domani) Luca dell’Agnello INFN-CNAF.
BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015.
Roberto Covati INFN di Parma. Workshop CCR/INFN GRID Palau maggio Sommario VmWare Server (in produzione dal 2004 al 2008) VmWare Infrastructure.
Roberto Covati – Roberto Alfieri INFN di Parma. Incontri di lavoro CCR dicembre Sommario VmWare Server (in produzione dal 2004) VmWare ESX.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
Brunengo - Padova - 18/12/2007 Infrastrutture di storage per Tier2 Gruppo storage CCR.
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
High Avaliability with RHCS HA INFN CNAF 22 Marzo 2006 Bologna Ricci Pier Paolo, on behalf of INFN TIER1 Staff
Attività e servizi di calcolo a Roma Tor Vergata R. Kwatera, R. Lulli, R. Sparvoli Roma Tor Vergata.
Progetto iSCSI Report alla CCR 12-13/12/2006 Alessandro Tirel – Sezione di Trieste.
Martedi 8 novembre 2005 Consorzio COMETA “Progetto PI2S2” UNIONE EUROPEA Accesso all’infrastruttura Grid del Consorzio COMETA Grid Open Day alla Facoltà.
Test di storage a 10 Gbps proposta. Storage server a 10Gbps Si vuole vedere quali prestazioni si possano ottenere da server connessi a 10 GE –capacita’
Corso sul file system parallelo distribuito GPFS Alessandro Brunengo INFN-Genova Vladimir Sapunenko INFN-CNAF.
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
CCR - Roma 15 marzo 2007 Gruppo storage CCR Report sulle attivita’ Alessandro Brunengo.
Alessandro Tirel - Sezione di Trieste Storage servers & TCP Tuning Proposta di studio delle problematiche connesse alla fornitura di servizi di storage.
1 Le macchine di questo pool fanno parte di una lan privata (la 125 illustrata a pag.2), di cui t2cmcondor è il gateway. Sono presenti 3 macchine su rete.
La gestione della rete e dei server. Lista delle attività  Organizzare la rete  Configurare i servizi di base  Creare gli utenti e i gruppi  Condividere.
Transcript della presentazione:

Workshop CCR Otranto - maggio 2006 General Parallel File System: caratteristiche, prestazioni ed esempi di utilizzo in produzione Alessandro Brunengo - Sezione INFN di Genova

2 Sommario Caratteristiche del file system GPFS Caratteristiche del file system GPFS Test di affidabilita, prestazioni e scalabilita Test di affidabilita, prestazioni e scalabilita Esempio di infrastruttura in produzione Esempio di infrastruttura in produzione meccanismi di export del file system meccanismi di export del file system configurazione ad alta affidabilita configurazione ad alta affidabilita inter-cluster export inter-cluster export

3 Caratteristiche GPFS e un file system commerciale sviluppato da IBM per AIX e portato su linux: GPFS e un file system commerciale sviluppato da IBM per AIX e portato su linux: standard POSIX + quota + ACL standard POSIX + quota + ACL ridimensionamento dinamico dei volumi ridimensionamento dinamico dei volumi prestazioni elevate: parallelizzazione degli accessi e bilanciamento del carico prestazioni elevate: parallelizzazione degli accessi e bilanciamento del carico alta affidabilita per alta affidabilita per conservazione dei dati tramite repliche di dati e metadati conservazione dei dati tramite repliche di dati e metadati accesso ai dati grazie a server secondari di volumi che possono subentrare in failover accesso ai dati grazie a server secondari di volumi che possono subentrare in failover esportabilita dei volumi via NFS (V3/V4) e samba esportabilita dei volumi via NFS (V3/V4) e samba

4 Cluster Nodo GPFS: singolo sistema operativo su cui gira il software GPFS Nodo GPFS: singolo sistema operativo su cui gira il software GPFS moduli del kernel moduli del kernel utility di management del file system utility di management del file system utility di management del cluster utility di management del cluster Cluster GPFS: insieme di nodi che condividono le configurazioni e laccesso ai file system, che possono avere funzioni di Cluster GPFS: insieme di nodi che condividono le configurazioni e laccesso ai file system, che possono avere funzioni di manager/client manager/client quorum/non quorum quorum/non quorum Quorum type: Quorum type: quorum nodes (quorum soddisfatto con la meta piu uno dei quorum node) quorum nodes (quorum soddisfatto con la meta piu uno dei quorum node) tie-breaker disks (quorum soddisfatto quando almeno un quorum node vede la meta piu uno dei tiebreaker disk) tie-breaker disks (quorum soddisfatto quando almeno un quorum node vede la meta piu uno dei tiebreaker disk)

5 Cluster management E definito un primary configuration server, ed un secondary configuration server opzionale E definito un primary configuration server, ed un secondary configuration server opzionale in caso di inaccessibilita di configuration server saranno precluse le modifiche di configurazione al cluster, e lo startup di GPFS sui nodi in caso di inaccessibilita di configuration server saranno precluse le modifiche di configurazione al cluster, e lo startup di GPFS sui nodi Tutti i nodi del cluster devono poter eseguire comandi privilegiati su ciascun altro nodo, senza introdurre password Tutti i nodi del cluster devono poter eseguire comandi privilegiati su ciascun altro nodo, senza introdurre password e possibile utilizzare rsh o ssh e possibile utilizzare rsh o ssh tecnologia che limita la sicurezza e complica il management del cluster tecnologia che limita la sicurezza e complica il management del cluster si possono adottare work-around per limitare laccesso reciproco al solo file transfer dei file di configurazione si possono adottare work-around per limitare laccesso reciproco al solo file transfer dei file di configurazione

6 Network Shared Disk Ogni partizione che dovra contenere dati viene configurata come NSD (ha un nome ed un device file) Ogni partizione che dovra contenere dati viene configurata come NSD (ha un nome ed un device file) Le informazioni relative allNSD vengono scritte anche sullo stesso NSD Le informazioni relative allNSD vengono scritte anche sullo stesso NSD il riconoscimento di un NSD non dipende dal device file name della partizione fisica, ed e riconosciuto da tutti i nodi che hanno accesso diretto al device il riconoscimento di un NSD non dipende dal device file name della partizione fisica, ed e riconosciuto da tutti i nodi che hanno accesso diretto al device Laccesso al singolo NSD avviene: Laccesso al singolo NSD avviene: direttamente se il nodo vede il device fisico associato allNDS direttamente se il nodo vede il device fisico associato allNDS indirettamente tramite export GPFS di un NSD server indirettamente tramite export GPFS di un NSD server Ridondanza per laccesso allNSD Ridondanza per laccesso allNSD il singolo NSD puo essere esportato da un server secondario, che in caso di necessita subentra al primario senza perdita di continuita di servizio il singolo NSD puo essere esportato da un server secondario, che in caso di necessita subentra al primario senza perdita di continuita di servizio

7 File System Il file system GPFS e costituito da uno o piu NSD Il file system GPFS e costituito da uno o piu NSD POSIX: lapplicativo accede tramite standard file I/O, con supporto di quota ed ACL (GPFS o compatibili con NFS V4) a livello di file POSIX: lapplicativo accede tramite standard file I/O, con supporto di quota ed ACL (GPFS o compatibili con NFS V4) a livello di file rapido recovery: GPFS e un logging file system che registra le operazioni sui metadati rapido recovery: GPFS e un logging file system che registra le operazioni sui metadati parallelizzazione: le operazioni di I/O vengono realizzate in striping sugli NSD disponibili, mettendo a disposizione la banda aggregata e bilanciando il carico tra gli NSD server parallelizzazione: le operazioni di I/O vengono realizzate in striping sugli NSD disponibili, mettendo a disposizione la banda aggregata e bilanciando il carico tra gli NSD server dinamicita: NSD possono essere aggiunti al - e rimossi dal - file system on line dinamicita: NSD possono essere aggiunti al - e rimossi dal - file system on line affidabilta: possibilita di replicare dati e metadati su diverse NSD senza punti critici in comune affidabilta: possibilita di replicare dati e metadati su diverse NSD senza punti critici in comune

8 Configuration Manager, File System Manager e locking distribuito Il configuration manager viene eletto tra i quorum node attivi e si occupa di Il configuration manager viene eletto tra i quorum node attivi e si occupa di controllare il quorum e la consistenza delle configurazioni controllare il quorum e la consistenza delle configurazioni recovery dei dischi in seguito a node failure recovery dei dischi in seguito a node failure definizione del file system manager (per ogni fs) definizione del file system manager (per ogni fs) Il file system manager ha le funzioni di: Il file system manager ha le funzioni di: aggiunta/rimozione di dischi aggiunta/rimozione di dischi recovery del file system recovery del file system disk space allocation e quota disk space allocation e quota definire i token manager definire i token manager Entrambe le funzionalita possono migrare senza perdita di operativita in caso di failure di un manager Entrambe le funzionalita possono migrare senza perdita di operativita in caso di failure di un manager

9 Locking distribuito Consistenza di dati e metadati tramite locking distribuito, mantenuto tramite meccanismi di token Consistenza di dati e metadati tramite locking distribuito, mantenuto tramite meccanismi di token laccesso al file viene permesso tramite la concessione di un token, il cui stato risiede sul nodo e sul token manager laccesso al file viene permesso tramite la concessione di un token, il cui stato risiede sul nodo e sul token manager un nodo chiede al token manager (attraverso il file system manager) un token per accedere ad un file un nodo chiede al token manager (attraverso il file system manager) un token per accedere ad un file il token manager concede il token o comunica al nodo la lista dei nodi che hanno un token in conflitto il token manager concede il token o comunica al nodo la lista dei nodi che hanno un token in conflitto il nodo contatta i nodi che impediscono laccesso per chiedere il rilascio del token il nodo contatta i nodi che impediscono laccesso per chiedere il rilascio del token Come per gli altri, anche le funzioni di token manager possono migrare su altre macchine senza perdita di funzionalita Come per gli altri, anche le funzioni di token manager possono migrare su altre macchine senza perdita di funzionalita

10 File System Export GPFS nativo: laccesso al file system per nodi non connessi alla SAN avviene attraverso i singoli NSD server GPFS nativo: laccesso al file system per nodi non connessi alla SAN avviene attraverso i singoli NSD server Inter-cluster export Inter-cluster export i volumi di un cluster possono essere esportati a client di altri cluster i volumi di un cluster possono essere esportati a client di altri cluster si richiede uno scambio di chiavi GPFS (non e richiesto laccesso privilegiato reciproco) si richiede uno scambio di chiavi GPFS (non e richiesto laccesso privilegiato reciproco) e possibile limitare laccesso per file system (non per nodi del cluster remoto) e rimappare lUID 0 e possibile limitare laccesso per file system (non per nodi del cluster remoto) e rimappare lUID 0 NFS export NFS export il file system puo essere esportato via NFS V3 o NFS V4 (richiede lutilizzo di ACL opportuni) il file system puo essere esportato via NFS V3 o NFS V4 (richiede lutilizzo di ACL opportuni) Samba export Samba export

11 Layout test di affidabilita

12 Failure del controller

13 Failure dello switch FC

14 Failure del disk server

15 Upgrade on line La ridondanza e stata sfruttata per operare un upgrade di versione di GPFS e di kernel senza perdita di funzionalita La ridondanza e stata sfruttata per operare un upgrade di versione di GPFS e di kernel senza perdita di funzionalita Linfrastruttura costituita da 3 NSD server (e quorum node), con tutte le NSD esportate via primario e secondario, circa 40 client Linfrastruttura costituita da 3 NSD server (e quorum node), con tutte le NSD esportate via primario e secondario, circa 40 client GPFS accetta la dissincronizzazione delle versioni nello stesso cluster GPFS accetta la dissincronizzazione delle versioni nello stesso cluster il GPFS team di IBM suggerisce caldamente di non protrarre questa situazione a lungo il GPFS team di IBM suggerisce caldamente di non protrarre questa situazione a lungo La migrazione effettuata con un nodo per volta (con rimozione dal cluster e successivo reinserimento) non ha portato a perdita di funzionalita: ciascun nodo ha mantenuto sempre la visibilita dei file system - con la sola eccezione del proprio reboot La migrazione effettuata con un nodo per volta (con rimozione dal cluster e successivo reinserimento) non ha portato a perdita di funzionalita: ciascun nodo ha mantenuto sempre la visibilita dei file system - con la sola eccezione del proprio reboot

16 Test di prestazioni Sono stati effettuati numerosi test di prestazioni nellambito del gruppo storage di CCR Sono stati effettuati numerosi test di prestazioni nellambito del gruppo storage di CCR Sono state confrontate le prestazioni Sono state confrontate le prestazioni rispetto ad altri file system (Ext3, Lustre) (solo su kernel 2.4) rispetto ad altri file system (Ext3, Lustre) (solo su kernel 2.4) in configurazioni differenti (parallelizzazione e distribuzione del carico) in configurazioni differenti (parallelizzazione e distribuzione del carico)

server e clients: dual Xeon 3 GHz SLC3 GPFS

19 Early Parallel File System Test-bed IBM FastT 900 (DS 4500) 4 TB, 2 LUN 17x250 GB Raid-5 array IBM FastT 900 (DS 4500) 4 TB, 2 LUN 17x250 GB Raid-5 array IBM FastT 900 (DS 4500) 4 TB, 2 LUN 17x250 GB Raid-5 array 3 disk storage 24 TB, 12 LUN Brocade Fiber Channel Switch IBM xseries 346 dual Xeon, 2 GB RAM Gigabit Ethernet Switch client node dual Xeon, 2 GB RAM 500 client nodes 6 file system server thanks to V.Vagnoni

20 Native GPFS with different file sizes Effective average throughput (Gb/s) # of simultaneous read/writes thanks to V.Vagnoni

TB of data processed in 7 hours, all jobs completed successfully. 500 jobs running simultaneously. > 3 Gbit/s raw sustained read throughput from the file servers with GPFS (about 320MByte/s effective I/O throughput). Write throughput of output data negligible (1 MB/job). PHASE 2: Realistic analysis (II) thanks to V.Vagnoni

22 Problemi Problemi funzionali Problemi funzionali GPFS evidenzia un problema di memory map e problemi legati ad NFS sui kernel 2.4: devono essere installate patch opportune. I kernel 2.6 sono a posto. GPFS evidenzia un problema di memory map e problemi legati ad NFS sui kernel 2.4: devono essere installate patch opportune. I kernel 2.6 sono a posto. GPFS release > su kernel 2.4 manifesta un problema nellexport via NFS: lNFS server non puo essere up-to-date, o deve avere il kernel 2.6. GPFS release > su kernel 2.4 manifesta un problema nellexport via NFS: lNFS server non puo essere up-to-date, o deve avere il kernel 2.6. Prestazioni non brillanti per NSD server con kernel 2.6; altri problemi di funzionalita evidenziati in occasione del recovery dopo un disk failure. Prestazioni non brillanti per NSD server con kernel 2.6; altri problemi di funzionalita evidenziati in occasione del recovery dopo un disk failure. poca esperienza: analisi da approfondire poca esperienza: analisi da approfondire

23 Problemi-2 Problemi di sicurezza Problemi di sicurezza GPFS richiede la condivisione di accesso privilegiato senza password tra i nodi di un cluster; sono stati utilizzati due work-around: GPFS richiede la condivisione di accesso privilegiato senza password tra i nodi di un cluster; sono stati utilizzati due work-around: utilizzo di un wrapper sopra ssh per limitare laccesso dei nodi del cluster ai soli file di configurazione di GPFS utilizzo di un wrapper sopra ssh per limitare laccesso dei nodi del cluster ai soli file di configurazione di GPFS raggruppamento delle macchine di esperimento in un cluster separato, ed utilizzo dellinter-cluster export di GPFS raggruppamento delle macchine di esperimento in un cluster separato, ed utilizzo dellinter-cluster export di GPFS Problemi di management Problemi di management La condivisione delle chiavi ssh richiede un meccanismo di distribuzione delle chiavi ssh attraverso una gestione centralizzata dei file authorized_keys e known_hosts La condivisione delle chiavi ssh richiede un meccanismo di distribuzione delle chiavi ssh attraverso una gestione centralizzata dei file authorized_keys e known_hosts ** attenzione alle reinstallazioni ** ** attenzione alle reinstallazioni **

24 Note sulla installazione Distribuito tramite pacchetti rpm, ma: Distribuito tramite pacchetti rpm, ma: richiede linstallazione di release <= prima di fare upgrade alla release corrente richiede linstallazione di release <= prima di fare upgrade alla release corrente richiede la compilazione dei moduli GPL dopo editing di un file di configurazione richiede la compilazione dei moduli GPL dopo editing di un file di configurazione Automazioni sviluppate in casa: Automazioni sviluppate in casa: quattorizzazione: realizzato un rpm per i moduli GPL precompilati, ed un rpm per aggirare la necessita di fare upgrade quattorizzazione: realizzato un rpm per i moduli GPL precompilati, ed un rpm per aggirare la necessita di fare upgrade realizzazione di un source rpm per la generazione rapida del pacchetto rpm dei moduli GPL realizzazione di un source rpm per la generazione rapida del pacchetto rpm dei moduli GPL

25 INFN INFN-CT INFN-CT GPFS in produzione sui volumi di esperimento e volumi GRID GPFS in produzione sui volumi di esperimento e volumi GRID disco FC con 20 TB, due NSD server disco FC con 20 TB, due NSD server 3 box con controller 3ware da 1.2 TB/cad 3 box con controller 3ware da 1.2 TB/cad 120 GPFS client (WN) 120 GPFS client (WN) GPFS release su kernel 2.4 GPFS release su kernel 2.4 INFN-TS INFN-TS GPFS sui volumi della farm centrale e GRID GPFS sui volumi della farm centrale e GRID disco FC con 22 TB, tre NSD server connessi alla SAN disco FC con 22 TB, tre NSD server connessi alla SAN 30 GPFS client 30 GPFS client GPFS release su kernel 2.4 GPFS release su kernel 2.4 Export dei volumi via NFS Export dei volumi via NFS

INFN-GE INFN-GE Volumi di farm, esperimento, servizi centrali (home dir, web), GRID, backup Volumi di farm, esperimento, servizi centrali (home dir, web), GRID, backup Disco FC 20 TB + 2 box controller 3ware (6 TB) Disco FC 20 TB + 2 box controller 3ware (6 TB) Tre cluster (centrale, di esperimento, backup), 5 +2 NSD server Tre cluster (centrale, di esperimento, backup), 5 +2 NSD server 40 GPFS client sul cluster centrale 40 GPFS client sul cluster centrale Export dei volumi via inter-cluster GPFS, NFS e samba Export dei volumi via inter-cluster GPFS, NFS e samba GPFS release su kernel 2.4 e kernel 2.6 (32 e 64 bit) sul cluster centrale GPFS release su kernel 2.4 e kernel 2.6 (32 e 64 bit) sul cluster centrale

27 INFN Genova - schema

28 Accessibilita e risorse GPFS e un prodotto commerciale di IBM GPFS e un prodotto commerciale di IBM last release: 3.1 (aprile 2006) last release: 3.1 (aprile 2006) distribuito per AIX e linux RH/SUSE distribuito per AIX e linux RH/SUSE Fornito gratuitamente (assieme ad altro: DB2, Tivoli, Rational, CSM, …) attraverso il programma IBM University ( Fornito gratuitamente (assieme ad altro: DB2, Tivoli, Rational, CSM, …) attraverso il programma IBM University ( Distribuzione via rete a partire dalla release , installabili solo come upgrade Distribuzione via rete a partire dalla release , installabili solo come upgrade per linstallazione e necessario iscriversi al programma University e richiedere ad IBM i CD della release base per linstallazione e necessario iscriversi al programma University e richiedere ad IBM i CD della release base Risorse Risorse IBM fornisce contratti di supporto sotto condizioni stringenti: in corso il tentativo di definire un contratto di manutenzione per (le) installazioni INFN IBM fornisce contratti di supporto sotto condizioni stringenti: in corso il tentativo di definire un contratto di manutenzione per (le) installazioni INFN Disponibili ampia documentazione e FAQ in rete Disponibili ampia documentazione e FAQ in rete Esiste una mailing list abbastanza attiva del San Diego Super Computing ( Esiste una mailing list abbastanza attiva del San Diego Super Computing (

29 Conclusioni GPFS si presenta come una soluzione interessante GPFS si presenta come una soluzione interessante Buone prestazioni, che migliorano grazie alla parallelizzazione che puo fornire con semplicita anche il bilanciamento di carico Buone prestazioni, che migliorano grazie alla parallelizzazione che puo fornire con semplicita anche il bilanciamento di carico Ottime caratteristiche di affidabilita, che si sfruttano al meglio in una infrastruttura SAN Ottime caratteristiche di affidabilita, che si sfruttano al meglio in una infrastruttura SAN POSIX I/O: puo essere utilizzato dalle applicazioni senza adattamenti POSIX I/O: puo essere utilizzato dalle applicazioni senza adattamenti scalabile: supportato da IBM fino a 1024 nodi, ma esistono gia in produzione installazioni di oltre 2000 nodi scalabile: supportato da IBM fino a 1024 nodi, ma esistono gia in produzione installazioni di oltre 2000 nodi Funzionalita come la duplicazione di dati e metadati, supporto per ACL e quota ne fanno una soluzione interessante anche per file system general purpose (home dir) Funzionalita come la duplicazione di dati e metadati, supporto per ACL e quota ne fanno una soluzione interessante anche per file system general purpose (home dir)