GM, Bologna, 8 aprile 2003 1 INFN-GRID-WP4: Computing Fabric & Mass Storage Attivita 2003 (CNAF, Genova, Lecce, LNL, Padova, Napoli, Roma1)

Slides:



Advertisements
Presentazioni simili
IDL routine for Hot-Spot detection and effusion rate estimation
Advertisements

Cache Memory Prof. G. Nicosia University of Catania
© 2010 Colt Telecom Group Limited. All rights reserved. Cloud Computing Lapproccio Colt Dionigi Faccedna.
1 SCO City-to-City Tour 2006 Padova, Bologna, Milano, Napoli Organizzato in collaborazione con:
Parametri Acustici (ISO 3382)
Windows Server 2003: Tecnologie per lalta disponibilità Andrea Candian.
Midrange Modernization Conference 1 Scenari evolutivi per le soluzioni basate su AS/400 Walter Poloni Direttore Developer & Platform Evangelism Microsoft.
1 Teaching Cloud Computing and Windows Azure in Academia Domenico Talia UNIVERSITA DELLA CALABRIA & ICAR-CNR Italy Faculty Days 2010.
DG Ricerca Ambientale e Sviluppo FIRMS' FUNDING SCHEMES AND ENVIRONMENTAL PURPOSES IN THE EU STRUCTURAL FUNDS (Monitoring of environmental firms funding.
Il progetto REZIPE a Bolzano Benjamin Auer (Ökoinstitut Südtirol/Alto Adige)
1.E un algoritmo ricorsivo: Tutti le istanze di oggetti raggiungibili da un oggetto persistente diventano anchessi persistenti.
5-1 Link Wireless Crediti Parte delle slide seguenti sono adattate dalla versione originale di J.F Kurose and K.W. Ross (© All Rights Reserved)
Memorie di Massa e File System (Test Lab) Unix AFS Network Backup Tape Library LNF – Giugno 2006 NASSAN Windows.
Valutazione del Globus Toolkit Massimo Sgaravatto INFN Padova.
CSN giugno Comunicazioni Riunione R-ECFA ai LNF 21&22 maggio; buona impressione data dallEnte. Follow-up? Giornata PT ai LNGS 3&4.
B. Pernici WP 8 Exploitation Roma, 24 novembre 2005.
Biometry to enhance smart card security (MOC using TOC protocol)
Costruzione di Interfacce Lezione 10 Dal Java al C++ parte 1
Introduzione alle griglie computazionali - a.a LEZIONE LEZIONE N. 12 Grid Monitoring modello GMA GridICE GridICE demo Introduzione alle griglie.
Comunicazione on-line, reti e virtualità Matteo Cristani.
Infrastruttura & Competenze ICT ENEA
Citrix Presentation Server Client In questo Tutorial descriviamo come accedere al ENEA Grid dal proprio computer.
Fanno ormai parte della nostra vita di tutti i giorni….
2000 Prentice Hall, Inc. All rights reserved. 1 Capitolo 3 - Functions Outline 3.1Introduction 3.2Program Components in C++ 3.3Math Library Functions 3.4Functions.
Linux firewalls Massimo Ianigro - CNR Area di Ricerca - Bari
WP 10 – Applicazioni Astrofisica – stato Leopoldo Benacchio INAF Osservatorio Astronomico di Padova Pisa maggio 03.
ATE / 31 Lezione 3 i sistemi automatici di misurazione - gli ATE.
National Project – on going results Potenza 7/10 November 06 IT-G2-SIC-066 – Social Enterprise and Local Development.
LHCf Status Report Measurement of Photons and Neutral Pions in the Very Forward Region of LHC Oscar Adriani INFN Sezione di Firenze - Dipartimento di Fisica.
LNL M.Biasotto, Bologna, 13 dicembre La farm di Legnaro Massimo Biasotto – INFN LNL.
Testbed del CNAF per lo Stress Test di CMS Alessandro Italiano INFN-CNAF INFN-GRID Testbed Meeting 17 Gennaio 2003.
S. Bolognesi (1) from CMS A. Di Simone (2) from ATLAS 1 Università di Torino ed INFN Torino 2 Università di Roma Tor Vergata ed INFN Roma 2 V workshop.
LNL M.Biasotto, Bologna, 19 marzo La farm CMS di Padova - Legnaro Proposta di acquisto hardware 1° semestre 2001.
1 M. Biasotto – Legnaro, 22 Dicembre 2005 Prototipo Tier 2 di Legnaro-Padova INFN Legnaro.
E. Ferro / CNAF / 14 febbraio /13 GRID.it servizi di infrastruttura Enrico Ferro INFN-LNL.
Palermo, may 2010 F.Doumaz, S.Vinci (INGV-CNT- Gruppo di telerilevamento)
Ischia, giugno 2006Riunione Annuale GE 2006 Exploiting the Body Effect to Improve Analog CMOS Circuit Performances *P. Monsurrò, **S. Pennisi, *G.
NetApp: NON solo storage Metro Cluster e Cluster Mode
Andrea Petricca Problematiche di rete nella sperimentazione di file-system distribuiti su WAN per applicazioni di GRID-Computing Rapporto trimestrale attività
Motor Sizing.
Last quarter work and future activities
Stefano Zani e Pierpaolo Ricci (INFN CNAF)
Architettura di storage ad alta affidabilita e bilanciamento di carico per volumi centrali e di esperimento A.Brunengo, M.Corosu INFN Sezione di Genova.
Riunione CCR 20/10/2005 Gruppo Storage Relazione attivita primo semestre 2005 e pianificazione 2006 Alessandro Brunengo.
Controllo remoto di dispositivi tecnologici via TCP/IP.
Visual Studio Tools for Office: Developer Solutions Platform Fulvio Giaccari MCSD.NET / MCT Responsabile Usergroup ShareOffice Blog:
Corso di Web Services A A Domenico Rosaci Patterns di E-Business D. RosaciPatterns per l'e-Business.
Negli ultimi anni, la richiesta di poter controllare in remoto la strumentazione e cresciuta rapidamente I miglioramenti nell’hardware e nel software insieme.
Collection & Generics in Java
Tier2 di Milano Componenti e Monitoring Luca Vaccarossa Milano 14 dicembre 2007.
Guida alla compilazione del Piano di Studi Curricula Sistemi per l’Automazione Automation Engineering.
Distributed System ( )7 TCP/IP four-layer model.
Workshop sulle problematiche di calcolo e reti nell'INFN
LNL GM, CNAF, 18 ottobre INFN-Farm Management Toolkit 1.Fabric Management per DataGrid e INFNGrid 2.Definizione dei requisiti degli esperimenti.
Dischi in RAID  Redundant Array of Independent Disk Configurazione che permette di combinare più dischi secondo obiettivi di performance e ridondanza.
CCR 14-15/03/2006 Status Report Gruppo Storage CCR.
Workshop CCR Otranto - giugno 2006 Gruppo storage CCR Status Report Alessandro Brunengo.
Storage (ieri, oggi e domani) Luca dell’Agnello INFN-CNAF.
Roberto Covati INFN di Parma. Workshop CCR/INFN GRID Palau maggio Sommario VmWare Server (in produzione dal 2004 al 2008) VmWare Infrastructure.
Roberto Covati – Roberto Alfieri INFN di Parma. Incontri di lavoro CCR dicembre Sommario VmWare Server (in produzione dal 2004) VmWare ESX.
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
CCR, LNF ott 2011 Proposte assegnazioni server & storage L. Carbone, A. Gianoli, M. Serra.
Gaetano Maron, Presentazione T2 LNL-Padova, Legnaro 22 dicembre Il centro di calcolo Tier2 di LNL-PD Gaetano Maron.
Engineering Faculty University of Messina, Italy Marco Scarpa
Assegnazione risorse Stato INFN CNAF,
Nuove funzionalità e futura implementazione nella Sezione di Trieste
Care and Feeding of the ALICE Grid
Gruppo Proxmox ImoLUG: vedere provare condividere
Information In March we decided to start to work on this topic in strong collaboration with Roma 1 group: Ferrante (50-70%), Braccini (50-70%), Torre (100%),
Transcript della presentazione:

GM, Bologna, 8 aprile INFN-GRID-WP4: Computing Fabric & Mass Storage Attivita 2003 (CNAF, Genova, Lecce, LNL, Padova, Napoli, Roma1)

GM, Bologna, 8 aprile WP Breakdown Fabric Design –lattivita del 2003 e focalizzata sulle tecniche di storage di una farm con un numero elevato di nodi. Lutilizzo di NFS in questi casi e di difficile realizzazione e fornisce prestazioni modeste. Ci sono vari approcci possibilie. Il piu interessante per noi e quello legato alla possibilita di SAN a basso costo associate ad un file system condiviso da tutta la farm. Quindi lattivita del 2003 e cosi articolata Commodity Storage Area Network (SAN) Cluster file systems Fabric Management –Lattivita 2003 continua il programma concordato con wp4-edg. Installation Task oTransizione LCFG->LCFGng->EDG wp4 tools

GM, Bologna, 8 aprile Fabric Management: Installation Task The INFN efforts in WP4 has been spent during the review period as follows: INFN Legnaro ( E. Ferro and C. Aifitimiei): –LCFGng deployment and support: maintenance of the existing documentation for Red Hat 6.2 server, add of the installation guide for Red Hat 7.3 (thanks to WP6 collaboration), support for deployment on the testbed (bug fixes and some improvements). 1 PM. –[WP4I-16] Automated installation infrastructure: Design. Almost complete, announced to mailing lists, waiting for comments. 0.6 PM. –[WP4I-17] Automated installation infrastructure: installation server. Started implementation only of basic functionalities (DHCP configuration). 0.2 PM INFN CNAF (A. Chierici ): –Generic support to CNAF-Tier1 staff for the installation problem with LCFG. –Feedback to WP4/WP6 on the deployment of the new LCFGng installation system. –Development, in conjunction with WP1 staff, of 2 new LCFGng objects: jssrbconfig and uiconfig.

GM, Bologna, 8 aprile Fabric Design Lattivita del 2003 e si compone di due argomenti strettamente correlati tra loro: –commodity SAN (o presunte) gigaethernet (con migrazione a 10 Geth se possibile) Infiniband –Cluster File Systems da poter utilizzare con una commodity SAN e dove quindi e immaginabile un file system condiviso tra tutti i nodi di calcolo e disk server –Partecipanti: Genova LNL Napoli

GM, Bologna, 8 aprile Modello di storage con NFS Application Servers Data Servers Disk Array Server SANSAN gateway NFS - Attualmente laccesso remoto ai Data Server e penalizzato da NFS - Dato lelevato numero di Application Server ci sono scarsi vantaggi ad utilizzare SAN basate per esempio su FC (costoso)

GM, Bologna, 8 aprile Commodity SAN Application Servers Data Servers gateway SAN enabled disk array GEth/iSCSI Infiniband SAN low cost (commodity) permettono di raggiungere direttamente tutti i nodi. Di interesse per noi sono: GigaEthernet con trasporto SCSI su IP (iSCSI) Infiniband Lintegrazione completa sulla farm richiede cmnq un file system a livello di farm stessa.

GM, Bologna, 8 aprile iSCSI Internet SCSI (iSCSI) is a standard protocol for encapsulating SCSI command into TCP/IP packets and enabling I/O block data transport over IP networks iSCSI adapters combines NIC and HBA functions. 1.take the data in block form 2.handle the segmentation and processing with TCP/IP processing engine 3.send IP packets across the IP network Application Layer Driver Layer Link Layer Network Interface Card Storage HBA FC Storage iSCSI Adapter IP Server FC Server IP Server IP Packets FileBlock IP Packets on Ethernet IP Packets FC Packets Intel GE 1000 T IP Storage Adapter

GM, Bologna, 8 aprile iSCSI products GEth/iSCSI Application Servers Data Servers Host adapter: - Intel GE 1000 T - Adaptec ASA LSI ecc. 2 x GE LSI iMegaRAID SATA 1 16 = ~ 5 Tbyte x controller iSCSI Controller RAID – SATA Controller

GM, Bologna, 8 aprile Infiniband Transport Protocols IBA has been developed with Virtual Interface in mind. VIPL 2.0 includes IBA extensions and RDMA operations. SCSI RDMA Protocol (SRP). It is a T10 standard. –SRP defines mapping to IBA architecture –it is the transport protocol over IBA –SRP is based on VI Direct Access Files System (DAFS) Direct Access Socket (DAS) –TCP/IP functionality over VI/IB IBA Host Channel Adapter Virtual Interface over IB DAS DAFS SRP fast, low latency TCP/IP sockets File Access Block Access fast, low latency network storage

GM, Bologna, 8 aprile LNL Infiniband Test Bed All the hardware has been provided by Infiniswitch (1 switch + 4 HCA) All the hardware is up and running First p2p measurements have been performed Software –Virtual Interface Library (VIPL) as provided by Infiniswitch Send/Receive over reliable connections RDMA over reliable connections –Sourceforge has a infiniband project over Linux VIPL source is available. Compiled and works! Performance as the infiniswitch VIPL (probably they are the same code) Results –Round trip time small buffers ~ 40 sec (latency 20 sec) –P2P ~ 80% link saturation

GM, Bologna, 8 aprile LNL Infiniband Test Bed II Leaf Switch 32 1x (2.5 Gbps) ports in 1 U chassis PCI-X (max ~ 380 Mbyte/s) Supermicro P4DL6 IBA Host Channel Adapter

GM, Bologna, 8 aprile Infiniband: risultati ottenuti 220 Link Saturation

GM, Bologna, 8 aprile Cluster File Systems Application Servers Data Servers Cluster File System - GFS - GPFS - Lustre - Storage Tank

GM, Bologna, 8 aprile Legnaro Test Bed Blade + 4 server GB*4 Test con GPFS Test in programmazione fino a giugno: –valutazione lustre – storage tank (cluster file system) su FC o su DAS se possibile –Test bed su iscsi con : –Host adapter LSI 5201 –iMegaRAID solution IBM Blade center GPFS Write 30 Mbyte/s Read 30 Mbyte/s DAS Disk Servers

GM, Bologna, 8 aprile Napoli test bed La proposta e di equipaggiare la farm di FIRB (16 macchine) con una rete Myrinet a 2 Gbps Durante il setup di FIRB la farm viene utilizzata anche per fare I test sui cluster file system A test finiti Myrinet rimane a FIRB abilitando la farm al calcolo parallelo (con MPI) ad alta velocita. Myrinet, essendo lunico link per cluster commerciale a 2 Gbps, permette il test dei cluster file system ad alta velocita.

GM, Bologna, 8 aprile Genova test bed Viene potenziata la loro Farm Gethernet aumentando il numero di nodi (+ 15 PC) Lattivita continua su: –Protocollo Gamma in produzione su applicativi paralleli, portato su MPI –DRAID Progetto completato Test di scalabilita