CCR - Roma 15 marzo 2007 Gruppo storage CCR Report sulle attivita’ Alessandro Brunengo.

Slides:



Advertisements
Presentazioni simili
EGEE is a project funded by the European Union under contract IST Test di performance su dCache G.Donvito,V.Spinoso INFN Bari
Advertisements

Unità D1 Architetture di rete.
ISA Server 2004 Enterprise Edition Preview. ISA Server 2004.
LE RETI DI COMPUTER Presentazione realizzata da: Pipitone Antonella VDp Gennaio 2008.
Cluster openMosix Linux Day ’04 Caserta Ing. Diego Bovenzi.
IL PATRIMONIO DI DATI - LE BASI DI DATI. Il patrimonio dei dati Il valore del patrimonio di dati: –Capacità di rispondere alle esigenze informative di.
Aspetti critici rete LAN e WAN per i Tier-2
Workshop CCR Otranto - maggio 2006 General Parallel File System: caratteristiche, prestazioni ed esempi di utilizzo in produzione Alessandro Brunengo -
1 Riunione del 29 Marzo 2007 IL PROGETTO SCoPE Prof. Guido Russo I lavori Le apparecchiature Il portale.
Riunione CRESCO Infrastruttura HPC Cresco Analisi Preliminare.
L'alternanza scuola - lavoro.
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
Case study Maiora srl.
Benvenuti a Un incontro informativo di grande valore ed alto contenuto sulla Virtualizzazione e sistemi ad alta disponibiltà per le PMI.
Atempo Time Navigator HyperStream Server La prima installazione italiana Bologna, 27 aprile 2010.
Pianificazione di una rete Lezione 5. Scelta del tipo di rete Le seguenti informazioni servono per determinare se per la propria realtà aziendale è più
U N INFRASTRUTTURA DI SUPPORTO PER SERVIZI DI FILE HOSTING Matteo Corvaro Matricola Corso di Reti di Calcolatori LS – Prof. A. Corradi A.A.
Stefano Zani e Pierpaolo Ricci (INFN CNAF)
Architettura di storage ad alta affidabilita e bilanciamento di carico per volumi centrali e di esperimento A.Brunengo, M.Corosu INFN Sezione di Genova.
Riunione CCR 20/10/2005 Gruppo Storage Relazione attivita primo semestre 2005 e pianificazione 2006 Alessandro Brunengo.
EGEE is a project funded by the European Union under contract IST Using SRM: DPM and dCache G.Donvito,V.Spinoso INFN Bari
C. Aiftimiei 1, S. Andreozzi 2, S. Dal Pra 1, G. Donvito 3, S. Fantinel 4, E. Fattibene 2, G. Cuscela 3, G. P. Maggi 3, G. Misurelli 2, A. Pierro 3 1 INFN-Padova.
Universita’ degli Studi Roma Tre
Dischi in RAID  Redundant Array of Independent Disk Configurazione che permette di combinare più dischi secondo obiettivi di performance e ridondanza.
CCR 14-15/03/2006 Status Report Gruppo Storage CCR.
Riunione gruppo storage – Roma 05/05/2005 Test di affidabilita’ e performance a Genova Alessandro Brunengo.
AFS Working Group R.Gomezel CCRWS Verso la sfida di LHC Otranto (Lecce), 6-9 Giugno 2006.
Servizio Sistema Informativo - Area Gestione Sistemi e Sicurezza – LNF – Dael Maselli Area Gestione Sistemi e Sicurezza LNF Plenaria Servizio Sistema Informativo.
Test Storage Resource Manager per SC4 Giacinto Donvito Vincenzo Spinoso.
RHCS XEN Cluster Dael Maselli – Workshop CCR – Maggio 2009.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
Attivita' Grid in BaBar Workshop sulle Problematiche di Calcolo e Reti nell'INFN Maggio 2004.
L. Servoli - CCR Roma 15 marzo Il progetto High Availability D. Salomoni - CNAF L. Servoli - INFN Perugia.
Istituto Nazionale di Fisica Nucleare La Biodola, Isola d’Elba, 6-9 maggio 2002 AFS: Status Report WS CCR R.Gomezel Workshop sulle problematiche.
Tier-2 Tier-2 ATLAS (Osservazioni sulla proposta dei referee del calcolo LHC) Lamberto Luminari CSN1 – Roma, 3 Aprile 2006.
Workshop CCR Otranto - giugno 2006 Gruppo storage CCR Status Report Alessandro Brunengo.
Alessandro Tirel - Sezione di Trieste Storage Area Network Riunione gruppo Storage Padova, 5 ottobre 2005.
Dael Maselli – Workshop CCR – Maggio  SAN  Red Hat Cluster Suite ◦ RedHat Enterprise, Scientific Linux o CentOS  XEN.
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
31 ottobre Security Assessment per Cassa Centrale Analisi delle modalità di deployment di server e di postazioni utente. Simulazione di consulente.
Nuovo Ambiente CS7402. Attività Principali Gli obiettivi principali della migrazione sono stati quelli di ottenere: –Un’infrastruttura di produzione (Mainframe.
BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015.
Report R.Gomezel CCR dicembre 2006 Roma.
Roberto Covati – Roberto Alfieri INFN di Parma. Incontri di lavoro CCR dicembre Sommario VmWare Server (in produzione dal 2004) VmWare ESX.
Tier-2 Legnaro-Padova Massimo Sgaravatto (INFN Padova) On behalf of the Legnaro-Padova T2 team Tier-2 Legnaro-Padova 1.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
Brunengo - Padova - 18/12/2007 Infrastrutture di storage per Tier2 Gruppo storage CCR.
Referaggio apparati di rete per il 2010 Gruppo referee rete Enrico Mazzoni Fulvia Costa Paolo Lo Re Stefano Zani Roma, CCR
Centralizzazione del servizio di posta elettronica per l’INFN ─ INTEGRAZIONE ─ Ombretta Pinazza Per il Gruppo Mailing CCR, Marzo 2008.
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
Worker node on demand: le soluzioni Andrea Chierici INFN-CNAF CCR 2009.
Progetto iSCSI Report alla CCR 12-13/12/2006 Alessandro Tirel – Sezione di Trieste.
Server & Storage Urgenze e anticipazioni seconde priorità CCR Marzo 2009 AG MM LC.
Il futuro della infrastruttura Grid INFN : le risorse economiche e le competenze ” Workshop CCR INFN GRID 2011.
1 ALICE I ITER2 DI ALICE IN ITALIA Bologna, 6 marzo 2007 M. Masera
19/4/2013 D. Menasce, M. Serra - Referaggio Progetti INFRA e WLCG 1.
Attività Gruppo Virtualizzazione Andrea Chierici CNAF CCR
Test di storage a 10 Gbps proposta. Storage server a 10Gbps Si vuole vedere quali prestazioni si possano ottenere da server connessi a 10 GE –capacita’
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
Aggiornamento Netgroup R.Gomezel Commissione Calcolo e Reti LNF 29/09/ /10/2009.
ALICE Computing Readiness Workshop Tier-2 CNAF Jan 17-18, ALICE Computing Readiness 1) ALICE Italia: Persone & organizzazione 2) Test & commisioning.
Alessandro Tirel - Sezione di Trieste Storage servers & TCP Tuning Proposta di studio delle problematiche connesse alla fornitura di servizi di storage.
Il calcolo per l’esperimento GERDA Luciano Pandola INFN, Laboratori del Gran Sasso Riunione della CSN2, LNF Frascati, 29 Novembre 2011.
1 Le macchine di questo pool fanno parte di una lan privata (la 125 illustrata a pag.2), di cui t2cmcondor è il gateway. Sono presenti 3 macchine su rete.
Aggiornamento AFS R.Gomezel Commissione Calcolo e Reti Presidenza 5/10/2010-7/10/2010.
Attività Gruppo Virtualizzazione Andrea Chierici CNAF Riunione CCR
20-21/03/2006Workshop sullo storage - CNAF Alessandro Brunengo.
Status Report Gruppo Storage CCR CCR 14-15/03/2006.
Transcript della presentazione:

CCR - Roma 15 marzo 2007 Gruppo storage CCR Report sulle attivita’ Alessandro Brunengo

CCR - Roma 15 marzo iSCSI ► In corso test su link aggregation (802.3ad) in ambiente iSAN  server con OpenFiler 2.2 e scheda Intel 4*1000 connesso a switch Extreme Networks 400 ► la connessione con il trunk e’ funzionale, con ripartizione secondo il criterio ( XOR )% ► la connessione con il trunk e’ funzionale, con ripartizione secondo il criterio ( XOR )%  4 client SL 4.4  verificata la fault tolerance  test di throughput in corso ► Contatti con CSI: per ora scambio di esperienze, possibile eventuale collaborazione  da definire

CCR - Roma 15 marzo Infrastrutture Tier2 ed SRM ► Riunione Tier2/CMS a gennaio  DPM: l’esperienza nell’utilizzo di DPM non e’ stata positiva (in particolare LNL e Pi)  sostanzialmente si pensa di migrare verso l’utilizzo di dCache per la gestione dello storage via SRM  per l’architettura hardware, si e’ manifestato maggiore interesse verso una soluzione SAN, ma con il problema del maggiore costo iniziale legato alla infrastruttura ► ma LNL e Pi sono gia’ dotati di tale infrastruttura ► Test al CNAF  sono in corso di preparazione test intensivi da svolgere al CNAF sulle infrastrutture T1 per confrontare prestazioni ed affidabilita’ di diversi protocolli di accesso allo storage sulla stessa infrastruttura hardware ► Persone coinvolte: A. Fella (CNAF), F. Furano (Padova), G. Donvito (Bari), S. Sarkar (Pisa), CNAF team

CCR - Roma 15 marzo Test al CNAF: obiettivi ► Protocolli con accesso locale:  Rfio (via CASTOR)  Xroot (via xrootd)  Dcap (via dCache)  GPFS (accesso nativo Posix su file system GPFS) ► Accesso remoto:  Si ritiene importante disporre di ulteriore cluster client, situato al di fuori della rete CNAF, per confrontare le prestazioni nei casi di utilizzo remoto (via GsiFTP) ► siti candidati: Pd e Ba (da definire ancora)

CCR - Roma 15 marzo Test al CNAF: piattaforma di test ► Server:  Un sottoinsieme dei 24 nuovi server (8 server di disco + macchine di servizio)  ~ 20 TB (parte dell’ultimo acquisto)  è prevista l’installazione di tutti i sistemi da testare contemporaneamente sulle stesse 8 macchine ► Client:  Una porzione notevole della farm di produzione (da concordare, ma dell’ordine di centinaia di nodi) che dovra’ essere dedicata

CCR - Roma 15 marzo Applicativi lato client ► Software pronti per generare diversi pattern di accesso in lettura (possono simulare il comportamento di job di esperimento)  il client - sviluppato per Xroot - è stato portato su tutti gli altri protocolli ► In fase di sviluppo client analoghi che eseguano operazioni in scrittura  sara’ pronto in tempi brevi (giorni)

CCR - Roma 15 marzo Test al CNAF: programma ► Settimana 5-9 Marzo:  Installazione server e disco e ultimi fix alla configurazione di OS ► Problemi di driver, performance e installazione GPFS (SLC4-x86_64) ► Settimana Marzo:  Test di base (usando comandi standard) per verificare performance e stabilità  Verifica preliminare della capacita’ di throughput della rete (aggregato verso i server >= 600 MB/s) ► Settimana Marzo:  Installazione e configurazione dei pacchetti da testare su server e client e dei volumi per i test ► A seguire:  Test sui protocolli di accesso  Senza intoppi le misure sui diversi protocolli dovrebbero esaurirsi in una settimana

CCR - Roma 15 marzo Documento su infrastrutture di storage e costi ► Pubblicato un documento con lo scopo di  identificare le principali tecnologie idonee a servire lo storage per le diverse esigenze ► alti volumi (T1/T2) ► ridondanza ed affidabilita’ (sistemi centrali) ► throughput ► dati critici (db critici, mail,...)  fornire una indicativa valutazione dei costi per le diverse soluzioni, anche in funzione delle dimensioni

CCR - Roma 15 marzo Tipologie di infrastruttura ► Architetture di storage divise in tre categorie:  low-cost (NAS/DAS) + basso costo + semplicita’ di installazione  scarsa affidabilita’ intrinseca  problemi di management (disomogeneita’, mancanza di flessibilita’ nella gestione dei volumi)  medium-cost (controller FC-to-SATA, eventuale SAN) + costo ancora contenuto + throughput per pattern di accesso sequenziale + flessibilita’ della gestione dei volumi, e disponibilita’ di soluzioni anche altamente affidabili  costo iniziale di startup (in termini di soldi e di apprendimento della tecnologia)  high-cost (controller FC-to-FC o FC-to-SAS, eventuale SAN) + prestazioni ed affidabilita’  costo elevato (impossibile per grossi volumi)

CCR - Roma 15 marzo Criteri di valutazione dei costi ► Riferimento: ultimi acquisti 2006  puo’ essere una base di riferimento troppo piccola ► Le soluzioni che separano il disco dal disk server devono prevedere il costo dei disk server (dotati di scheda FC)  criteri di performance impongono limiti sulla dimensione dei volumi esportati per disk server (10-15 TB) ► Il costo di eventuali switch Fibre Channel per l’implementazione di una SUN deve essere valutato a parte  non dipende dai volumi, ma da necessita’ di rendere la struttura flessibile e scalabile ► Molto difficile dare indicazioni di euro/GB: forte dipendenza da  soluzione tecnica scelta  volumi ed ordini aggregati  prezzi speciali  rapida variazione dei prezzi in conseguenza delle innovazioni tecnologiche

CCR - Roma 15 marzo Tabella riassuntiva TecnologiaFino a TBDecine di TBCentinaia di TB DAS/NAS euro/GB euro/GB FC–to-SATA rid euro/GB euro/GB non rid euro/GB euro/GB1.6 euro/GB FC – to – FC/SAS (rid.)4-6 euro/GB (*)