Gruppo storage CCR Status Report Alessandro Brunengo CCR - Frascati

Slides:



Advertisements
Presentazioni simili
Architettura di storage ad alta affidabilita e bilanciamento di carico per volumi centrali e di esperimento A.Brunengo, M.Corosu INFN Sezione di Genova.
Advertisements

Riunione CCR 20/10/2005 Gruppo Storage Relazione attivita primo semestre 2005 e pianificazione 2006 Alessandro Brunengo.
CCR 14-15/03/2006 Status Report Gruppo Storage CCR.
Riunione gruppo storage – Roma 05/05/2005 Test di affidabilita’ e performance a Genova Alessandro Brunengo.
Test Storage Resource Manager per SC4 Giacinto Donvito Vincenzo Spinoso.
Workshop CCR Otranto - giugno 2006 Gruppo storage CCR Status Report Alessandro Brunengo.
Alessandro Tirel - Sezione di Trieste Storage Area Network Riunione gruppo Storage Padova, 5 ottobre 2005.
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015.
Brunengo - Padova - 18/12/2007 Infrastrutture di storage per Tier2 Gruppo storage CCR.
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
Progetto iSCSI Report alla CCR 12-13/12/2006 Alessandro Tirel – Sezione di Trieste.
Test di storage a 10 Gbps proposta. Storage server a 10Gbps Si vuole vedere quali prestazioni si possano ottenere da server connessi a 10 GE –capacita’
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
ALICE Computing Readiness Workshop Tier-2 CNAF Jan 17-18, ALICE Computing Readiness 1) ALICE Italia: Persone & organizzazione 2) Test & commisioning.
CCR - Roma 15 marzo 2007 Gruppo storage CCR Report sulle attivita’ Alessandro Brunengo.
Alessandro Tirel - Sezione di Trieste Storage servers & TCP Tuning Proposta di studio delle problematiche connesse alla fornitura di servizi di storage.
Virtualizzazione nell’INFN Andrea Chierici 11 Dicembre 2008.
CCR, LNF ott 2011 Proposte assegnazioni server & storage L. Carbone, A. Gianoli, M. Serra.
Gruppo Netarch Incontro di lavoro della CCR Napoli gennaio 2010 Connessioni Tier1/Tier2 a GARR-X 1 GM, Incontro di lavoro della CCR – Napoli
Sistema Informativo. Mansioni Gestione della piattaforma hardware e sistemistica del sistema informativo INFN In realta’ il mansionario e’ in continua.
Referaggio delle richieste dei gruppi di lavoro G. Ambrosi, R. Fantechi, M. Gulmini, O. Pinazza Commissione Calcolo e Reti, Roma, 5-7 Ottobre 2010.
PRIN NAPOLI Enzo Capone, Gianpaolo Carlino, Alessandra Doria, Rosario Esposito, Leonardo Merola, Silvio Pardi, Arturo Sanchez Pineda.
ATLAS computing Roberto Carlin Commissione I Roma 1/7/08 F. Bossi, C.Bozzi, R. Carlin, R. Ferrari, D. Lucchesi, D. Martello, M. Morandin, M. Taiuti.
KLOE - Referee Luca Lista, Andrea Perrotta, Vincenzo Vagnoni.
Ben tornati e buon 2014 ! Sono usciti i primi bandi della comunita` europea nell’ambito di HORIZON2020 tra I quali ERC Starting Grant e Consolidator Grant.
Alessandro De Salvo Status dei Tier2 di ATLAS Alessandro De Salvo
Il calcolo per l’esperimento GERDA: prospettive per la Fase II Luciano Pandola INFN, Laboratori del Gran Sasso e Laboratori del Sud Workshop della CCR,
Torino, Andrea Dainese 1 Andrea Dainese (INFN – LNL) Stato del Tier-2 ALICE a Legnaro.
Acquisti TIER T2 team e Pistoni per la consulenza sull’hardware.
20-21/03/2006Workshop sullo storage - CNAF Alessandro Brunengo.
Valutazione proposte di corsi di formazione S. Arezzini, L
Riccardo Veraldi - Massimo Donatelli CCR 3-4 Marzo 2008
Resoconto delle attività del Gruppo di Lavoro DR
Status Report Gruppo Storage CCR CCR 14-15/03/2006.
SICR 6 Settembre 2012.
Summary di (quasi) tutti gli utenti non presentati…
dCache Test effettuati al CNAF
CARATTERISTICHE DI UN DATACENTER
Referaggio delle richieste dei gruppi di lavoro
Status report Alessandro Brunengo
Breve report su corso RedHat Enterprise Virtualization (RH318)
Richieste di upgrade dei link di accesso alla rete Geografica
Collegamento a Garr-X Il collegamento alla nuova rete Garr-X dovrà garantire il massimo della efficienza nella gestione della banda. Per identificare opportunamente.
Installazione Storage 2016
UN NUOVO MODO DI LAVORARE L’adoption di un Social Workplace
Netgroup Attività 2007 R.Gomezel.
PRIN Roma1 – status Luciano Barone, Alessandro De Salvo
Gruppo storage CCR Nuove attivita’ 2007 Alessandro Brunengo CCR - Roma
Richieste preliminari calcolo non LHC
Stato Acquisti Switch/Router T2
Sezione di Napoli GRID-PACS Commissione Calcolo Richieste 2008 Napoli.
Metriche SE monitoring G.Donvito G.Cuscela INFN Bari
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
Carbone, Gianoli, Mezzadri
Nuove funzionalità e futura implementazione nella Sezione di Trieste
Attvità Computing – Inverno 08/09
Care and Feeding of the ALICE Grid
Espansione dei CORE switch del TIER1
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
Job Application Monitoring (JAM)
Interfacce SRM: l'utilizzo di STORM - Overview e prospettive (ALICE)
analizzatore di protocollo
Dalla programmazione dell’allenamento al
© 2007 SEI-Società Editrice Internazionale, Apogeo
Documentare la didattica
IA2 Massimo Sponza IA2 – Osservatorio Astronomico di Trieste 2018 ICT Workshop - Catania.
Practical Methodology for Teachers working with CLIL
CLOUD.
Transcript della presentazione:

Gruppo storage CCR Status Report Alessandro Brunengo CCR - Frascati 12 dicembre 2007

Valutazione tecnologia iSCSI Cosa si voleva verificare approfondimento delle specifiche e valutazione delle caratteristiche dell’hardware attualmente disponibile sul mercato valutazione delle prestazioni di soluzioni con e senza HBA dedicate, impatto sulle risorse dei server valutazione delle caratteristiche di fault tolerance dell’accesso al disco test di prestazioni di controller iSCSI commerciali ed home-made funzionalita’ e scalabilita’ su soluzioni di cluster file system (GPFS/Lustre) CCR - Frascati 12 dicembre 2007

iSCSI: risultato della sperimentazione funzionalita’ di accesso al disco e failover sul multipath: OK prestazioni con client/target senza HBA dedicata: NO alto carico sulle CPU, con eventi di crash dell’OS oggetti commerciali diffusi (quasi sempre con soluzioni in alternativa al FC), a costo equivalente firmware di vari oggetti migliorato nel corso dell’anno limiti sul numero di initiator e di sessioni contemporanee prestazioni limitate al Gbps oggetti home-made (con HBA dedicata) esistono soluzioni per realizzarlo (Openfiler) prestazioni limitate al Gbps (equivalenti agli oggetti commerciali) restava da verificare: link aggregation utilizzo in ambiente GPFS per accesso diretto dei WN ai NSD CCR - Frascati 12 dicembre 2007

Test di iSCSI su link aggregation e file system parallelo (GPFS) Scelto algoritmo di selezione delle interfacce in funzione di MAC-src e MAC-dst garantisce la sequenzialita’ dei frame della singola comunicazione Eseguiti test di comparazione tra soluzione iSCSI+link aggregation e FC+link aggregation, su file system GPFS Misurate le prestazioni di traffico unidirezionale e bidirezionale CCR - Frascati 12 dicembre 2007

Testbed CCR - Frascati 12 dicembre 2007

Risultati comparativi CCR - Frascati 12 dicembre 2007

Considerazioni sulle ultime prove L’aggregazione diretta sul disk server presenta problemi deve essere indagata: possibili problemi di TCP non e’ oggi una soluzione per superare il GE La funzionalita’ di accesso diretto ai NSD di GPFS via iSCSI ha prestazioni peggiori di un accesso via NSD server iSCSI non e’ oggi una soluzione performante per l’accesso diretto agli NSD CCR - Frascati 12 dicembre 2007

Considerazioni conclusive sulla sperimentazione iSCSI iSCSI non sembra essere una soluzione SAN che possa sostituire FC dove siano richieste prestazioni elevate l’utilizzo senza HBA dedicata costituisce ulteriore fattore limitante la soluzione non costituisce un risparmio rilevante Il suo utilizzo per l’accesso diretto ai volumi GPFS risulta penalizzante Puo’ costituire una soluzione idonea in condizioni di prestazioni e carico contenuto (piccole installazioni) L’attivita’ e’ conclusa un report definitivo sara’ prodotto per la fine dell’anno potrebbe riaprirsi in presenza di soluzioni commerciali a 10 Gbps CCR - Frascati 12 dicembre 2007

Interfacce SRM Novita’ rispetto a ottobre al Tier1 in produzione StoRM su file system GPFS da 100 TB (Atlas), ed in fase di test avanzato per LHCb Altri siti Tier2 sono interessati a provare StoRM/GPFS (LNL) Test effettuati al Tier1 con trasferimento via WAN (Cern) mostrano prestazioni a 270 MB/s sostenuti e 370 MB/s di picco su 4 teste GridFTP e 100 TB di file system CCR - Frascati 12 dicembre 2007

Attivita’ in corso Valutazione del nuovo nameserver dCache (Chimera) Valutazione delle soluzioni di replica di file in dCache la nuova release non la supportera’ in un primo tempo, ma esistono soluzioni non ufficiali; l’ultima release reintrodurra’ questa funzionalita’ in febbraio Test di soluzioni di buffering per trasferimenti via WAN C’e’ una proposta di costituire un centro di supporto nazionale su dCache in collaborazione con gli sviluppatori supporto rapido canale diretto con gli sviluppatori interesse manifestato da Donvito/Spinoso, ma ancora da definire CCR - Frascati 12 dicembre 2007

GPFS: attivita’ in corso Utilizzo di policy per offrire robustezza al file system (in particolare in architetture prive di SAN) repliche automatiche di metadati/dati raggruppamento di disk pool per controllare la distribuzione dello striping dei file eventuali policy di migrazione automatica di parti di dati in funzione di determinati eventi o caratteristiche attivita’ in corso di Vincenzo Vagnoni, ma altri siti interessati CCR - Frascati 12 dicembre 2007

Storage server a 10Gbps Proposta di nuova sperimentazione per il 2008 Si vuole vedere quali prestazioni si possano ottenere da server connessi a 10 GE capacita’ del server di gestire un flusso di dati a 2 * 10 Gbps (da/verso disco e da/verso rete) comportamento del TCP in condizioni di tale carico sul server Siti interessati: Genova, Pisa, Trieste, CNAF L’attivita’ e’ programmata in collaborazione con il netgroup CCR - Frascati 12 dicembre 2007

Layout del testbed CCR - Frascati 12 dicembre 2007

Risorse hardware Hardware disponibile Due controller di disco a doppia testa con uscita in FC a 4 Gbps, 24 TB cad. con dischi SATA2 da 750 GB opzione hardware in acquisto a Genova, disponibile fino a meta’ marzo alternativa oggetti in conto visione (Nexsan/Infortrend/...) Due schede FC dual head a 4 Gbps PCI express (in acquisto a Genova e disponibli fino a meta’ marzo) 10/15 worker node con interfaccia in GE (Sez. di Pisa, periodo di disponibilita’ da verificare) Hardware da trovare in conto visione un server con almeno tre slot PCI express una scheda 10 GE PCI express (acquisto?) uno switch 24 porte GE ed uplink a 10 GE CCR - Frascati 12 dicembre 2007

Test e tempistica Test di prestazioni sulla parte di rete netperf/iperf tra WN e server Test di prestazioni sul disco dd a singolo flusso su ciascuno dei quattro canali FC server-disco (raw, ext3, GPFS) dd con processi multipli server-disco (raw, EXT3, GPFS) Test di prestazioni di accesso remoto dd a flusso multiplo WN-disco (GPFS) applicativo di analisi (?? da identificare) Tempi previsti periodo: febbraio 2008 durata: 5/10 giorni CCR - Frascati 12 dicembre 2007

Architetture di storage per Tier2 Richiesta del managment: produrre una panoramica delle possibili (ragionevoli?) architetture di storage per Tier2 con valutazione di robustezza, scalabilita’, prestazioni, costi di acquisto e gestione Lavoro appena imbastito brainstorm alla riunione del 10 dicembre presenza di membri del gruppo di alcuni Tier2 non tutti CCR - Frascati 12 dicembre 2007

Matrice di possiblita’ Molte opzioni su diversi aspetti interfaccia SRM (dCache, DPM, StoRM) accesso al file system (dCap, rfio, xrootd, file) file system (locale: EXT3, XFS, remoto: NFS, o parallelo e distribuito: GPFS, Lustre) infrastruttura hardware HD (SATA, SAS/FC) ridondanza (no RAID, RAID5, RAID6, controller con o senza failover) accesso (DAS, SAN, SAN non switched) Obiettivo primario: diminuire il numero di opzioni (3*4*5*2*3*2*3 = 2160) Non esiste una scelta giusta eliminate le combinazioni che non possono funzionare, le altre possono (per definizione) CCR - Frascati 12 dicembre 2007

Su cosa basare la scelta? Esistono requisiti definiti 500 TB, 500 slot, 60 MB/s in scrittura dal T1, 10 MB/s in lettura verso il T1, 1 GB/s in lettura verso i WN requisiti contrastanti 5 MB/s/slot verso i WN fa 2.5 GB/s requisiti non ben definiti quale livello di ridondanza (cioe’ cosa e’ accettabile perdere e per quanto tempo)? parametri la cui definizione e’ soggettiva utilizzare tecnologie note in un sito ha un costo di setup e gestione inferiore parametri la cui quantificazione e’ complessa facile valutare l’mtbf di un HD ed il costo indotto da una scelta difficile valutare l’mtbf di un server con dischi ed il costo indotto hardware migliore = mtbf maggiore (ma quanto?) = costo maggiore costo: per la stessa soluzione tecnica e’ grandemente dipendente dal vendor (migliore qualita’, migliore supporto, minori tempi di disservizio) CCR - Frascati 12 dicembre 2007

Piano di lavoro Fare una grossa selezione in base alle caratteristiche delle parti valutazione gia’ avviata, da raffinare Identificare, per le diverse opzioni (che restano) eventuali test da realizzare per verificarne funzionalita’, prestazioni e scalabilita’ e raccogliere i dati di attivita’ gia’ svolte costi (presunti) hardware in funzione del dimensionamento, che dipende dai requisiti (prestazioni, volumi) vantaggi e svantaggi in termini di flessibilita’, difficolta’ di gestione, robustezza difficilmente saranno numeri E’ essenziale la collaborazione delle persone che operano sui Tier2, e potersi avvalere dell’esperienza del Tier1 CCR - Frascati 12 dicembre 2007

Tempistica Il 18 dicembre avremo una prima stesura sara’ ovviamente incompleta Per meta’ gennaio dovremo produrre un documento completo in termini di infrastrutture idonee e quantificazione di costi (ove possibile) e proposte di test di scalabilita’ CCR - Frascati 12 dicembre 2007

Corsi A fine novembre sono stati proposti due corsi di formazione interfacce SRM: si ritiene importante realizzare un corso specifico dedicato a questo argomento, con approfondimenti tecnici e prove di installazione sul campo Giacinto Donvito (per dCache) e Riccardo Zappi (per StoRM) si sono detti interessati a collaborare sarebbe opportuno realizzare il corso in tempi non troppo lunghi (febbraio/marzo?): in corso di definizione GPFS: la sua diffusione nell’INFN potrebbe beneficiare di un corso effettuato da uno specialista IBM (uno sviluppatore?) per affrontare in modo approfondito aspetti generali ma anche use case specifici si deve ancora contattare IBM per valutare possibilita’ e costi tempistiche ovviamente da definire CCR - Frascati 12 dicembre 2007

Collaborazione con altri gruppi Prosegue la collaborazione con il gruppo storage di HepiX G. Donvito userà i test che verranno effettuati sia a Bari sia con il resto del gruppo per fornire informazioni (principalmente su dCache) al gruppo dello storage di Hepix che sta creando un wiki con informazioni sulle varie tecnologie di storage (sia hardware che software) La collaborazione con il gruppo storage del Tier1 e’ fondamentale talvolta si riesce ad unire gli sforzi per realizzare test di scala e funzionalita’ che richiedono necessariamente l’infrastruttura del T1 l’attivita’ del gruppo storage T1 ha ricadute importanti sia per i Tier2 che per altri siti c’e’ qualche difficolta’ per lo scambio delle informazioni, dovuto al sovraccarico di lavoro al T1 (si deve cercare di vedersi di piu’) CCR - Frascati 12 dicembre 2007