Installazione Storage 2016

Slides:



Advertisements
Presentazioni simili
EGEE is a project funded by the European Union under contract IST Test di performance su dCache G.Donvito,V.Spinoso INFN Bari
Advertisements

A.Fanfani - C.Grandi CMS Bologna 10 febbraio 2009 La nuova farm di CMS Bologna al CNAF Alessandra Fanfani Claudio Grandi.
Workshop CCR Otranto - maggio 2006 General Parallel File System: caratteristiche, prestazioni ed esempi di utilizzo in produzione Alessandro Brunengo -
Vincenzo Vagnoni per il gruppo di Bologna
LNL M.Biasotto, Bologna, 13 dicembre La farm di Legnaro Massimo Biasotto – INFN LNL.
M. Biasotto – INFN Legnaro
LNL M.Biasotto, Bologna, 18 ottobre La farm CMS di Padova - Legnaro Proposta di acquisto hardware 2° semestre 2001.
LNL M.Biasotto, Bologna, 19 marzo La farm CMS di Padova - Legnaro Proposta di acquisto hardware 1° semestre 2001.
Stefano Zani e Pierpaolo Ricci (INFN CNAF)
Works in progress.  Semplificazione e maggiore efficienza della gestione  Risparmio (nel medio periodo)  Riallocazione delle risorse (hardware e timesheet)
Riunione gruppo storage – Roma 05/05/2005 Test di affidabilita’ e performance a Genova Alessandro Brunengo.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
LNF Farm E. V. 9/8/2006. Hardware CE, LCFG, HLR, 3 WN: DL 360 1U; SE: DL 380 2U 5 WN: BL 25 P In totale 25 jobs general purpuse (coda Atlas) + una coda.
Alessandro Tirel - Sezione di Trieste Storage Area Network Riunione gruppo Storage Padova, 5 ottobre 2005.
Federico Ruggieri Riunione della CSN I Catania 18 Settembre 2002 Il Progetto TIER1 Status Report.
Federico Ruggieri INFN-CNAF Commissione Scientifica Nazionale I Lecce 24 Settembre 2003 Il Progetto TIER1 Status Update.
M.Biasotto, Bologna, 28 giugno 2004 M.Biasotto, Bologna, 28 giugno LNL CMS T2 Legnaro Stato attuale e richieste 2004/2005.
Nuovo Ambiente CS7402. Attività Principali Gli obiettivi principali della migrazione sono stati quelli di ottenere: –Un’infrastruttura di produzione (Mainframe.
GARR-X Progress Modello dell’evoluzione di rete nazionale Riunione CCR - Roma, Presidenza INFN - Roma - 8/settembre/2014
Dischi magnetici e scheduling del braccio del disco Pag. 216 – 224.
Brunengo - Padova - 18/12/2007 Infrastrutture di storage per Tier2 Gruppo storage CCR.
19 Ottobre 2012ATLAS Milano1 Stato delle risorse locali di calcolo L. Carminati, L. Perini, D. Rebatto, L. Vaccarossa.
Aggiornamento sui lavori di ampliamento degli impianti infrastrutturali del TIER1 e stato delle risorse Cristina Vistoli – Massimiliano Fiore INFN-CNAF.
Test di storage a 10 Gbps proposta. Storage server a 10Gbps Si vuole vedere quali prestazioni si possano ottenere da server connessi a 10 GE –capacita’
The INFN Tier-1: progetto di ampliamento Cristina Vistoli – INFN CNAF Referee Meeting Sep
CCR, LNF ott 2011 Proposte assegnazioni server & storage L. Carbone, A. Gianoli, M. Serra.
RAID Redundant Array of Inexpensive Disks Che cos'è Perché si usa Come funziona I tipi (principali) di RAID.
Attività PRIN STOA a Cagliari Alessandro De Falco Università/INFN Cagliari.
Configurazioni Hardware  Esistono diversi tipi di configurazioni hardware, a seconda del compito che il sistema dovrà svolgere:  Casa/Ufficio (tipicamente.
KLOE - Referee Luca Lista, Andrea Perrotta, Vincenzo Vagnoni.
The INFN Tier-1: migrazione verso l’ampliamento Cristina Vistoli – INFN CNAF.
Torino, Andrea Dainese 1 Andrea Dainese (INFN – LNL) Stato del Tier-2 ALICE a Legnaro.
Stato dell’infrastruttura INFN CNAF, Stato dell’infrastruttura Impianti tecnologici Gli impianti di base stanno funzionando, ma sono urgenti.
Acquisti TIER T2 team e Pistoni per la consulenza sull’hardware.
Calcolo LHCb Umberto Marconi INFN Sezione di Bologna Riunione CSN1, 18/09/2008.
20-21/03/2006Workshop sullo storage - CNAF Alessandro Brunengo.
Il calcolo ATLAS a Napoli nel 2014/2015
Sistemi e Applicazioni per l’Amministrazione Digitale
Resoconto delle attività del Gruppo di Lavoro DR
WPC069 Il deployment automatizzato di Windows 10
I costi del Calcolo LHC un update –
Luca dell’Agnello 28 Agosto 2007
Tier 2 dell’esperimento Atlas ai LNF
Centro di Ricerche Genomiche Università di Modena e Reggio Emila
Engineering Faculty University of Messina, Italy Marco Scarpa
Massimo Masera CSNIII Roma, 20 marzo 2012
Reparto Storage: attivita’ 2010
Cristina Vistoli – INFN CNAF
Richieste preliminari calcolo non LHC
Stato tape CDG 6/10/2016.
Stato Acquisti Switch/Router T2
Referaggio apparati di rete 2017 Seconde priorità
Assegnazione risorse Stato INFN CNAF,
Aggiornamenti dal Tier-1
Aggiornamento sullo stato del Tier-2 di Catania
GPT Vs. MBR Vantaggi introdotti dalla formattazione con la tabella delle partizioni GPT.
Care and Feeding of the ALICE Grid
Strutture informatiche e servizi nazionali
Necessità di calcolo per MEG II e ripartizione dei costi
Riunione CSN1: comunicazioni Roma 19 settembre 2016
CNAF B.Bertucci, CDG
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
R.Gomezel Commissione Calcolo e Reti CNAF
Salvataggio dei dati Principali memorie di massa:
LABORATORIO DI INFORMATICA CDL in SCIENZE UMANISTICHE PROF. D'AGOSTINO
LA GESTIONE DEI DATI.
IA2 Massimo Sponza IA2 – Osservatorio Astronomico di Trieste 2018 ICT Workshop - Catania.
Report dei referee di Kloe
Storage and Data management Vladimir Sapunenko
Transcript della presentazione:

Installazione Storage 2016 Volume: 2.9 PB + (6/5) = 3.62 PB Huawei OceanStore 6800v3 3 Storage Engine (dual controller) 12 x 75 slot JBOD (3.5 inch disks) 1 x 25 slot JBOB (2.5 inch disks) 855 NL-SAS HDD x 6TB (Advanced 4K) 25 SSD x 600GB 2 rack Brocade license x 24 port 12 Servers (dual CPU Xeon E5-2618L, 128GB RAM)

Configuration SSD: 12 LU x 600GB in RAID1 Configurazione per la parte NL SAS e’ stata modificata rispetto a quella proposta da Huawei NL SAS: RAID distribuito: 1 JBOD=1 disk domain = 1 disk pool 5x6TB reserved space (da utilizzare come spazio per la ricostruzione) 1 disk pool = 10 LU (~32TB ogni uno) Prestazioni come da capitolato Tempi di ripristino della ridondanza in caso di fallimento di un disco: ~8 ore con la configurazione proposta da Huawei Varia tra 20min e 6 ore (indagini in corso)

In corso verifiche della ridondanza Fallimento di un controller - in corso Fallimento di un PDU - done Fallimento di alimentatore - done

Piano delle assegnazioni Nel corso di 2017 dobbiamo dismettere ~ 3.3PB di disco (4 DDN + EMC CX4) Come primo passo spostiamo sul disco nuovo tutti dati che stanno sui dischi obsoleti (1.6PB di GRII + 0.45 PB di LHCb) Lasciamo su DDN solo buffer di ATLAS e ALICE (~800TB) Considerando che per lo Gruppo II e’ previsto aumento di spazio per il 2017 di 1PB lo storage nuovo verra assegnato quasi tutto a Gruppo II