PRIN Roma1 – status Luciano Barone, Alessandro De Salvo

Slides:



Advertisements
Presentazioni simili
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
Advertisements

C. Aiftimiei INFN-CNAF/SDDS Quest'opera è distribuita con Licenza Creative Commons Attribuzione - Non commerciale - Condividi allo stesso modo.
ATLAS PRIN Alessandro De Salvo A. De Salvo – 12 novembre 2015 Cloud Computing Condivisione di risorse tra gruppi EventIndex LHCONE PoD T2D.
BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015.
Servizio Calcolo Alessandro Brunengo. Indice Attivita’ del servizio calcolo Infrastruttura (sala CED, rete) Servizi centrali Supporto al calcolo scientifico.
Riunione PRIN STOA - Bologna - 18 Giugno 2014 Testbed del T2 distribuito Napoli-Roma Dr. Silvio Pardi INFN-Napoli Riunione PRIN STOA – Bologna 18 Giugno.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
WP11 Stato avanzamento lavori CTS - Bologna - 27/03/2015.
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
Test di storage a 10 Gbps proposta. Storage server a 10Gbps Si vuole vedere quali prestazioni si possano ottenere da server connessi a 10 GE –capacita’
Domenico Elia1CdG Tier1-Tier2 / CNAF ALICE Tier2 sites Domenico Elia CdG Tier1-Tier2 Bologna, 15 Aprile 2015  Infrastruttura e risorse, coordinamento.
CCR - Roma 15 marzo 2007 Gruppo storage CCR Report sulle attivita’ Alessandro Brunengo.
Sviluppo Tools Automatic Deployment IaaS OCP Cristina Aiftimiei (INFN-CNAF) AG del 26/03/2015.
Sviluppo Tools Automatic Deployment IaaS OCP - status report - Cristina Aiftimiei (INFN-CNAF) CTS, 05/06/2015.
1 Le macchine di questo pool fanno parte di una lan privata (la 125 illustrata a pag.2), di cui t2cmcondor è il gateway. Sono presenti 3 macchine su rete.
Virtualizzazione nell’INFN Andrea Chierici 11 Dicembre 2008.
CCR, LNF ott 2011 Proposte assegnazioni server & storage L. Carbone, A. Gianoli, M. Serra.
Gruppo Netarch Incontro di lavoro della CCR Napoli gennaio 2010 Connessioni Tier1/Tier2 a GARR-X 1 GM, Incontro di lavoro della CCR – Napoli
PRIN NAPOLI Enzo Capone, Gianpaolo Carlino, Alessandra Doria, Rosario Esposito, Leonardo Merola, Silvio Pardi, Arturo Sanchez Pineda.
ATLAS computing Roberto Carlin Commissione I Roma 1/7/08 F. Bossi, C.Bozzi, R. Carlin, R. Ferrari, D. Lucchesi, D. Martello, M. Morandin, M. Taiuti.
Attività PRIN STOA a Cagliari Alessandro De Falco Università/INFN Cagliari.
Alessandro De Salvo Status dei Tier2 di ATLAS Alessandro De Salvo
Il calcolo per l’esperimento GERDA: prospettive per la Fase II Luciano Pandola INFN, Laboratori del Gran Sasso e Laboratori del Sud Workshop della CCR,
Smart Cities and Communities and Social Innovation Bando MIUR D.D. 391/Ric. del 5 luglio 2012 SAL WP11 Validazione soluzioni cloud del progetto, con la.
Acquisti TIER T2 team e Pistoni per la consulenza sull’hardware.
VO-Neural Project e GRID Giovanni d’Angelo Dipartimento di Scienze Fisiche Università degli Studi di Napoli Federico II Martina Franca 12 – 23 Novembre.
20-21/03/2006Workshop sullo storage - CNAF Alessandro Brunengo.
Il calcolo ATLAS a Napoli nel 2014/2015
!CHAOS e Cloud Enrico Fattibene INFN-CNAF
Infrastruttura cloud servizi realizzata nella Sezione di Napoli
Status Report Gruppo Storage CCR CCR 14-15/03/2006.
dCache Test effettuati al CNAF
CCR Servizi Nazionali settembre 2016 Stefano Longo (CNAF)
Monitoring e loadbalancing dei servizi Grid
Comput-ER l'infrastruttura di calcolo distribuito in Emilia Romagna
SAL WP11 Bologna – CNAF – 5 Giugno 2015.
Ambiente di testbed OCP per Regione Marche
Breve report su corso RedHat Enterprise Virtualization (RH318)
Daniela Vasari Mirco Curzi OCP CTS, 15/09/2016
Risultati ultimi mesi Piano di lavoro prossimi mesi Reclutamento
Richieste di upgrade dei link di accesso alla rete Geografica
Collegamento a Garr-X Il collegamento alla nuova rete Garr-X dovrà garantire il massimo della efficienza nella gestione della banda. Per identificare opportunamente.
Matteo Panella PCM !CHAOS 7 Luglio 2015
Cloud per HA nei Servizi
Attivita’ e compiti del Servizio Impianti Calcolo e Reti
Stato Acquisti Switch/Router T2
Referaggi SST Riunione settembre 2017
Introduzione alla sessione sull’analisi per gli esperimenti LHC
L’INFN per il Collaborative esteso e distribuito Alessandro De Salvo
Metriche SE monitoring G.Donvito G.Cuscela INFN Bari
INDIGO-DataCloud MidnightBlue Tutorial Days
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
Carbone, Gianoli, Mezzadri
Aurelio LEONE CTS OCP – Bologna 28/07/2016
Aggiornamento sullo stato del Tier-2 di Catania
ATLAS-Italia Tier-3 Dario Barberis Università e INFN Genova
Attvità Computing – Inverno 08/09
Care and Feeding of the ALICE Grid
Parlando di network i discorsi naturalmente diventano complessi (creazione di un intero ecosistema virtuale comparabile ad uno reale): Separazione layers.
INFN-TS INFN - Sezione di Trieste - C. Strizzolo - L. Strizzolo.
Belle II Computing: Accesso alle risorse di storage via http/webdav
Strutture informatiche e servizi nazionali
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
ATLAS PRIN Next Steps Alessandro De Salvo
Calcolo “locale” ATLAS-Mi
Da circa 10 anni il fornisce agli utenti dei labs, che ne facciano richiesta, un servizio di storage via NFS. Come T2 viene fornito da qualche.
Organizzazione di una rete Windows 2000
IA2 Massimo Sponza IA2 – Osservatorio Astronomico di Trieste 2018 ICT Workshop - Catania.
ATLAS PRIN Roma1 - status Alessandro De Salvo
Preventivi CCR 2018 INFN Roma Tor Vergata.
Transcript della presentazione:

PRIN Roma1 – status Luciano Barone, Alessandro De Salvo 12-11-2015 A. De Salvo – 12 novembre 2015

Luciano M.Barone - Sapienza Roma Rendicontazione Contributo totale 72800 euro, di cui 50422 euro per un assegno di ricerca di 1+1 anno, in scadenza il 31/12/2015 ~3400 euro non rendicontati (1 desktop, 1 laptop, missioni interne) ~18000 euro in avanzo (previsti in origine per acquisto hw poi non esercitato) Luciano M.Barone - Sapienza Roma Bari 12-11-2015 2

Luciano M.Barone - Sapienza Roma Data access [1] Attività svolta nel primo anno, con misure di performance nell’accesso ai dati su diversi filesystem (NFS, ext3, gluster), senza e con dCache, con file e blocksize di diverso tipo, a livello di sistema e di root, e con uso di PROOF Luciano M.Barone - Sapienza Roma Bari 12-11-2015 2

Luciano M.Barone - Sapienza Roma Data access (2) Risultati tempo aggregato di accesso a file > 2 GB ottimale in dCache, tempo diretto di accesso ottimale con ext3 (ovviamente), Gluster sfavorito uso di Workers in PROOF satura il throughput per Nw > 40 sia in dCache che in Gluster, molto prima con ext3 molti altri dati disponibili in report Luciano M.Barone - Sapienza Roma Bari 12-11-2015 2

Cloud facilities @ Roma1 Cloud Computing per servizi o elaborazione dati Due sistemi di cloud separati (uno di produzione e uno di development) con OpenStack IceHouse e Kilo VLAN-based Network node con connessioni a 10 Gbps Compute nodes con connessioni a 1 Gbps Infrastruttura condivisa di storage basata su gluster (3.7) Accesso standard via FUSE Accesso privilegiato tramite libgfapi, pieno supporto in OpenStack tramite i volumi cinder Lo storage gluster è ulteriormente condiviso con la sede di Napoli, con replica sincrona via WAN (vedi il talk di Napoli sul prototipo di Tier2 distribuito) Prototipo di cluster Ceph, in fase di test 5

Cloud facilities @ Roma1 [2] oVirt 6

Infrastruttura di base e storage Gestione integrata delle macchine tramite Foreman/Puppet Istanza di Foreman/Puppet centrale, usata sia per le macchine reali che per le macchine nella cloud Contestualizzazione delle macchine tramite cloud-init e Foreman/Puppet Test con alcuni sistemi di deployment automatico diverso Staypuft (Foreman installer): fallito, prodotto ancora non stabile Ansible/Kollaglue (OpenStack in Docker): in fase di test Packstack Puppet Storage per lo più basato su Gluster SAN dedicata da 40 TB Gluster 3.7 / nfs-ganesha Condivisa con i servizi di oVirt 7

Tier2 Distribuito NA-RM Lo storage locale è stato connesso parzialmente ad una macchina analoga a Napoli, tramite GlusterFS Replica sincrona dei dati su VLAN dedicata punto-punto Simulzione di centri distanti O(1000) km e fine tuning dei filesystem e di GlusterFS per sopportare alte latenze Live migration di VM da un centro ad un altro (wire-speed solo RAM), utilizzando la replica sincrona e lo storage distribuito Configurazione GlusterFS multi homed (multi-IP) per essere utilizzata allo stesso momento su VLAN different e IP diversi sugli stessi server, a seconda delle storage area necessarie Preparazione all’estensione della Cloud già presente a Roma al Tier-2 distribuito 8

Sistemi in HA e monitoring Database Basato su Percona XtraDB Cluster in produzione con replica in WAN Servizi critici in HA Controller della Cloud in VM ospitata in oVirt, configurata in HA Altri servizi critici Grid e di esperimento (splitter di calibrazione, ATLAS Installation System, testbed di DPM, …) ospitati in oVirt in configurazione HA e con storage condiviso (glance) con OpenStack Altri servizi più dinamici (WN, UI, Squid) ed “elasticizzabili” ospitati nella Cloud Monitoring Standard Nagios/Ganglia per i servizi nelle VM della cloud e per gli hypervisor Introduzione di ELK (Elasticsearch-Logstash-Kibana) per l’analisi dei log Host di ELK in oVirt, servizi in HA 9

Sviluppi futuri sulla Cloud Storage Introduzione di CEPH ed estensione/test anche al Tier2 distribuito Infrastruttura di cloud Ulteriori studi con LBaaS e AutoScaling verso il basso Estensione della cloud mono-cella e poi multi-cella al Tier-2 distribuito 1010