ATLAS PRIN Roma1 - status Alessandro De Salvo

Slides:



Advertisements
Presentazioni simili
ATLAS PRIN Alessandro De Salvo A. De Salvo – 12 novembre 2015 Cloud Computing Condivisione di risorse tra gruppi EventIndex LHCONE PoD T2D.
Advertisements

BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015.
Riunione PRIN STOA - Bologna - 18 Giugno 2014 Testbed del T2 distribuito Napoli-Roma Dr. Silvio Pardi INFN-Napoli Riunione PRIN STOA – Bologna 18 Giugno.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
Sviluppo Tools Automatic Deployment IaaS OCP - status report - Cristina Aiftimiei (INFN-CNAF) CTS, 05/06/2015.
Virtualizzazione nell’INFN Andrea Chierici 11 Dicembre 2008.
CCR, LNF ott 2011 Proposte assegnazioni server & storage L. Carbone, A. Gianoli, M. Serra.
Gruppo Netarch Incontro di lavoro della CCR Napoli gennaio 2010 Connessioni Tier1/Tier2 a GARR-X 1 GM, Incontro di lavoro della CCR – Napoli
1 GM, CCR, Roma 2 marzo 2010 Gruppo Netarch Riunione CCR Roma 2 marzo 2010 Relazione Gruppo NetArch.
INFN-AAI Stato dell’infrastruttura centrale Dael Maselli Workshop INFN CCR 2010.
Dynamic Farm Espansione Dinamica di una Farm Vincenzo Ciaschini CCR 31/3/2015.
PRIN NAPOLI Enzo Capone, Gianpaolo Carlino, Alessandra Doria, Rosario Esposito, Leonardo Merola, Silvio Pardi, Arturo Sanchez Pineda.
Attività PRIN STOA a Cagliari Alessandro De Falco Università/INFN Cagliari.
Ingegneria Dalmine "Impianti Informatici" CLOUD - 1 Introduzione al Cloud Computing M.Arrigoni Neri.
Alessandro De Salvo Status dei Tier2 di ATLAS Alessandro De Salvo
AFS NELLA SEZIONE DI PADOVA aree_utenti: attualmente nessuno ha la proria home in AFS e quasi nessuno utilizza l'area utenti di AFS. /usr/local: si preferisce.
Smart Cities and Communities and Social Innovation Bando MIUR D.D. 391/Ric. del 5 luglio 2012 SAL WP11 Validazione soluzioni cloud del progetto, con la.
Acquisti TIER T2 team e Pistoni per la consulenza sull’hardware.
VO-Neural Project e GRID Giovanni d’Angelo Dipartimento di Scienze Fisiche Università degli Studi di Napoli Federico II Martina Franca 12 – 23 Novembre.
Attività Big Data/Data Science in HEP (CERN e US)
!CHAOS e Cloud Enrico Fattibene INFN-CNAF
Infrastruttura cloud servizi realizzata nella Sezione di Napoli
SCoPE - Stato dei Lavori
Status Report Gruppo Storage CCR CCR 14-15/03/2006.
Summary di (quasi) tutti gli utenti non presentati…
dCache Test effettuati al CNAF
CCR Servizi Nazionali settembre 2016 Stefano Longo (CNAF)
Vito Flavio Lorusso – Senior SDE - Microsoft
!CHAOS: un prototipo nazionale di infrastruttura open source per il controllo di sistemi distribuiti. 101° Congresso Nazionale della Societa' Italiana.
Monitoring e loadbalancing dei servizi Grid
Comput-ER l'infrastruttura di calcolo distribuito in Emilia Romagna
OR 7 - STUDIO DI METODOLOGIE E STRUMENTI PER LA TRASFORMAZIONE DEI SERVIZI APPLICATIVI, BASATI SULLE COMPONENTI FORNITE DALLA PAAS Stato avanzamento /
SAL WP11 Bologna – CNAF – 5 Giugno 2015.
Studio di metodologie e sviluppo di MiddleWare per interoperabilità
Ambiente di testbed OCP per Regione Marche
Breve report su corso RedHat Enterprise Virtualization (RH318)
Risultati ultimi mesi Piano di lavoro prossimi mesi Reclutamento
Matteo Panella PCM !CHAOS 7 Luglio 2015
Cloud per HA nei Servizi
Attivita’ e compiti del Servizio Impianti Calcolo e Reti
PRIN Roma1 – status Luciano Barone, Alessandro De Salvo
Stato Acquisti Switch/Router T2
L’INFN per il Collaborative esteso e distribuito Alessandro De Salvo
INDIGO-DataCloud MidnightBlue Tutorial Days
Bando MIUR Smart Cities and Communities and Social Innovation
OR 7 - STUDIO DI METODOLOGIE E STRUMENTI PER LA TRASFORMAZIONE DEI SERVIZI APPLICATIVI, BASATI SULLE COMPONENTI FORNITE DALLA PAAS Stato avanzamento /
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
Analisi dei dati dell’Esperimento ALICE
Nuove funzionalità e futura implementazione nella Sezione di Trieste
ATLAS-Italia Tier-3 Dario Barberis Università e INFN Genova
Attvità Computing – Inverno 08/09
(Breve) Riassunto del workshop WLCG
INFN-TS INFN - Sezione di Trieste - C. Strizzolo - L. Strizzolo.
Gruppo WebTools Workshop CCR – 12 Giugno 2008 Dael Maselli – INFN LNF.
Condivisione Documentazione Tecnica
Luciano Gaido (INFN - Torino) Workshop CCR/INFNGRID – Palau
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
ATLAS PRIN Next Steps Alessandro De Salvo
Eurosoftware Integrazione GLS.
Job Application Monitoring (JAM)
Risultati del questionario sui servizi middleware aggiuntivi
Fedora 21 – presente e futuro
Gruppo WebTools Workshop CCR – 12 Giugno 2008 Dael Maselli – INFN LNF.
Windows Admin Center La rivoluzione della gestione di Windows Server
Smart City.
Job Management Systems ovvero
Il registro elettronico e gli archivi cloud
SAGE – Un sistema per l’accounting dello storage in gLite
Sistemi di supporto.
CLOUD.
Transcript della presentazione:

ATLAS PRIN Roma1 - status Alessandro De Salvo 18-06-2014 A. De Salvo – 18 giugno 2014

Cloud facilities @ Roma1 Cloud Computing per servizi o elaborazione dati Due sistemi di cloud separati (uno di produzione e uno di development) con OpenStack 2014.1 (codename Icehouse) VLAN-based Network node con connessioni a 10 Gbps Compute nodes con connessioni a 1 Gbps Infrastruttura condivisa di storage basata su gluster (3.4) Accesso standard via FUSE Accesso privilegiato tramite libgfapi, pieno supporto in OpenStack tramite i volumi cinder Lo storage gluster è ulteriormente condiviso con la sede di Napoli, con replica sincrona via WAN (vedi il talk di Napoli sul prototipo di Tier2 distribuito) Prototipo di cluster Ceph disponibile e in attesa di primo utilizzo 2

Cloud facilities @ Roma1 [2] 3

Cloud facilities @ Roma1 [3] Gestione integrata delle macchine tramite Foreman/Puppet Istanza di Foreman/Puppet centrale, usata sia per le macchine reali che per le macchine nella cloud Intregrazione tra Foreman e cloud-init tramite un plugin sviluppato ad-hoc, a partire da un modulo iniziale del CERN Istanza di Foreman utilizzabile anche per altri siti di italiani, ove necessario Installazione dei sistemi di cloud tramite moduli preparatori custom di puppet + packstack I moduli puppetlabs-openstack hanno ancora dei problemi di stabilità Inizialmente utilizzavamo quei moduli, facendone estensioni customizzate 4

Status Infrastruttura di calibrazione di ATLAS migrata su OpenStack Lo splitter di calibrazione è stato integrato nella Cloud Servizi di calibrazione (DB, WebInterface, Submission facilities) Accesso alle code locali LSF Accesso alle altre facility locali di Roma (squid, NFS shares, ecc) Test per integrazione degli squid di Frontier Test di utilizzo dei servizi LBaaS (Load-Balancer as a Service) di OpenStack Qualche problema di stabilità e di performance in haproxy, in quanto Frontier invia moltissimi pacchetti di piccole dimensioni Haproxy può essere configurato per girare in multi-process mode, seppur perdendo la possibilità di connessioni persistenti Per fare questo bisogna editare i file di python di OpenStack, in quanto è HARDWIRED nel codice!!! 5

Status [2] Test di utilizzo dell’autoscaling Alcuni servizi possono giovare dell’autoscaling, in combinazione con l’LBaaS Squid DB cluster nodes Web services UI/WN ? … Sono stati iniziati i test preliminari per l’utilizzo di questa feature Il meccanismo funziona (dopo aver risolto un baco introdotto dalla configurazione di packstack, che inserisce un endpoint sbagliato in heat.conf) Facilmente integrabile con puppet per la (ri)configurazione on-the-fly Up-scaling funzionante in modo ottimale Down-scaling non triviale, soprattutto per macchine interattive Non è possibile definire a priori quale macchina verrà spenta dal down-scaling 6

Plans Storage Infrastruttura di cloud Test di gluster 3.5 [09/2014] Test di Ceph [12/2014] Test di sincronizzazione in WAN con aumento di latenza (Tier-2 distribuito NA-RM) [07/2014] Infrastruttura di cloud Finalizzazione dei test con LBaaS e AutoScaling [09/2014] Applicazione dei concetti di cui sopra a servizi reali, quali squid, DB cluster nodes, web services e nodi interattivi [12/2014] Estensione della cloud mono-cella al Tier-2 distribuito [08/2014] Estensione della cloud in un ambiente multi-cella (Tier-2 distribuito NA-RM) [12/2014] 7