C. Aiftimiei INFN-CNAF/SDDS Quest'opera è distribuita con Licenza Creative Commons Attribuzione - Non commerciale - Condividi allo stesso modo.

Slides:



Advertisements
Presentazioni simili
Prospettive dei servizi cloud in ENEA-GRID
Advertisements

OpenStack User Group Italia
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
1 STATO DELLINTEGRAZIONE TRA I 4 PROGETTI AVVISO 1575/2004 ATTIVITA DEL GRUPPO TECNICO OPERATIVO Riunione del Comitato Tecnico sullInteroperabilità MUR,
La facility nazionale Egrid: stato dell'arte Egrid-Team Trieste, 9 ottobre 2004.
Gruppo Directory Services Rapporto dell'attivita' svolta - Marzo 2000.
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
1 M. Biasotto – Legnaro, 22 Dicembre 2005 Prototipo Tier 2 di Legnaro-Padova INFN Legnaro.
Terminal Services. Sommario Introduzione al Terminal Services Introduzione al Terminal Services Funzioni di un Terminal Server in una rete Windows 2000.
Servizi Grid ed agenti mobili : un ambiente di sviluppo e delivering
FESR Trinacria Grid Virtual Laboratory ADAT (Archivi Digitali Antico Testo) Salvatore Scifo TRIGRID Second TriGrid Checkpoint Meeting Catania,
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
Dischi in RAID  Redundant Array of Independent Disk Configurazione che permette di combinare più dischi secondo obiettivi di performance e ridondanza.
Servizio Sistema Informativo - Area Gestione Sistemi e Sicurezza – LNF – Dael Maselli Area Gestione Sistemi e Sicurezza LNF Plenaria Servizio Sistema Informativo.
Extreme Cluster Administration Toolkit Alberto Crescente, INFN Sez. Padova.
Servizio Sistema Informativo - Area Gestione Sistemi e Sicurezza – LNF – Dael Maselli Area Gestione Sistemi e Sicurezza LNF Plenaria Servizio Sistema Informativo.
Condor standard. Sistema Batch. Tool di installazione D. Bortolotti,P.Mazzanti,F.Semeria Workshop Calcolo Paestum 9-12 Giugno 2003.
LNF Farm E. V. 9/8/2006. Hardware CE, LCFG, HLR, 3 WN: DL 360 1U; SE: DL 380 2U 5 WN: BL 25 P In totale 25 jobs general purpuse (coda Atlas) + una coda.
Servizio Sistema Informativo - Area Gestione Sistemi e Sicurezza – LNF – Dael Maselli Area Gestione Sistemi e Sicurezza LNF Plenaria Servizio Sistema Informativo.
L. Servoli - CCR Roma 15 marzo Il progetto High Availability D. Salomoni - CNAF L. Servoli - INFN Perugia.
Layered Grid Architecture. Application Fabric “Controlling elements locally”: Access to, & control of, resources Connectivity “Talking to Grid elements”:
Alessandro Tirel - Sezione di Trieste Storage Area Network Riunione gruppo Storage Padova, 5 ottobre 2005.
CMS 1 M. Biasotto – Bologna 20/01/2005 Infrastruttura di calcolo per CMS-Italia M.Biasotto – INFN Legnaro e i gestori dei centri CMS Italia.
Servizio Sistema Informativo - Area Gestione Sistemi e Sicurezza – LNF – Dael Maselli Area Gestione Sistemi e Sicurezza LNF Plenaria Servizio Sistema Informativo.
Licensed under Creative Commons Attribution 3.0 License / ShareGrid Idee per prospettive future
Davide Benvegnù Introduzione a Visual Studio Online #VSOIntro.
ATLAS PRIN Alessandro De Salvo A. De Salvo – 12 novembre 2015 Cloud Computing Condivisione di risorse tra gruppi EventIndex LHCONE PoD T2D.
BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015.
Servizio Calcolo Alessandro Brunengo. Indice Attivita’ del servizio calcolo Infrastruttura (sala CED, rete) Servizi centrali Supporto al calcolo scientifico.
Report R.Gomezel CCR dicembre 2006 Roma.
Roberto Covati – Roberto Alfieri INFN di Parma. Incontri di lavoro CCR dicembre Sommario VmWare Server (in produzione dal 2004) VmWare ESX.
Un'infrastruttura per il Paese: il progetto SUNFISH Francesco Paolo Schiavo Luca Nicoletti Sede Sogei Roma, 5 Aprile 2016 C.
Open City Platform è un progetto finanziato da Application Store Tutorial 30/09/2015.
Riunione PRIN STOA - Bologna - 18 Giugno 2014 Testbed del T2 distribuito Napoli-Roma Dr. Silvio Pardi INFN-Napoli Riunione PRIN STOA – Bologna 18 Giugno.
C ontrol system based on a H ighly A bstracted and O pen S tructure 1 WP5 !CHAOS Computing Storing and Access Policy WP5 !CHAOS Computing Storing and Access.
XzelCloud Cloud Advanced Services on large-scale Federated Infrastructures Call ICT-7 (23 Apr ‘14) Marco Verlato (INFN-PD)
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
WP11 Stato avanzamento lavori CTS - Bologna - 27/03/2015.
Claudio Grandi Workshop CCR 2015 Claudio Grandi INFN Bologna.
Workshop della Commissione Calcolo e Reti 28 Maggio 2013 Federazione di risorse Cloud con CLEVER 1.
Servizi Nazionali INFN
OpenShift Origin – Cosa è
Claudio Grandi Comunicazioni Claudio Grandi INFN Bologna.
High Avaliability with RHCS HA INFN CNAF 22 Marzo 2006 Bologna Ricci Pier Paolo, on behalf of INFN TIER1 Staff
DA e controlli DAFNE Riccardo Gargana Frascati 13/12/ /12/13.
 Cenni su switch e vlan  Layout fisico per la rete della cloud  Layout virtuale dei computing nodes  Layout virtuale del nerwork node  Riassunto.
Worker node on demand: le soluzioni Andrea Chierici INFN-CNAF CCR 2009.
Open City Platform: i primi risultati Riunione CCR, 16 settembre 2015 Luciano Gaido.
The long road to Juno Matteo Panella ( INFN-CNAF/SDDS) On behalf of the team Quest'opera è distribuita con Licenza Creative Commons.
Open City Platform: stato del progetto Workshop CCR, Trento, 17 marzo 2016 Luciano Gaido.
INFN—Catania Giuseppe Andronico Bologna, 23 Gennaio 2014.
Netgroup (Rapporto di aggiornamento alla Commissione) Stefano Zani (INFN CNAF) CCR Roma, Ottobre 2013.
Martedi 8 novembre 2005 Consorzio COMETA “Progetto PI2S2” UNIONE EUROPEA Accesso all’infrastruttura Grid del Consorzio COMETA Grid Open Day alla Facoltà.
Attività Gruppo Virtualizzazione Andrea Chierici CNAF CCR
EEE e Cloud Enrico Fattibene, Andrea Ferraro INFN – CNAF Workshop di CCR sull'Infrastruttura Cloud 15 Dicembre 2014 Quest'opera è distribuita con Licenza.
Domenico Elia1CdG Tier1-Tier2 / CNAF ALICE Tier2 sites Domenico Elia CdG Tier1-Tier2 Bologna, 15 Aprile 2015  Infrastruttura e risorse, coordinamento.
DNS HA
Open City Platform: IaaS installazione automatica Cristina Aiftimiei, INFN-CNAF 25/09/2015.
Sviluppo Tools Automatic Deployment IaaS OCP Cristina Aiftimiei (INFN-CNAF) AG del 26/03/2015.
Sviluppo Tools Automatic Deployment IaaS OCP - status report - Cristina Aiftimiei (INFN-CNAF) CTS, 05/06/2015.
OpenShift Origin Architecture Componenti I due elementi base della piattaforma sono il Broker ed il/i Node/s. il server Broker è un’applicazione Rail che.
OR 1 & OR 2 Stato avanzamento lavori Cristina Aiftimiei (INFN-CNAF) CTS - Bologna - 09/10/2015.
Attività Gruppo Virtualizzazione Andrea Chierici CNAF Riunione CCR
!CHAOS e Cloud Enrico Fattibene INFN-CNAF
Matteo Panella PCM !CHAOS 7 Luglio 2015
OR 1 & OR 2 Stato e piano attività Cristina Aiftimiei (INFN-CNAF)
PRIN Roma1 – status Luciano Barone, Alessandro De Salvo
CNAF e Nuvole Comitato Tecnico del CNAF
INFN-TS INFN - Sezione di Trieste - C. Strizzolo - L. Strizzolo.
Transcript della presentazione:

C. Aiftimiei INFN-CNAF/SDDS Quest'opera è distribuita con Licenza Creative Commons Attribuzione - Non commerciale - Condividi allo stesso modo 3.0 Italia.

Overview Introduzione Casi d’uso Struttura attuale futura –

Introduzione Infratruttura (*) Nata dall’attivita’ svolta da un gruppo trasversale: ▪Rete, Servizi Nazionali, Storage, Farming, R&D Obiettivi: ▪creare una cloud per i vari casi d’uso del CNAF: oProvisioning VM per i reparti del CNAF ❑ Backend per provisioning di VMs ad altri servizi/processi del CNAF (Jenkins, LBaaS) ❑ Provisioning VM per servizio Supporto Utenti (VOBox-like) oProvisioning di VM per il personale del CNAF oProvisioning di VM per personale esterno oVM per esperimenti ❑ Integrazione DIRAC-OpenStack ❑ Accesso alle VM per pilot job – CMS ❑ Long Term Data Preservation oTutorial e corsi: 4 x 2014 (base, Lab. I, Lab. II, Lab. III)baseLab. ILab. IILab. III ~35 participants (*) P.Veronesi ” P.Veronesi ” 2 –

Utilizzi attuali 3 –

Use Cases: Utenti e Gruppi CNAF: ▪Middleware Developers: CI (jenkins + docker), testing software (deployment, carico). ▪docker-registry ▪CNAF staff: ogni utente ha un tenant personale. Progetti: ▪EEE: infrastruttura per analisi, archiviazione e scambio dati tra scuole ▪!CHAOS: test di soluzioni per casi d’uso del progetto ▪CMS: creazioni immagini, possibili test cluster-on- demand 4 –

Uso: Middleware developers – CNAF - 27 Marzo Build software su VM con environment differenti (EL5, EL6, Debian6, Java6, Java7) Nodi provisioned e configurati tramite Puppet Deployment in CI di VOMS e StoRM ▪Verifica installazione clean e update ▪Test di funzionalità ▪Recentemente ->Docker oVantaggi: ❑ Velocità di deploy ❑ Isolamento docker-registry ▪docker.cloud.cnaf.infn.it ▪a (git) repository for images ▪Private

Uso – EEE Numeri: ▪47 telescopi in totale (3 INFN, 2 CERN) ▪300 MB raw/giorno/telescopio o55 TB in 5 anni (raw e ricostruiti) CNAF per EEE: ▪Raccolta dati (BTSync) ▪Fornitura risorse (VM) per l’analisi dei dati oFE, Report Server, oVM di analisi (“VO Manager’) ▪Gestione storage oVolumi GPFS via NFS 6 –

Statistiche uso attuale Utenti ▪57 utenti ▪(+ 5 utenti servizio O.S.) ▪57 tenant ▪O.S. services ▪EEE, !CHAOS (2) ▪Lifecycle ▪CMS, ISSS ▪Project-Middleware ▪STORM-distributed- testbed Risorse virtuali ▪105 VCPUs ▪200 GB RAM 7 – VMs ▪53 instances ▪46 active ▪53 images o33 pubbliche o20 private Virtual Networks ▪51 networks ▪44 routers ▪52 floating IP

Struttura - Havana Openstack Havana – no HA, SSL per Horizon 1 Controller Node ▪Keystone, Glance (LVM), Heat, Horizon, Ceilometer, MySQL, QPID ▪2x8 HT (32) Intel(R) Xeon(R) CPU E GHz, 64 GB di RAM 1 Network Node ▪Neutron con OVS + VLAN ( ) ▪2x6HT (24) Intel(R) Xeon(R) CPU E GHz, 64 GB di RAM 4 x Compute Node ▪Nova per KVM/QEMU ▪2 x 8 core AMD con 64 GB RAM per nodo (tot: 64 core e 256 GB di RAM) Storage condiviso (PowerVault + 2 server GPFS) ▪16 TB su GPFS per backend di Nova 1 Web Proxy per la dashboard 8 –

Utilizzi pianificati 9 –

Use Case: !CHAOS Una “cloud” di controlli ▪Il progetto prevede la creazione di un prototipo di Control as a Service ovvero il deployment dell’applicazione !CHAOS (controllo remoto dei acceleratori) su cloud. Obbiettivi ▪Deploy-are su Cloud il software specifico (CDS e MDS) e elementi generali (FS, cluster Mongo e Couchbase). oDeploy-abile on- demand e dimensionato a seconda di certi parametri scelti da un utente (Heat). oLavoro su ridondanza geografica dei servizi ed eventualmente su autoscaling dell'infrastruttura. 10 –

Progetti CNAF “Corporate” Cloud (AKA Cloud Multi-Regione) (link)link ▪parte integrante dell'attività del Cloud-WG della CCR oDocumento tecnico per l’implementazione di una infrastruttura omogenea per l’hosting di servizi (IaaS e PaaS) ❑ Focus - resource replication, distribution and high availability ❑ Cloud Management Authentication/authorization (LDAP/AAI) Distributed Object Storage Instance & Image management Monitoring & Syslog Infrastructure Automation (Puppet/Foreman/Docker) ❑ Roadmap: June 2015 – first testers Sept working and functional prototype oDocumento strategico sulle Cloud nell’INFN (link)link ❑ Parte dagli use cases Central & Local Computing, Scientific Computing, Support to analysis ❑ Compatibile con Cloud eterogenee e sistemi “esterni” (ad esempio Cloud congiunte con Università) 11 –

Progetti CNAF OCP ▪Studio, sviluppo e test di soluzioni tenologiche open source per Cloud per le PA Oltre a testare i componenti sviluppati in OCP di particolare interesse: Procedure d’installazione & configurazione automatica – Puppet/Foreman Test configurazione CEPH INDIGO - Presentazione Davide ▪Develop a data/computing platform targeted at scientific communities, deployable on multiple hardware, and provisioned over hybrid (private or public) e-infrastructures ▪Providing the interface between e-Infrastructures and Platforms ▪Provide high-level access to the platform services in the form of science gateways and access libraries Prospettive Future ▪Container provisioning & orchestration (presentaz Andrea per detagli) oDOCKER oOS minimale 12 –

Struttura - Juno OpenStack Juno – HA & SSL 2 x Controller Node – HA active/active per tutti i servizi ▪Keystone, Heat, Horizon, Ceilometer, Neutron server, Trove ▪HAProxy & Keepalived x API ▪Glance & Cinder ▪2 x 8 core AMD Opteron 2.8GHz con 64 GB RAM 2 x Network Node – HA active/active parziale (DHCP agent in active/active, L3 agent in hot standby) ▪Neutron che utilizza 50 VLAN ( ) ▪LinuxBridge con VLAN ▪2x6 HT (24) Intel(R) Xeon(R) CPU E GHz, 64 GB di RAM 4 x Compute Node => + 4 Compute-Node Havana = 128 CPU + ~500GB RAM ▪Nova per KVM/QEMU, LinuxBridge agent ▪2 x 8 core AMD Opteron 2.8GHz con 64 GB RAM Storage condiviso (PowerVault + 2 server GPFS) ▪16TB su GPFS per backend di Nova (instances), Glance (images), Cinder (volumes) 1 Web Proxy per la dashboard Cluster MySQL Percona XtraDB ▪3 x MySQl servers, RabbitMQ, MongoDB & Zookeeper (per Ceilometer) o2 x 8 core AMD Opteron 2.8GHz con 64 GB RAM ▪2 x HAProxy & Keepalived per il cluster MySQL, Active/Passive oVM su oVirt D.C. Prod 13 –

Roadmap & Attivita’ Roadmap ~14 Aprile –> Pre-Prod infrastruttura pronta per “stress- test” Test validazione fatti ad ogni step ▪+ 5 giorni -> Prod oTestsuite automatiche ❑ Rally - OpenStack Tempest Testing Made Simple(r) Rally ▪Maggio -> migrazione utenti Attivita’ ▪cloud-ops – esperti, riunioni ogni due settimanali (?) oConfigurazioni Rete & Storage oDefinizione procedure accesso CNAF oDefinizione procedure “endorsement” e aggiornamento immagini ▪Knowledge Base oWiki, Mailing Lists, supporto utenti, documentazione 14 –

Domande 14

BACKUP SLIDES 16

Struttura - Havana - 17 nova07 GPFS nova06 GPFS nova05 GPFS nova04 GPFS gpfs01-p (primary) gpfs02-p secondary nova.cloud.cnaf.infn.it /24 cloudctrl-02 cloud-net01 PowerVault MD3660i 4LUN x 4TB PowerVault MD3660i 4LUN x 4TB /24 Keystone Dashboard Neutron Server Glance (LVM) Ceilometer/MongoDB Heat API (nova, heat, glance, ceilometer) MySQL & QPID OVS server & agent + VLAN L3 agent DHCP agent Metadata server VLAN: bd8810 sw /.2 4x10Gb 4x1Gb gpfs01 gpfs eth0 VLAN eth1 eth2 1Gb

Struttura - Juno - 18 nova04 GPFS nova03 GPFS nova02 GPFS nova01 GPFS gpfs01-p (primary) gpfs02-p secondary nova.cloud.cnaf.infn.it /24 cloud-juno-ctrl02 PowerVault MD3660i 4LUN x 4TB PowerVault MD3660i 4LUN x 4TB /24 Keystone Dashboard Neutron Server Glance & Cinder Ceilometer/MongoDB Heat API (nova, heat, glance, ceilometer) cloud-juno-net01 LinuxBridge agent + VLAN L3 agent DHCP agent Metadata server VLAN: bd8810 sw /.2 4x10Gb 4x1Gb gpfs01 gpfs GPFS cloud-juno-ctrl01 Keystone Dashboard Neutron Server Glance & Cinder Ceilometer/MongoDB Heat API (nova, heat, glance, ceilometer) GPFS eth0 eth1 VLAN mycls01/02/03 MySQL RabbitMQ ha x 1Gb

Struttura - Juno (fase 2) - 19 nova04 GPFS nova03 GPFS nova02 GPFS nova01 GPFS gpfs01-p (primary) gpfs02-p secondary nova.cloud.cnaf.infn.it /24 cloud-juno-ctrl02 PowerVault MD3660i 4LUN x 4TB PowerVault MD3660i 4LUN x 4TB /24 Keystone Dashboard Neutron Server Glance & Cinder Ceilometer/MongoDB Heat API (nova, heat, glance, ceilometer) cloud-juno-net01 LinuxBridge agent + VLAN L3 agent DHCP agent Metadata server VLAN: bd8810 sw /.2 4x10Gb 4x1Gb gpfs01 gpfs GPFS cloud-juno-ctrl01 Keystone Dashboard Neutron Server Glance & Cinder Ceilometer/MongoDB Heat API (nova, heat, glance, ceilometer) GPFS eth0 eth1 VLAN mycls01/02/03 MySQL RabbitMQ ha x 1Gb

Struttura - Juno (fase 2) - 20 nova04 GPFS nova03 GPFS nova02 GPFS nova01 GPFS gpfs01-p (primary) gpfs02-p secondary nova.cloud.cnaf.infn.it /24 cloud-juno-ctrl02 PowerVault MD3660i 4LUN x 4TB PowerVault MD3660i 4LUN x 4TB /24 Keystone Dashboard Neutron Server Glance & Cinder Ceilometer/MongoDB Heat API (nova, heat, glance, ceilometer) cloud-juno-net01 LinuxBridge agent + VLAN L3 agent DHCP agent Metadata server VLAN: x10Gb gpfs01 gpfs GPFS cloud-juno-ctrl01 Keystone Dashboard Neutron Server Glance & Cinder * Ceilometer/MongoDB Heat API (nova, heat, glance, ceilometer) * GPFS eth0 eth1 VLAN mycls01/02/03 MySQL RabbitMQ ha x 1Gb VDX