Infrastruttura cloud servizi realizzata nella Sezione di Napoli

Slides:



Advertisements
Presentazioni simili
RHCS XEN Cluster Dael Maselli – Workshop CCR – Maggio 2009.
Advertisements

Dael Maselli – Workshop CCR – Maggio  SAN  Red Hat Cluster Suite ◦ RedHat Enterprise, Scientific Linux o CentOS  XEN.
Roberto Covati INFN di Parma. Workshop CCR/INFN GRID Palau maggio Sommario VmWare Server (in produzione dal 2004 al 2008) VmWare Infrastructure.
Roberto Covati – Roberto Alfieri INFN di Parma. Incontri di lavoro CCR dicembre Sommario VmWare Server (in produzione dal 2004) VmWare ESX.
Riccardo Veraldi, CCR Dic 2008 Xen Problematiche sulla virtualizzazione.
DA e controlli DAFNE Riccardo Gargana Frascati 13/12/ /12/13.
Attività Gruppo Virtualizzazione Andrea Chierici CNAF CCR
CCR - Roma 15 marzo 2007 Gruppo storage CCR Report sulle attivita’ Alessandro Brunengo.
Alessandro Tirel - Sezione di Trieste Storage servers & TCP Tuning Proposta di studio delle problematiche connesse alla fornitura di servizi di storage.
Virtualizzazione nell’INFN Andrea Chierici 11 Dicembre 2008.
Attività Gruppo Virtualizzazione Andrea Chierici CNAF Riunione CCR
CCR, LNF ott 2011 Proposte assegnazioni server & storage L. Carbone, A. Gianoli, M. Serra.
Gruppo Netarch Incontro di lavoro della CCR Napoli gennaio 2010 Connessioni Tier1/Tier2 a GARR-X 1 GM, Incontro di lavoro della CCR – Napoli
Dynamic Farm Espansione Dinamica di una Farm Vincenzo Ciaschini CCR 31/3/2015.
PRIN NAPOLI Enzo Capone, Gianpaolo Carlino, Alessandra Doria, Rosario Esposito, Leonardo Merola, Silvio Pardi, Arturo Sanchez Pineda.
FSUG Padova – Serate a tema 2010 Serate a tema 2010 Sistemi di Virtualizzazione Come la virtualizzazione può far risparmiare parecchio tempo e denaro nella.
Giuditta Cantoni, 4 E S.I.A I DATABASE. Definizione databese In informatica, il termine database, banca dati o base di dati (a volte abbreviato con il.
1 14 marzo 2006 sommaruga andrea Fondazione Ordine Ingegneri di Milano VPN: Reti Private Virtuali VPN: RETI PRIVATE VIRTUALI LE POSSIBILITA' DI ACCESSO.
Università degli Studi - “ G. d'Annunzio ” Chieti - Pescara FACOLTÀ DI ECONOMIA Corso di laurea in Economia Informatica/s Seminario di: Giovanni Placentino.
Ingegneria Dalmine "Impianti Informatici" CLOUD - 1 Introduzione al Cloud Computing M.Arrigoni Neri.
AFS NELLA SEZIONE DI PADOVA aree_utenti: attualmente nessuno ha la proria home in AFS e quasi nessuno utilizza l'area utenti di AFS. /usr/local: si preferisce.
Acquisti TIER T2 team e Pistoni per la consulenza sull’hardware.
20-21/03/2006Workshop sullo storage - CNAF Alessandro Brunengo.
Ing. Christian Barberio
OLPC-Italia Brescia 16 Ottobre 2008.
Riccardo Veraldi - Massimo Donatelli CCR 3-4 Marzo 2008
Vulnerability Assessment
Gestione Farm Tema centrale della sessione: utilizzo del batch- system nelle varie sedi T1 e T2, ma anche altre farm grid e farm di sezione requirements,
Gestione Farm Tema centrale della sessione: utilizzo del batch-system nelle varie sedi T1 e T2, ma anche altre farm grid e farm di sezione requirements,
dCache Test effettuati al CNAF
CCR Servizi Nazionali settembre 2016 Stefano Longo (CNAF)
CARATTERISTICHE DI UN DATACENTER
Servizio Calcolo Alessandro Brunengo.
Virtualizzazione Server by Linux
INFN-Bari.
Tavola rotonda sulla Virtualizzazione
Ambiente di testbed OCP per Regione Marche
Breve report su corso RedHat Enterprise Virtualization (RH318)
Cloud per HA nei Servizi
Attivita’ e compiti del Servizio Impianti Calcolo e Reti
PRIN Roma1 – status Luciano Barone, Alessandro De Salvo
The Virtual Machine Monitor Introduzione. Installazione. Utilizzo.
Stato Acquisti Switch/Router T2
Referaggi SST Riunione settembre 2017
KVM QEMU Virtual Machine Manager Massimo Nuvoli
Nuove funzionalità e futura implementazione nella Sezione di Trieste
INFN-TS INFN - Sezione di Trieste - C. Strizzolo - L. Strizzolo.
Strutture informatiche e servizi nazionali
Stato dei lavori E. P..
Espansione dei CORE switch del TIER1
Gruppo Proxmox ImoLUG: vedere provare condividere
R.Gomezel Commissione Calcolo e Reti CNAF
Referaggio apparati di rete 2014 Anticipi ottobre su fondi 2013
ai termini e ai principi informatici utili per utilizzare Linux
Report giornata di Technology tracking
analizzatore di protocollo
Virtualizzazione desktop e server
MODULO 1 – Computer essentials
Windows Admin Center La rivoluzione della gestione di Windows Server
Progetto di Tecnologie Web 2014/2015 THERMOWEB
© 2007 SEI-Società Editrice Internazionale, Apogeo
Unità D1 Architetture di rete.
I servizi di backup locale e backup in cloud
Il registro elettronico e gli archivi cloud
IA2 Massimo Sponza IA2 – Osservatorio Astronomico di Trieste 2018 ICT Workshop - Catania.
ATLAS PRIN Roma1 - status Alessandro De Salvo
Preventivi CCR 2018 INFN Roma Tor Vergata.
Commissione Calcolo e Reti
CLOUD.
Asset management al Tier1
Transcript della presentazione:

Infrastruttura cloud servizi realizzata nella Sezione di Napoli Paolo Lo Re, CCR 26 ottobre 1012

Centralizzazione e virtualizzazione di tutti i Servizi informatici di Sezione: Infrastructure as a Service (IaaS) P. Lo Re, CCR 26 ottobre 2012

Esigenze di partenza: perché una cloud? Situazione iniziale: macchine dedicate ciascuna a un servizio hardware obsoleto uso di varie piattaforme di virtualizzazione, eterogenee e non coordinate possibilità di riuso di hardware dismesso da farm, obsoleto per il calcolo intensivo ma potente e utile per i servizi P. Lo Re, CCR 26 ottobre 2012

Obbiettivi Gli obbiettivi da raggiungere nell’immediato: dismissione di hardware obsoleto e utilizzo di macchine più recenti e potenti consolidamento di tutte le piattaforme di virtualizzazione (VMware, ESXi, XEN, KVM) in una sola (KVM) alta affidabilità e fault tolerance prima impensabili P. Lo Re, CCR 26 ottobre 2012

Approccio adottato Si è scelta la virtualizzazione KVM perché è l’hypervisor meglio supportato dai moderni processori con virtualization support (come VT-x e NPT su Intel o AMD-V e EPT su AMD). Si è adottato Scientific Linux 6.2 per disporre dell’ultima versione di KVM e anche del KSM (una feature di duplicazione che permette a più guest di condividere pagine di memoria) P. Lo Re, CCR 26 ottobre 2012

Soluzioni tecniche Soluzioni tecniche adottate: Sottosistema di storage basato su GlusterFS realizzato con 2 server in mirroring hypervisor KVM con libvirt VM realizzate tramite file in formato qcow2 ospitate sui volumi Gluster connessioni e apparati di rete totalmente ridondati separazione logica del traffico dati e del traffico da/verso lo storage tramite VLAN private. P. Lo Re, CCR 26 ottobre 2012

Hardware - 1 Inizialmente l’hw adottato era costituito da 3 execution node con Scientific Linux 6.2 e KVM 2 storage server con Gluster FS 1 switch con connessioni alle varie macchine in trunk per supportare il transito di VLAN separate P. Lo Re, CCR 26 ottobre 2012

Hardware - 2 Grazie ad un finanziamento CCR l’hardware è diventato: 2 execution node (48 + 24 core) con dischi in RAID 1 2 storage server (12 + 12 core con 20 + 20 Tbyte) con dischi in RAID 5 50-60 VM, ognuna dedicata ad un servizio; sta per essere migrata la mail (6 VM) P. Lo Re, CCR 26 ottobre 2012

Software Sono stati sviluppati vari script ad hoc per: semplificare la creazione di nuove macchine virtuali distribuire automaticamente il carico sui vari esecutori migrare rapidamente una VM ripristinare le VM nel caso di caduta di un esecutore, facendole ripartire sugli altri esecutori disponibili P. Lo Re, CCR 26 ottobre 2012

Conclusioni - 1 Pregi dell’infrastruttura realizzata ed in produzione: grande economicità, perché tutto il software utilizzato e' gratuito ed open-source alta affidabilità con fault tolerance molto spinta semplicità di provisioning delle VM. P. Lo Re, CCR 26 ottobre 2012

Conclusioni - 2 “Difetti” riscontrati sul campo: Alcune criticità nel tuning di GlusterFS Prestazioni di disk I/O delle singole VM limitate a circa 30 MByte/s (nella configurazione vecchia; con il nuovo hardware che ha 4 o 6 porte Gbps Eth le prestazioni salgono di parecchio, ma non dispongo ora di misure) Sistema di snapshot non efficiente (può causare glitch o caduta della VM). P. Lo Re, CCR 26 ottobre 2012