CNAF 6 Novembre 2007. 2 Layout del testbed  wn-01-03-01-09-a OS SL5.0 8 GB RAM kernel 2.6.18-xen_3.1.0 SMP  wn-01-03-01-10-a OS SL5.0 8 GB RAM kernel.

Slides:



Advertisements
Presentazioni simili
Come scegliere un computer?
Advertisements

1 Introduzione ai calcolatori Parte II Software di base.
Gestione della memoria centrale
Unità D2 Archivi e file.
Il Consolidamento di Servizi Virtual Server 2005 PierGiorgio Malusardi Evangelist - IT Professional Microsoft.
Corso di Informatica Applicata - by Scardino Giuseppe Il PC MULTIMEDIALE Un PC con laggiunta di qualche optionalUn PC con laggiunta di qualche optional.
Hard disk.
Il Sistema Operativo.
Strutture dei Sistemi Operativi
Esercizi sulle architetture
Memorie.
Il Software: Obiettivi Programmare direttamente la macchina hardware è molto difficile: lutente dovrebbe conoscere lorganizzazione fisica del computer.
Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
File System NTFS 5.0 Disco: unità fisica di memorizzazione
Riunione CRESCO Infrastruttura HPC Cresco Analisi Preliminare.
Sistemi Operativi Distribuiti: indice
Software di base Il sistema operativo è un insieme di programmi che opera sul livello macchina e offre funzionalità di alto livello Es.organizzazione dei.
3. Architettura Vengono descritte le principali componenti hardware di un calcolatore.
UNIVERSITA’ STUDI DI ROMA “FORO ITALICO”
Corso di Laurea in Scienze e Tecnologie Chimiche corso di Informatica Generale Paolo Mereghetti DISCo – Dipartimento di Informatica, Sistemistica e Comunicazione.
Michele Michelotto INFN-Padova
Case study Maiora srl.
Il Calcolatore Elettronico
Modulo 1 - Concetti di base della Tecnologia dell'Informazione
ECDL Patente europea del computer
Software e sistema operativo 19-22/5/08 Informatica applicata B Cristina Bosco.
VIRTUALIZZAZIONE Docente: Marco Sechi Modulo 1.
Architettura di storage ad alta affidabilita e bilanciamento di carico per volumi centrali e di esperimento A.Brunengo, M.Corosu INFN Sezione di Genova.
Lezione 1 Approccio al sistema operativo : la distribuzione Knoppix Live Cd Knoppix 3.6 Interfacce a caratteri e grafica: console e windows manager File.
Esercitazioni I/O. Dischi: Esercizio 1 Si consideri un programma che legge blocchi di 2 KB da disco, esegue un’elaborazione su questi, e quindi li riscrive.
Forum PA 2007 – Roma, 21 maggio 2007 Server Consolidation, l’esperienza dell’Ateneo di Bologna Alessandro Cantelli CeSIA - Università di Bologna.
Works in progress.  Semplificazione e maggiore efficienza della gestione  Risparmio (nel medio periodo)  Riallocazione delle risorse (hardware e timesheet)
Riunione gruppo storage – Roma 05/05/2005 Test di affidabilita’ e performance a Genova Alessandro Brunengo.
SCHEDA INFORMATIVA DI UNITÀ. Introduzione Applicazione della gerarchia di memoria –Memoria cache fra la CPU e la memoria centrale Il processore vedrà.
Test Storage Resource Manager per SC4 Giacinto Donvito Vincenzo Spinoso.
RHCS XEN Cluster Dael Maselli – Workshop CCR – Maggio 2009.
Calcolatori Elettronici Valutazione delle Prestazioni Francesco Lo Presti Rielaborate da Salvatore Tucci.
1 Migrazione dei processi: Mosix. 2 Cosa è Mosix/OpenMOSIX ? OpenMOSIX è un è una patch del kernel di Linux che aggiunge funzionalit à avanzate di clustering.
Informatica Generale Marzia Buscemi
Workshop CCR Otranto - giugno 2006 Gruppo storage CCR Status Report Alessandro Brunengo.
Alessandro Tirel - Sezione di Trieste Storage Area Network Riunione gruppo Storage Padova, 5 ottobre 2005.
Hardware Struttura fisica (architettura) del calcolatore formata da parti meccaniche, elettriche, elettroniche.
Progetto Alta Affidabilità Leonello Servoli Workshop CCR, Otranto 8 giugno 2006.
Dael Maselli – Workshop CCR – Maggio  SAN  Red Hat Cluster Suite ◦ RedHat Enterprise, Scientific Linux o CentOS  XEN.
Istituto Comprensivo di Livigno BENVENUTI. Clemente Silvestri FONDAMENTI DI INFORMATICA.
I Microprocessori Unità 3 del libro Internet Working Sistemi e reti.
Il modello di Von Neumann
Roberto Covati INFN di Parma. Workshop CCR/INFN GRID Palau maggio Sommario VmWare Server (in produzione dal 2004 al 2008) VmWare Infrastructure.
Roberto Covati – Roberto Alfieri INFN di Parma. Incontri di lavoro CCR dicembre Sommario VmWare Server (in produzione dal 2004) VmWare ESX.
Gestione delle periferiche. Le periferiche sono dispositivi che permettono le operazioni di input/output.
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
Riccardo Veraldi, CCR Dic 2008 Xen Problematiche sulla virtualizzazione.
HARDWARE (2). MEMORIE Due classi di memoria MEMORIA CENTRALE –media capacità - ottima velocità MEMORIA DI MASSA elevata capacità - bassa velocità.
DA e controlli DAFNE Riccardo Gargana Frascati 13/12/ /12/13.
Presentazione WS del 23/10/2013 al CNAF: 0&resId=0&materialId=slides&confId=6920
Report sui Servizi nazionali dell’INFN (ai LNF) Massimo Pistoni febbraio 2014.
Hardware Struttura fisica (architettura) del calcolatore formata da parti meccaniche, elettriche, elettroniche.
Progetto iSCSI Report alla CCR 12-13/12/2006 Alessandro Tirel – Sezione di Trieste.
Aggiornamento sui lavori di ampliamento degli impianti infrastrutturali del TIER1 e stato delle risorse Cristina Vistoli – Massimiliano Fiore INFN-CNAF.
Attività Gruppo Virtualizzazione Andrea Chierici CNAF CCR
Test di storage a 10 Gbps proposta. Storage server a 10Gbps Si vuole vedere quali prestazioni si possano ottenere da server connessi a 10 GE –capacita’
Struttura del Computer
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
CCR - Roma 15 marzo 2007 Gruppo storage CCR Report sulle attivita’ Alessandro Brunengo.
Alessandro Tirel - Sezione di Trieste Storage servers & TCP Tuning Proposta di studio delle problematiche connesse alla fornitura di servizi di storage.
Il calcolo per l’esperimento GERDA Luciano Pandola INFN, Laboratori del Gran Sasso Riunione della CSN2, LNF Frascati, 29 Novembre 2011.
1 Le macchine di questo pool fanno parte di una lan privata (la 125 illustrata a pag.2), di cui t2cmcondor è il gateway. Sono presenti 3 macchine su rete.
Attività Gruppo Virtualizzazione Andrea Chierici CNAF Riunione CCR
Riccardo Veraldi - Massimo Donatelli CCR 3-4 Marzo 2008
Analisi di performance con Oracle su virtual machine
Transcript della presentazione:

CNAF 6 Novembre 2007

2 Layout del testbed  wn a OS SL5.0 8 GB RAM kernel xen_3.1.0 SMP  wn a OS SL5.0 8 GB RAM kernel el5PAE SMP  La lama wn a e' dedicata a XEN 2 macchine: xen24 e xen25  La lama wn a e’ dedicata a Vmware 2 macchine: vmware1 e vmware2  Le quattro macchine virtuali sono tutte biprocessore Intel(R) Xeon(R) CPU 2.00GHz 2 GB di RAM OS RHEL4U4 kernel ELsmp  Le macchine reali sono quadriprocessore

3 Filesystem per le immagini  Le immagini delle macchine virtuali sia per XEN sia per Vmware sono istallate sopra un filesystem GPFS 3.2 servito dalle due lame wn a e wn a mount point sulle macchine reali /gpfs_test Il file system e’ stato ricavato da due partizioni dei dischi locali delle macchine  Prestazioni di gpfs_test da macchina reale Scrittura di un file da 10 GB, bs=64k: throughput 0.93 Gb/s Lettura di un file da 10 GB, bs=64k: throughput 1.1 Gb/s  Prestazioni su filesystem locale da Vmware Scrittura di un file da 10 GB, bs=64k: throughput 0.35 Gb/s Lettura di un file da 10 GB, bs=64k: throughput Gb/s  Prestazioni su filesystem locale da XEN Scrittura di un file da 10 GB, bs=64k: throughput 0.49 Gb/s Lettura di un file da 10 GB, bs=64k: throughput 0.50 Gb/s

4 XEN  kernel e pacchetti XEN versione  Per quanto riguarda il network, abbiamo provato sia ioemu (che emula la scheda di rete in ambiente HVM) sia netfront (che permette di girare in domU driver paravirtualizzati, cioe' PV on HVM) Per usare netfront per la scheda di rete abbiamo dovuto compilare i driver PV xen-platform-pci, xen-balloon e xen-vnif, i cui sorgenti sono disponibili nei sorgenti xen 3.1.0

5 Test netperf con ioemu  netperf con test TCP_STREAM (tutto a default)  La macchina di origine e' indicata dalla prima colonna, mentre quella destinazione dalla prima riga  prestazioni della scheda di rete scadenti, sotto 100 Mbps XEN-HVMXEN-DOM0EXTERNAL XEN-HVM Gb/s Gb/s Gb/s XEN-DOM Gb/s 8.5 Gb/s 0.94 Gb/s EXTERNAL 0.36 Gb/s 0.94 Gb/s 8.5 Gb/s

6 Test netperf con netfront  Stesso test netperf  usando netfront per la scheda di rete e quindi moduli di rete paravirtualizzati nella macchina virtuale  le cose migliorano notevolmente e le prestazioni di rete di una macchina virtuale XEN diventano del tutto confrontabili con quelle di una macchina reale. XEN-PV-HVM-1XEN-PV-HVM-2XEN-DOM0EXTERNAL XEN-PV-HVM Gb/s 1.0 Gb/s 2.9 Gb/s 0.94 Gb/s XEN-PV-HVM Gb/s 8.8 Gb/s 2.9 Gb/s 0.94 Gb/s XEN-DOM0 4.4 Gb/s 8.5 Gb/s 0.94 Gb/s EXTERNAL 8.5 Gb/s

7 Vmware  Vmware Server  problema noto: perdita di scatti del clock della macchina virtuale in situazioni di grosso carico. l'orologio rallenta e la macchina rimane indietro nel tempo creando problemi a tutte le applicazioni che si basano sul tempo di clock Per ovviare a questo problema abbiamo istallato e configurato i vmware tools per sincronizzare il clock della macchina virtuale, aggiungendo nel file di configurazione della macchina virtuale tools.syncTime = "TRUE“ tools.syncTime.period = "1“ Queste impostazioni ri-sincronizzano il clock della macchina virtuale con quello della machina ospitante ogni secondo

8 Vmware ulteriori tuning  Abbiamo inoltre aggiunto alla configurazione delle macchine vmware MemTrimRate = "0“ sched.mem.pshare.enable="FALSE“ mainMem.useNamedFile="FALSE“  In particolare l'ultimo parametro evita che venga fatto uno snapshot della memoria della macchina virtuale su disco, cosa che rallenta un po' l'accesso alla memoria.

9 Test di rete vmware  Stesso test netperf fatto con XEN  prestazioni di vmware sono peggiori rispetto a xen (con modulo di rete paravirtualizzato) comunque non male nel complesso VMWARE-1VMWARE-2VMWARE-HOSTEXTERNALXEN-PV-HVM VMWARE Gb/s 0.58 Gb/s 0.70 Gb/s 0.78 Gb/s VMWARE Gb/s 5.0 Gb/s 0.70 Gb/s 0.78 Gb/s VMWARE-HOST 0.71 Gb/s 8.5 Gb/s 0.94 Gb/s EXTERNAL 0.44 Gb/s 0.94 Gb/s 8.5 Gb/s 0.94 Gb/s XEN-PV-HVM 0.44 Gb/s 0.94 Gb/s 8.5 Gb/s

10 Grafici test di rete  Trasmissione e ricezione verso/da macchina reale esterna

11 Prime considerazioni  Innanzitutto una cosa interessante e' che l'uso di immagini di macchine virtuali sopra GPFS funziona molto bene.  Ottima stabilita' del sistema dopo un po' di tuning iniziale nessun problema sotto condizioni di carico notevoli. dopo le ottimizzazioni la rete delle macchine virtuali funziona decentemente (nel caso di vmware) e ottimamente (nel caso di xen).

12 Test di accesso alla memoria  Questo test consiste in un semplice programma C che alloca 256 MB di memoria e li scrive tutti byte per byte per 200 volte

13 Test di accesso alla memoria

14 prestazioni GPFS sopra macchine virtuali  Utilizzato mount point di produzione /storage/software Fattore di replicazione x2 2 GPFS diskserver per I dati, piu’ 2 per I metadati Durante I test due disckerver erano in uso in lettura da argo2 (circa 0.48 Gb/s consumati in lettura da argo) Scritti/letti file da 10 GB (throughput effettivo x2 nel caso di scrittura), bs=64k  Xen singola macchina Scrittura: 0.32 Gb/s, CPU load 100% (mmfsd 55%) Lettura: 0.57 Gb/s, CPU load 100% (mmfsd 60%)  Vmware singola macchina Scrittura: 0.31 Gb/s, CPU load 170% (mmfsd 150%) Lettura: 0.58 Gb/s, CPU load 120% (mmfsd 100%)

15 prestazioni GPFS sopra macchine virtuali (II)  xen24 e xen25 in simultanea Scrittura: 0.21 x2 Gb/s, CPU load 60% (mmfsd 30%) Lettura: 0.31 x2 Gb/s, CPU load 50% (mmfsd 30%)  vmware1 e vmware2 in simultanea Scrittura 0.22 x2 Gb/s, CPU load 130% (mmfsd 110%) Lettura: 0.33 x2 Gb/s, CPU load 90% (mmfsd 80%)  2 xen e 2 vmware in simultanea Scrittura: 0.18 x2 Gb/s xen, 0.19 x2 Gb/s vmware Lettura: 0.21 x2 Gb/s xen, 0.21 x2 Gb/s vmware

16 prestazioni GPFS sopra macchine reali  worker node reale Scrittura: 0.44 Gb/s, CPU load 30% (25% mmfsd) Lettura: 0.57 Gb/s, CPU load 15% (12% mmfsd)  2 worker node reali Scrittura: 0.4 x2 Gb/s, CPU load 30% (25% mmfsd) Lettura: 0.36 x2 Gb/s, CPU load 15%(12% mmfsd)

17 Grafico prestazioni GPFS  I throughput sono al netto dei dati trasferiti e per processo  Per ottenere il throughput totale aggregato Per la scrittura moltiplicare per 2 a causa del fattore di replicazione GPFS Nel caso di 2 macchine in simultanea moltiplicare per 2 Nel caso di 4 macchine in simultanea moltiplicare per 4

18 Simulazione LHCb  Programma di simulazione Gauss v30r4, generazione e simulazione Geant4 di eventi bb con decadimenti inclusivi

19 Test 16-processore  Programma di simulazione Gauss v30r4, generazione e simulazione Geant4 di eventi bb con decadimenti inclusivi  Programma di ricostruzione Brunel v31r10, ricostruzione di eventi bb inclusivi Input file completamente in cache, no I/O overhead

20 Confronto macchine blade HP e 16-processore Secondi per evento Rapporto dei secondi per evento Rapporto delle frequenze di clock (2.93 GHz)/(2 GHz) (2.93 GHz)/(2 GHz)

21 Test di memoria su 16-processore  Allocazione di 1 GB di memoria e scrittura 50 volte byte per byte.  I processi sono stati fatti partire settando la CPU affinity in modo da mandare i processi sulle CPU volute  Le CPU sono numerate 0, 2, 4 e 6 Vedete /proc/cpuinfo sotto la voce physical Ogni CPU con 4 CORE che qui sotto sono numerati 0, 1, 2 e 3 Per ogni test e' riportata la durata in secondi deivari mem  1 mem su CPU 0: CPU 0 CORE 0: secondi  2 mem su CPU 0: CPU 0 CORE 0: secondi CPU 0 CORE 1: secondi  3 mem su CPU 0: CPU 0 CORE 0: secondi CPU 0 CORE 1: secondi CPU 0 CORE 2: secondi  4 mem su CPU 0: CPU 0 CORE 0: secondi CPU 0 CORE 1: secondi CPU 0 CORE 2: secondi CPU 0 CORE 3: secondi

22  2 mem su CPU 0 e 2 mem su CPU 2: CPU 0 CORE 0: secondi CPU 0 CORE 1: secondi CPU 2 CORE 0: secondi CPU 2 CORE 1: secondi  4 mem su 4 CPU diverse: CPU 0 CORE 0: secondi CPU 2 CORE 0: secondi CPU 4 CORE 0: secondi CPU 6 CORE 0: secondi  1 mem su CPU 0, 1 mem su CPU 2, 2 mem su CPU 4: CPU 0 CORE 0: secondi CPU 2 CORE 0: secondi CPU 4 CORE 0: secondi CPU 4 CORE 1: secondi Test di memoria su 16-processore (II)

23 Test di memoria su 16-processore (III)  16 mem su tutte le CPU: CPU 0 CORE 0: secondi CPU 0 CORE 1: secondi CPU 0 CORE 2: secondi CPU 0 CORE 3: secondi CPU 2 CORE 0: secondi CPU 2 CORE 1: secondi CPU 2 CORE 2: secondi CPU 2 CORE 3: secondi CPU 4 CORE 0: secondi CPU 4 CORE 1: secondi CPU 4 CORE 2: secondi CPU 4 CORE 3: secondi CPU 6 CORE 0: secondi CPU 6 CORE 1: secondi CPU 6 CORE 2: secondi CPU 6 CORE 3: secondi