Scaricare la presentazione
La presentazione è in caricamento. Aspetta per favore
PubblicatoNunzia Gagliardi Modificato 11 anni fa
1
Ing. Antonio De Gaetano antonio.degaetano@frascati.enea.it
INFRASTRUTTURA PER IL CALCOLO SCIENTIFICO DEL Centro di FRASCATI Ing. Antonio De Gaetano Casaccia, 5, 06, 2002 Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
2
Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
PRINCIPALI RISORSE IBM SP CLUSTER LINUX GRAFICA AVANZATA CATIA Casaccia, 5, 06, 2002 Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
3
Infrastruttura di calcoloFrascati
BACKUP & DIS.-REC. SERVER AFS Mainframe Gest. IBM-SP AFS “enea.it” LAN Posta el. DNS Web Cluster Linux SGI-ORIGIN 3200 Casaccia, 5, 06, 2002 Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI CATIA
4
Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
IBM-SP Elaboratore General Purpose Massivamente Parallelo ad architettura DMP (Distributed Memory Processor) costituito da un insieme di nodi di calcolo interconnessi tra loro con una rete dedicata ad alta velocità HPS (High Performance Switch) Utilizzato nei principali settori commerciali : Banche, WEB, gestionale, editoria, database, ecc. Casaccia, 5, 06, 2002 Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
5
Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
IBM SP FRASCATI SWITCH MEMORY FRAME 1 9,9 GFlops FRAME 2 9,6 GFlops THIN 2 THIN PW3 LAN FRAME 3 SP3 48 GFlops PW3 II R50 R50 PW3 II AFS Casaccia, 5, 06, 2002 Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
6
Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
IBM-SP CARATTRISTICHE DEI NODI Mod ARC Freq. CPU PfPk RAM THIN POWER MHz MFlops 256 MB R50 PowerPC 200 MHz GFlops 2 GB THIN2 PW2SC 160 MHz MFlops 512 MB PW3 POWER3 200 MHz Gflops 1 GB PW3 II POWER3 II 375 MHz Gflops 16 GB Casaccia, 5, 06, 2002 Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
7
Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
375 MHz POWER3 SMP High Node New 7/00 Symmetric Multiprocessor (SMP) 4-, 8-, 12- or way 375 MHz POWER3-II 64-bit Copper 1GB - 64GB memory 16 GB Internal disks Base node: 2 internal disks, 0 to 72.8GB 2 X 18 GB SSA DISC PCI bus architecture (base node) One 32-bit bus (one 32-bit slot) Two 64-bit buses (four 64-bit slots) Choice of SP Switch and MX2 Adapter or SP Switch2 and SP Switch2 Adapter* RIO Relative OLTP performance 4-way = 81.7 8-way = 163.7 12-way = 242.3 16-way = 319.3 SPECfp _rate95 (peak) 4-way = 1739 8-way = 3418 12-way = 4985 16-way = 6353 SPECint _rate95 (peak) 4-way = 845 8-way = 1684 12-way = 2523 16-way = 3352 * MX2 and SP Switch2 Adapters do not use PCI slots. Casaccia, 5, 06, 2002 Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
8
System Implementation
L2 Cache L2 Cache L2 Cache L2 Cache POWER3 POWER3 POWER3 POWER3 Switch DRAM Memory I/O I/O Memory Controller DRAM I/O Memory BUS-BASED SWITCH-BASED Supports bus- and switch-based MP bus memory configurations
9
Superscalar Processor
Floating Floating Fixed Fixed Fixed LD/ST LD/ST Point Point Point Point Point Unit Unit Unit Unit Unit Unit Unit FPU1 FPU2 FXU1 FXU2 FXU3 LS1 LS2 Branch/Dispatch Memory Mgmt Unit Memory Mgmt Unit Instruction Cache Data Cache IU DU 32 Bytes 32 Bytes BIU Bus Interface Unit: L2 Control, Clock 32 Bytes 16 Bytes L2 Cache 6XX Bus 1-16 MB
10
Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
SP Switch2 New generation of SP Switch and adapter Switch throughput increased (3x bandwidth of SP Switch) 150 to 500MB/sec one-way 300 to 1000MB/sec for bi-directional Supports only POWER3 and POWER3-II high nodes Casaccia, 5, 06, 2002 Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
11
Software Installato Localmente
S.O. AIX 4.3.3 XLF 7.1 XLC 5.0 ( C, C++) HPF 1.4 POE (Parallel Operating Enviroment) ESSL PESSL Client AFS LSF Casaccia, 5, 06, 2002 Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
12
Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
XLF 7.1 Supporto F77, F90, F95, OpenMP e direttive SMP Ottimizzazione di alto livello tramite Interprocedural Analysis xlf -c -O5 (ottimizzazione estrema) -qnostrict (preserva la sintassi ANSI) -qsmp (supporto multiprocessor) -q64 (compilazione 64bit nativi) Casaccia, 5, 06, 2002 Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
13
Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
Librerie matematiche ESSL, PESSL Supporto multiprocessor, supporto MPI, BLAS, elevata ottimizzazione per i processori IBM Libreria IBM Libmass disponibile free su xlf -o code …… -lmass particolarmente efficiente per le funzioni intrinseche sqrt, div, log, exp, sin, cos, tan, etc. Casaccia, 5, 06, 2002 Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
14
Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
Parallel Environment Supporto MPI, MPI-2 ottimizzazione in ambiente share memory ottimizzato per ambiente con interconnessione Switch SPS e SPS-2 poe code -procs np Casaccia, 5, 06, 2002 Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
15
Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
debugger DBX & PEDBX per codici paralleli xlf -c -g code.f …. analisi post-mortem analisi in modalita’ running (dbx -attach nid) comandi di analisi print run where quit (detach in modalita’ running) Casaccia, 5, 06, 2002 Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
16
Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
Software SP- FRASCATI LIBRERIE MATEMATICHE : NAG IMSL Prodotti: ABAQUS, ANSYS, MCNP, FLUENT, MATLAB, …….. Casaccia, 5, 06, 2002 Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
17
Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
CLUSTER LINUX/INTEL 10x IBM PC Intellistation Pentium 1.8 GHz 512 MB RDRAM 40 GB ATA100 Hard Disk 2x EtherExpress 100 Mb/s 1x GigaEther Rack Mounted LAN Switch Fast eth PC 1 PC 2 X 2 PC (3) PC 3 PC 10 Monitor, tastiera e mouse Console Switch Cavi tastiera, mouse, monitor (m. 30) Casaccia, 5, 06, 2002 Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
18
CLUSTER LINUX/INTEL FRASCATI Configurazione Hardware
* Rete per servizi di accesso e monitoring del Beowulf cluster Rete comunicazioni internodo codici paralleli (Fast Ethernet) Rete comunicazioni punto-punto codici paralleli (Gb Ethernet) frascati.enea.it * Casaccia, 5, 06, 2002 Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
19
CLUSTER LINUX/INTEL FRASCATI Software locale
S. O. Linux RedHat 7.2 (kernel 2.4.7) AFS: OpenAFS client V1.2.3 Replica dell’installazione (semplificata via NFS) ma maggiore velocita’ di accesso agli eseguibili di sistema Casaccia, 5, 06, 2002 Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
20
CLUSTER LINUX/INTEL FRASCATI Configurazione Hardware
Tools di sviluppo Compilatori Portland Group (cc, f77/90, c++, hpf, OpenMP) con MPICH Compilatori GNU (gcc, g77, g++) MPI LAM V6.5.6 (Ohio Supercomputer Centre) Casaccia, 5, 06, 2002 Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
21
CLUSTER LINUX/INTEL FRASCATI Configurazione Hardware
Tools di amministrazione e monitoring Scalable Cluster Environment (Kasetsart University in Thailand) SMILE Cluster Management System Web/VRML based system monitoring Casaccia, 5, 06, 2002 Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
22
CLUSTER LINUX/INTEL FRASCATI Configurazione Hardware
Tools di amministrazione e monitoring Webmin: Amministrazione e monitoring via WEB ( Casaccia, 5, 06, 2002 Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
23
Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
Prestazioni NetPipe V2.5 Uno tra i migliori software di test delle comunicazioni internodo (punto-punto) Compilato per usare a basso livello TCP/IP MPICH LAM-MPI Casaccia, 5, 06, 2002 Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
24
Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
Prestazioni Casaccia, 5, 06, 2002 Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
25
Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
Prestazioni Casaccia, 5, 06, 2002 Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
26
Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
GRAFICA AVANZATA FTU experiment Misure interferometriche Olografia 3D ENEA GARR Node LAN ENEA CAMPUS Casaccia, 5, 06, 2002 Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
27
SGI™ Onyx® 3000 Series MACCHINA MASSIVAMENTE PARALLELA AD ARCHITETTURA
NUMAflex COSTITUITA DA UN INSIEME DI CPU INTERCONNESSE TRAMITE ROUTERS R-BRICK
28
Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
SGI™ Onyx® 3800 (16-512p, 1-16 pipes) 128P System Topology R Rack 1 C Rack 2 Rack 3 Rack 4 1 2 3 4 R-Brick 8-port router G-Brick G-Brick G-Brick C-Brick Power Bay R-Brick I-Brick P, I, or, X-Brick G-Brick R-Brick C-Brick R-Brick C-Brick P-Brick C-Brick C-Brick I-Brick Power Bay Power Bay Power Bay Power Bay Minimum (16p) System 128p System Casaccia, 5, 06, 2002 Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
29
System Building Blocks
G-brick Graphics Expansion C-brick CPU Module R-brick Router Interconnect The goals are met by the SN architecture. The system sub-components scale independently, giving you extreme flexibility in deploying, maintaining and upgrading your system. These bricks are the basic building blocks of the SN system. The SN architecture allows you to “pick your brick,” tailoring your system to your business needs. These bricks can be combined in a variety of ways. The C-Brick is the basic CPU node. With 4 CPUs per C-Brick, our CPU density is doubled to 32p/rack. The R-Bricks are added as necessary to provide connectivity between the C-Bricks. The I-Brick is the base system I/O component, containing the system disk, CD-ROM, and a small number of PCI slots. For I/O expansion, you’ll choose P-Bricks or X-Bricks. Disks are added in D-Bricks (not pictured). Each D-Brick is a Clarion OEM module that will hold ten 36GB drives. I-brick Base I/O Module P-brick PCI Expansion X-brick XIO Expansion D-brick Disk Storage Casaccia, 5, 06, 2002 Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
30
Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
SGI™ Onyx® p, 1RM 4 GB RAM G-Brick C-Brick Network Network P P BR BR P P XIO+ This deskside system scales from 2-8p. Every system will have at least the power bay, C-Brick, and I-Brick shown in the left-hand picture. Only S-Class systems can be purchased with 2p bricks instead of 4p bricks, and 2p bricks can only be order with an initial purchase, not a la carte. S-Class systems can be ordered in the following configs: 2p (single 2p brick) 4p (single 4p brick) (2+2)p (two 2p bricks) 6p (one 2p brick, one 4p brick) 8p (two 8p bricks) 2p bricks cannot be added a la carte, but they can be upgrade to 4p bricks by adding the missing PIMM. Therefore, a 2p system could be upgraded to either a 4p (by adding the PIMM) or a 6p (by adding a 4p brick), but once you added a PIMM to go from 2p to 4p, you could not then upgrade to 6p by adding another 2p brick. The (2+2)p config will be more expensive than the 4p, but also more flexible in terms of future upgrade options. XIO+ Ports XIO+ Ports I-Brick P,I, or X-Brick P, I, or, X-Brick I-Brick IR Pipe IR Pipe C-Brick G-Brick Power Bay System Topology 4p System Casaccia, 5, 06, 2002 Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
31
InfiniteReality3™ Graphics Pipeline
13 M Polygons/sec 256 MB Texture Mem 320 MB Framebuffer Mem (4RMs) 880 M Pixels/sec 3520 M Samples/sec Transforms Triangles Applies lighting Convolution Converts pixel formats Floating point heavy Gets pixels to the outside world Digital -> Analogue conversion 2 outputs, plus s-video standard Can add digital output 6 more outputs time division multiplexer Geometry Engine® 4 GE-16 Processing Raster Manager RM10 Pixel Processing Display Generator Video Processing 2-8 Outputs Converts triangle outline to dots Inherently parallel Adding RM's adds: Frame Buffer Pixel Fill Does not increase texture memory XIO Second output can be NTSC/PAL Composite or S-video Casaccia, 5, 06, 2002 Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI Image credit: Monitor Image of Bay Bridge courtesy of Coryphaeus Software
32
Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
File Server AFS AIXFS ( IBM F ) 150 GB SSA RS2CED (IBM H D40) 570 GB SSA 43p (IBM 6H D40) 180 GB SSA (RAID 5 +1) Casaccia, 5, 06, 2002 Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
33
PROGETTAZIONE MECCANICA FRASCATI
CATIA: 4.2 e 5.2 in AFS multipiattaforma ( IBM, SGI, NT) L’utente non è legato alla ws Tutti i modelli sono accessibili da tutti i sistemi della cella enea.it e dal mondo AFS. Integrazione con l’ambiente di grafica avanzata (ONYX2) per analisi 3D, grafica immersiva, ecc. AMBIENTE DI LAVORO: SGI-ORIGIN 3200 (4 CPU,4 GB RAM), 5 IBM/RS6K-43P( 1 CPU,512 RAM) 7 IBM/RS6K-41T(1 CPU,128 RAM) IBM/RS6K-43P(2 CPU, 1 GB RAM)
34
Modalità di utilizzo dei server di calcolo
del C.E.D. di Frascati
35
Macchine riservate per lavori interattivi
Nome macch Arc Sist. Oper N° cpu RAM Freq. sp01 sp05 sp11 sp12 sp13 sp14 bw09 bw10 fenf PowerPC “ Power3 Pentium IV Pentium III AIX 5.1.0 “ Red Hat 7.2 8 “ 2 1 2 GB “ 1 GB 512 MB 256 MB 200 MHz “ 1.8 GHz 600 MHz
36
Risorse di calcolo riservate per lavori batch
sp2 sp3 linux 16 nodi PW2SC 160 MHz RAM 512MB O.S. AIX 5.1.0 2 nodi Power3II 375 MHz RAM 16GB 32 CPU O.S. AIX 4.3.3 8 nodi Pentiun IV 1.8 GHz RAM 521MB O.S. Linux Red Hat 7.2
37
Comando per controllare lo stato delle risorse
lsload –R nome delle risorsa report delle macchine di una specifica risorsa lsload report di tutte le macchine client (LSF) della cella AFS enea.it lsload frascati report di tutte le macchine client (LSF) di Frascati Ex. lsload –R linux
38
Ex. Bsub –R sp3 –q medium_2h a.out
Run di un job seriale Scheduler LSF Comando bsub Dal prompt di una Shell Unix di una macchina (AFS – LSF) CLIENT della cella enea.it scrivere: bsub –R nome della risorsa* –q nome della coda ** my_programm dove: * nome della risorsa può essere uguale a (“ sp2, sp3 o linux ”) ** nome della coda può essere uguale a (“ small_10m, medium_2h, large ”). Ex. Bsub –R sp3 –q medium_2h a.out
39
Run di un job parallelo (SP2 o SP3)
Scheduler LSF + LOADLEVELER Parallel environment POE Script poe.bsub Dal prompt di una Shell Unix di una macchina (AFS – LSF) CLIENT della cella enea.it scrivere: poe.sub my_programm nome della risorsa* -inp my_input –out my_out –err my_error –queue nome della coda ** -procs n*** dove: * nome della risorsa può essere uguale a (“ -sp2 o -sp3 ”) ** nome della coda può essere uguale a (“ small_10m, medium_2h, large ”). *** n = 2-16 per sp2 , 2-32 per sp3 Ex. poe.sub a.out –sp3 –queue medium_2h
40
Run di un job parallelo (Linux)
Scheduler LSF Parallel environment LAM Script lam.bsub Dal prompt di una Shell Unix di una macchina (AFS – LSF) CLIENT della cella enea.it scrivere: lam.sub my_programm nome della risorsa* -inp my_input –out my_out –err my_error –queue nome della coda ** -procs n*** dove: * nome della risorsa deve essere uguale a -linux ** nome della coda può essere uguale a (“ small_10m, medium_2h, large ”). *** n = 2-8 Ex. lam.sub a.out –linux –queue medium_2h
41
Comandi per controllare lo stato dei jobs sottomessi
bjobs lista dei propri jobs in esecuzione o in coda d’attesa bjobs –u all lista di tutti i jobs bkill cancella un job in coda bpeek lista dello standard output Per ottenere ulteriori informazioni sull’utilizzo dei comandi digitare: man nome del comando
42
Ulteriori informazioni
Presentazione su Casaccia, 5, 06, 2002 Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
43
Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
Casaccia, 5, 06, 2002 Infrastrutture e Servizi per il Calcolo Scientifico FRASCATI
Presentazioni simili
© 2024 SlidePlayer.it Inc.
All rights reserved.