La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Linux sui sistemi dell’Università di Palermo

Presentazioni simili


Presentazione sul tema: "Linux sui sistemi dell’Università di Palermo"— Transcript della presentazione:

1 Linux sui sistemi dell’Università di Palermo
Massimo Tartamella Palermo – 22 e 23 novembre 2002

2 Indice Cronologia degli eventi rilevanti
Infrastruttura della rete universitaria I Server di rete Il progetto GARR-B per l’Università di Palermo Firewall, IDS, … Open Mosix: cluster per il calcolo distribuito LVS (Linux Virtual Server): cluster per il bilanciamento dei servizi di rete

3 Cronologia degli eventi rilevanti

4 Approccio a Linux e progetto di una rete metropolitana e geografica finanziata dal MURST
Febbraio 2000: “Sviluppo della rete nazionale della ricerca (rete GARR-B)”: potenziamento reti regionali (18 milioni di Euro) Formazione specialisti di rete (2 milioni di Euro) Dicembre 2000: migrazione dei servizi web, posta elettronica e autenticazione RADIUS per i 90 accessi analogici/ISDN Gennaio 2001: implementazione di un Log Server e MRTG server Giugno 2001: Server Linux distribuiti con funzioni di file server con SAMBA e proxy server con Squid Ottobre 2001: backup centralizzati con rsync, mirrordir, wget, … Febbraio 2002: implementazione di Firewall con Iptables Giugno 2002: implementazione di antivirus mail server Luglio 2002: sistemi IDS Agosto 2002: avvio formazione specialisti di rete (12 allievi + tutor) - Cluster MOSIX, LVS e programmazione SQL/PHP Novembre 2002: installazione del mainframe IBM Z800 con sistema operativo Z/VM e Linux Novembre/Dicembre 2002: installazioni ponti laser, nodi ATM, switch/router a 1000 Mbps, 25 server di rete biprocessore, firewall, ids e log server

5 Infrastruttura della rete universitaria

6 Infrastruttura di rete attuale
Parco d’Orleans, Ist. Di Fisica (c/o Oss. Astr.), Ist. Di Radiologia (Policlinico), Rettorato e via Archirafi 2 link a 1000 Mbps 5 link a 100 Mbps via ponti ottici (tecnologia laser) 15 link a 11 Mbps via radio frequenza a 2,4 GHz 25 Link a 100 Mbps Tecnologia di rete adottata Fast Ethernet (100 Mbps) Gigabit Ethernet (1Gbps) IEEE b, wireless ethernet (11 Mbps)

7 Infrastruttura di rete a breve
Parco d’Orleans, Ist. Di Fisica (c/o Oss. Astr.), Ist. Di Radiologia (Policlinico), Rettorato e via Archirafi 25 Link a 1000 Mbps 5 link a 155 Mbps via ponti ottici 15 link a 11 Mbps via radio a 2,4 GHz Tecnologie di rete da adottare Gigabit Ethernet (1Gbps) ATM (155 Mbps) Fast Ethernet (100 Mbps) IEEE b, wireless Ethernet (11 Mbps) Nuovi apparati di rete N. 1 Cisco 7606 (router di frontiera): ATM e Gigabit Ethernet N. 1 Cisco Catalyst 6509 (switch router di campus): ATM e Gigabit Ethernet N.25 Cisco Catalyst 3550 (switch router di periferia): Gigabit e Fast Ethernet N.5 Alcatel OMNI-5WX-PLUS:ATM e Fast Ethernet

8 Altre connessioni HDSL Wind: 11 link HDSL Telecom: 5 Link
ADSL Telecom: 20 link CDN Telecom: 40 link Accessi analogici/ISDN: 90 ATM Telecom a 28 Mbps: accesso alla rete GARR-B

9 Server di rete

10 Server di rete attualmente gestiti dal Centro Universitario di Calcolo
n. 3 server con CPU ALPHA Server Oracle per procedura Contabilità (Tru64) Server Oracle per procedura Stipendi (Tru64) Server Oracle per sistema Aleph (Tru64) n. 1 server SPARC Server SilverPlatter (Solaris) n. 29 server con CPU INTEL (Red Hat Linux) Servizi di web server, mail server, proxy, dns, dhcp server, nfs server, ftp server, log server, mrtg server, samba server, appleshare, firewall, IDS

11 Server di rete in arrivo al Centro Universitario di Calcolo
n. 20 server HP/COMPAQ ML530 2 GB DDR SDRAM 2 processori Intel Xeon MP 2.4 GHz 512Kb Cache 2 schede di rete Ethernet 10/100/1000Mbps 3 hd 18GB in RAID n. 5 server HP/COMPAQ DL580, unità da rack 2 processori Intel Xeon MP 1.6GHz 1Mbyte Cache 3 hd 18GB in RAID n. 1 SAN (Storage Area Network) HP/COMPAQ MA8000 da rack 1 TB di spazio disco complessivo da utilizzare in RAID Supporto x Linux n. 1 Armadio rack HPCOMPAQ Rack da 42 HE con switch e monitor flat panel 15”

12 IBM Z800

13 Configurazione dell’IBM Z800
z/Architecture: 64-bit a 1000 MHz 1 way Model A01 (CPU Tradizionale) 1 Added IFL (CPU dedicata a Linux) 8 GB di RAM 12 canali ESCON attivi 4 porte ethernet 10/100 Mbps Parallel Channel Attached Using Può gestire fino a 15 partizioni logiche (PRSM) E’ una soluzione basata sul sistema operativo zVM 420 GB effettivi in RAID 5 di spazio disco utilizzabili in SAN (ESS 2105) 2

14 TCP/IP Stack and Gateway
Z800 Applications Architecture IBM Z800 System Hypersocket Traditional CPU New Environment - IFL Segreteria Studenti zVM 4.3 zVM 4.3 VSEOther Linux Virtual LAN or IUCV ESCON AFP Srv Linux Linux Linux RSCS FTP/NFS Srv SNA Srv TCP/IP Stack TCP/IP Stack and Gateway AFP Printers OSA OSA OSA OSA ESCON IEEE 802.3 SNA Ctrl TN3270 Srv TCP/IP TCP/IP Ext SNA Printers TCP/IP SNA Ntwrk TCP/IP Intranet SNA Terminals 3

15 TCP/IP Stack and Gateway
Un tool per lo storage consolidation IBM Z800 System Hypersocket Traditional CPU New Environment - IFL Segreteria Studenti Escon zVM 4.3 zVM 4.3 VSEOther Linux Virtual LAN or IUCV (SOD) ESCON AFP Srv Linux Linux Linux RSCS FTP/NFS Srv SNA Srv TCP/IP Stack TCP/IP Stack and Gateway AFP Printers OSA OSA OSA OSA ESCON IEEE 802.3 SNA Ctrl TN3270 Srv TCP/IP TCP/IP Ext SNA Printers TCP/IP SNA Ntwrk TCP/IP Intranet SNA Terminals ESS IBM 2105 FiberChannel SCSI 4

16 Progetto GARR-B per l’Università di Palermo

17 Schema delle connessioni via ponti ottici (in tecnologia laser)
Palazzo Marina Rettorato Dipartimento di Matematica Dip.to di Fisica (Os.rio Ast.co) A.O.U.P.G. Radiologia Fibra ottica multimodale 62,5/125 C.U.C. (Ingegneria DIE) Centro Univeritario di Calcolo

18 Rete Parco D’ORLEANS Gigabit!

19 Collegamento con le sedi esterne
C.U.C. HDSL Wind HDSL Telecom ADSL Telecom

20 Firewall, IDS, …

21

22 OpenMOSIX: cluster per il calcolo distribuito

23 Cos’è OpenMOSIX ? Descrizione
Openmosix è un sistema open source utilizzabile in ambito scientifico per la realizzazione di cluster che sfrutta il load-balancing in ambienti x86. E’ possibile con questo sistema, realizzare calcolatori virtuali con elevata potenza di calcolo, utilizzando risorse, CPU e RAM, di una rete di computer. URL

24 Introduzione a OpenMOSIX
Modalità di avvio della Farm La farm è costituita da una serie di nodi linux basati tecnologia x86 connessi attraverso LAN a 100/1000Mbit Livello di Implementazione Linux kernel

25 Architettura di OpenMOSIX
network L’utente connesso e le applicazioni vedono l’intero cluster come un unico sistema locale migrazione dei processi Ogni processo d’utente,può migrare su ogni nodo disponibile in modo del tutto trasparente in qualunque istante load balancing Viene effettuato un controllo continuo in rete per ridurre al minimo le differenze di carico tra i nodi e migrare dinamicamente i processi tra i nodi con carico minore (sulla base delle variazioni del carico dei nodi, velocità di esecuzione dei processi, numero dei nodi in rete, ..) memory sharing Viene presa una decisione sul processo da migrare sulla base della memoria disponibile sugli altri nodi e viene evitato l’utilizzo della swap memory Kernel communication È sviluppato per ridurre il sovraccarico delle comunicazioni interne del kernel e utilizza un protocollo veloce e affidabile Controllo decentralizzato e Autonomia Ogni nodo e’ capace di operare indipendentemente dagli altri

26 Una idea sull’utilizzo di OpenMOSIX
Nodi Chiavi Ora inizio Ora fine In cluster Durata (h:m:s) 8 100 13:54:13 13:56:07 Yes 1:54 1 13:59:48 14:08:38 No 8:50 1000 14:12:54 14:30:19 17:25 14:33:37 15:30:08 56:31 10000 16:06:44 18:57:15 2:50:31 / 16 11:49:30 12:11:58 22:28 12:19:47 16:15:10 3:55:23 I test sono stati effettuati generando contemporaneamente una serie di chiavi crittate su un nodo del Cluster

27 Progetto per l’integrazione di OpenMOSIX nelle Aule Didattiche

28 Progetto per Cluster Scientifico
Gigabit Gigabit 20 Server 12 PC Aula Corsi Facoltà di Lettere Aula Tortorici Macchine Gigabit Gigabit 40 Macchine Aula F 100 Facoltà di Economia e Commercio 76 Macchine: n°28 PIV 256MB RAM1500Mhz n°48 IBM256MB RAM1000Mhz 50 Macchine

29 LVS: cluster per il bilanciamento dei servizi di rete

30 LVS Linux Virtual Server
Esigenze nell’ambito dei servizi di rete Gestione di servizi con carico elevato Continuità e alta affidabilità dei servizi offerti Scalabilità del sistema e manutenzione trasparente dei server

31 LVS Linux Virtual Server
Internet FTP WEB IP3 IP1 IP2 MAIL

32 Architettura tradizionale
Vantaggi Svantaggi Semplice implementazione dell’architettura di rete Configurazione standard dei servizi Minima adattabilità all’aumentare del carico Scalabilità solo a livello del singolo server Nessuna ridondanza dei servizi Gestione aggiuntiva del sistema dei servizi di backup.

33 Incrementare le capacità dei Server
Load Balancing Cresce l’uso di Internet . Come assicurare il proprio investimento avendo sempre una continuità del servizio, ed una efficente e crescente performance dei propri server? Incrementare le capacità dei Server Server overload Server farms Cresce la popolarità di internet La soluzione Servers più potenti

34 LVS Linux Virtual Server
Con il Load Balancing si incrementano le performance dei servizi attraverso il bilanciamento del carico su tutti i server. L V S FTP WEB MAIL Ottimizzazione dei servizi Servizi non bilanciati

35 Director LVS Il director LVS offre il bilanciamento dei carichi a livello IP in modo da far apparire più servizi paralleli del cluster come servizi virtuali disponibili su un singolo indirizzo server (con un unico indirizzo IP). Tutte le richieste vengono inviate all’ IP virtuale (VIP) attribuito al director, che avrà il compito di smistarle secondo degli algoritmi di balancing o scheduling definiti (Round-Robin, Weighted Round-Robin, Least Connection, Weighted Least Connection)

36 Unico Virtual Ip per tutti i servizi
Unico indirizzo ip per tutti i servizi attivi della farm. Internet IP1 IP2 IP3 Internet Virtual IP L V S Linux Virtual Server IP3 IP2 IP1 IP3 Multpli Indirizzi Ip di accesso Unico Indirizzo Ip di accesso

37 LVS Linux Virtual Server
Anche se un singolo server dovesse risultare non disponibile il servizio viene sempre erogato. Internet Linux Virtual Server IP1 IP2 IP3

38 LVS Linux Virtual Server
La soluzione deve essere flessibile e crescere all’aumentare della domanda; il tutto deve avvenire in una modalità “trasparente”, ottenendo un’ottima scalabilità. Linux Virtual Server

39 LVS al Centro Univ. di Calcolo
La finalità del progetto è di implementare inizialmente i servizi di web, proxy, ftp, mail e samba server sotto LVS utilizzando la soluzione in modalità LVS-Nat. Per assicurare la massima ridondanza verrà installato un Director LVS di backup configurato secondo l’ High-Availability Linux Project. Inoltre tutti i server verranno collegati alle SAN (Storage Area Network) IBM e Compaq per l’accesso ad uno spazio di disco condiviso

40 Internet Linux Virtual Server Linux Virtual Server Backup FTP WEB MAIL SAN Storage Area Network

41 Grazie a tutti


Scaricare ppt "Linux sui sistemi dell’Università di Palermo"

Presentazioni simili


Annunci Google