La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Linux sui sistemi dellUniversità di Palermo Massimo Tartamella Palermo – 22 e 23 novembre 2002.

Presentazioni simili


Presentazione sul tema: "Linux sui sistemi dellUniversità di Palermo Massimo Tartamella Palermo – 22 e 23 novembre 2002."— Transcript della presentazione:

1 Linux sui sistemi dellUniversità di Palermo Massimo Tartamella Palermo – 22 e 23 novembre 2002

2 Indice Cronologia degli eventi rilevanti Infrastruttura della rete universitaria I Server di rete Il progetto GARR-B per lUniversità di Palermo Firewall, IDS, … Open Mosix: cluster per il calcolo distribuito LVS (Linux Virtual Server): cluster per il bilanciamento dei servizi di rete

3 Cronologia degli eventi rilevanti

4 Approccio a Linux e progetto di una rete metropolitana e geografica finanziata dal MURST Febbraio 2000: Sviluppo della rete nazionale della ricerca (rete GARR-B): potenziamento reti regionali (18 milioni di Euro) Formazione specialisti di rete (2 milioni di Euro) Dicembre 2000: migrazione dei servizi web, posta elettronica e autenticazione RADIUS per i 90 accessi analogici/ISDN Gennaio 2001: implementazione di un Log Server e MRTG server Giugno 2001: Server Linux distribuiti con funzioni di file server con SAMBA e proxy server con Squid Ottobre 2001: backup centralizzati con rsync, mirrordir, wget, … Febbraio 2002: implementazione di Firewall con Iptables Giugno 2002: implementazione di antivirus mail server Luglio 2002: sistemi IDS Agosto 2002: avvio formazione specialisti di rete (12 allievi + tutor) - Cluster MOSIX, LVS e programmazione SQL/PHP Novembre 2002: installazione del mainframe IBM Z800 con sistema operativo Z/VM e Linux Novembre/Dicembre 2002: installazioni ponti laser, nodi ATM, switch/router a 1000 Mbps, 25 server di rete biprocessore, firewall, ids e log server

5 Infrastruttura della rete universitaria

6 Infrastruttura di rete attuale Parco dOrleans, Ist. Di Fisica (c/o Oss. Astr.), Ist. Di Radiologia (Policlinico), Rettorato e via Archirafi 2 link a 1000 Mbps 5 link a 100 Mbps via ponti ottici (tecnologia laser) 15 link a 11 Mbps via radio frequenza a 2,4 GHz 25 Link a 100 Mbps Tecnologia di rete adottata Fast Ethernet (100 Mbps) Gigabit Ethernet (1Gbps) IEEE b, wireless ethernet (11 Mbps)

7 Infrastruttura di rete a breve Parco dOrleans, Ist. Di Fisica (c/o Oss. Astr.), Ist. Di Radiologia (Policlinico), Rettorato e via Archirafi 25 Link a 1000 Mbps 5 link a 155 Mbps via ponti ottici 15 link a 11 Mbps via radio a 2,4 GHz Tecnologie di rete da adottare Gigabit Ethernet (1Gbps) ATM (155 Mbps) Fast Ethernet (100 Mbps) IEEE b, wireless Ethernet (11 Mbps) Nuovi apparati di rete N. 1 Cisco 7606 (router di frontiera): ATM e Gigabit Ethernet N. 1 Cisco Catalyst 6509 (switch router di campus): ATM e Gigabit Ethernet N.25 Cisco Catalyst 3550 (switch router di periferia): Gigabit e Fast Ethernet N.5 Alcatel OMNI-5WX-PLUS:ATM e Fast Ethernet

8 Altre connessioni HDSL Wind: 11 link HDSL Telecom: 5 Link ADSL Telecom: 20 link CDN Telecom: 40 link Accessi analogici/ISDN: 90 ATM Telecom a 28 Mbps: accesso alla rete GARR-B

9 Server di rete

10 Server di rete attualmente gestiti dal Centro Universitario di Calcolo n. 3 server con CPU ALPHA Server Oracle per procedura Contabilità (Tru64) Server Oracle per procedura Stipendi (Tru64) Server Oracle per sistema Aleph (Tru64) n. 1 server SPARC Server SilverPlatter (Solaris) n. 29 server con CPU INTEL (Red Hat Linux) Servizi di web server, mail server, proxy, dns, dhcp server, nfs server, ftp server, log server, mrtg server, samba server, appleshare, firewall, IDS

11 Server di rete in arrivo al Centro Universitario di Calcolo n. 20 server HP/COMPAQ ML530 2 GB DDR SDRAM 2 processori Intel Xeon MP 2.4 GHz 512Kb Cache 2 schede di rete Ethernet 10/100/1000Mbps 3 hd 18GB in RAID n. 5 server HP/COMPAQ DL580, unità da rack 2 GB DDR SDRAM 2 processori Intel Xeon MP 1.6GHz 1Mbyte Cache 2 schede di rete Ethernet 10/100/1000Mbps 3 hd 18GB in RAID n. 1 SAN (Storage Area Network) HP/COMPAQ MA8000 da rack 1 TB di spazio disco complessivo da utilizzare in RAID Supporto x Linux n. 1 Armadio rack HPCOMPAQ Rack da 42 HE con switch e monitor flat panel 15

12 IBM Z800

13 Configurazione dellIBM Z800 2 z/Architecture: 64-bit a 1000 MHz 1 way Model A01 (CPU Tradizionale) 1 Added IFL (CPU dedicata a Linux) 8 GB di RAM 12 canali ESCON attivi 4 porte ethernet 10/100 Mbps Parallel Channel Attached Using Può gestire fino a 15 partizioni logiche (PRSM) E una soluzione basata sul sistema operativo zVM 420 GB effettivi in RAID 5 di spazio disco utilizzabili in SAN (ESS 2105)

14 Z800 Applications Architecture 3 Linux Traditional CPU TCP/IP SNA Ntwrk SNA Ctrl Segreteria Studenti VSEOther RSCS AFP Srv FTP/NFS Srv New Environment - IFL TN3270 Srv SNA Srv TCP/IP Stack SNA Printers TCP/IP Intranet TCP/IP Stack and Gateway Linux Virtual LAN or IUCV Hypersocket TCP/IP Ext TCP/IP AFP Printers Linux IBM Z800 System IEEE zVM 4.3 ESCON OSA SNA Terminals

15 Un tool per lo storage consolidation 4 Linux Traditional CPU TCP/IP SNA Ntwrk SNA Ctrl Segreteria Studenti VSEOther RSCS AFP Srv FTP/NFS Srv New Environment - IFL TN3270 Srv SNA Srv TCP/IP Stack SNA Printers TCP/IP Intranet TCP/IP Stack and Gateway Linux Virtual LAN or IUCV Hypersocket TCP/IP Ext TCP/IP AFP Printers Linux IBM Z800 System IEEE zVM 4.3 ESCON OSA SNA Terminals ESS IBM 2105 FiberChannel Escon SCSI (SOD)

16 Progetto GARR-B per lUniversità di Palermo

17 Schema delle connessioni via ponti ottici (in tecnologia laser) Centro Univeritario di Calcolo C.U.C. (Ingegneria DIE) Fibra ottica multimodale 62,5/125 A.O.U.P.G. Radiologia Dip.to di Fisica (Os.rio Ast.co) Dipartimento di Matematica Palazzo Marina Rettorato

18 Rete Parco DORLEANS Gigabit!

19 Collegamento con le sedi esterne HDSL Wind HDSL Telecom ADSL Telecom

20 Firewall, IDS, …

21

22 OpenMOSIX: cluster per il calcolo distribuito

23 Cosè OpenMOSIX ? Descrizione Openmosix è un sistema open source utilizzabile in ambito scientifico per la realizzazione di cluster che sfrutta il load-balancing in ambienti x86. E possibile con questo sistema, realizzare calcolatori virtuali con elevata potenza di calcolo, utilizzando risorse, CPU e RAM, di una rete di computer. URL

24 Introduzione a OpenMOSIX Modalità di avvio della Farm La farm è costituita da una serie di nodi linux basati tecnologia x86 connessi attraverso LAN a 100/1000Mbit Livello di Implementazione Linux kernel

25 Architettura di OpenMOSIX network Lutente connesso e le applicazioni vedono lintero cluster come un unico sistema locale migrazione dei processi Ogni processo dutente,può migrare su ogni nodo disponibile in modo del tutto trasparente in qualunque istante load balancing Viene effettuato un controllo continuo in rete per ridurre al minimo le differenze di carico tra i nodi e migrare dinamicamente i processi tra i nodi con carico minore (sulla base delle variazioni del carico dei nodi, velocità di esecuzione dei processi, numero dei nodi in rete,..) memory sharing Viene presa una decisione sul processo da migrare sulla base della memoria disponibile sugli altri nodi e viene evitato lutilizzo della swap memory Kernel communication È sviluppato per ridurre il sovraccarico delle comunicazioni interne del kernel e utilizza un protocollo veloce e affidabile Controllo decentralizzato e Autonomia Ogni nodo e capace di operare indipendentemente dagli altri

26 Una idea sullutilizzo di OpenMOSIX NodiChiaviOra inizioOra fineIn clusterDurata (h:m:s) :54:1313:56:07Yes1: :59:4814:08:38No8: :12:5414:30:19Yes17: :33:3715:30:08No56: :06:4418:57:15Yes2:50: //No/ :49:3012:11:58Yes22: :19:4716:15:10Yes3:55:23 I test sono stati effettuati generando contemporaneamente una serie di chiavi crittate su un nodo del Cluster

27 Progetto per lintegrazione di OpenMOSIX nelle Aule Didattiche

28 Progetto per Cluster Scientifico Gigabit Facoltà di Lettere Aula Tortorici Aula F 100 Facoltà di Economia e Commercio 20 Server 12 PC Aula Corsi 40 Macchine 76 Macchine: n°28 PIV 256MB RAM1500Mhz n°48 IBM256MB RAM1000Mhz Macchine 50 Macchine

29 LVS: cluster per il bilanciamento dei servizi di rete

30 LVS Linux Virtual Server Esigenze nellambito dei servizi di rete Gestione di servizi con carico elevato Continuità e alta affidabilità dei servizi offerti Scalabilità del sistema e manutenzione trasparente dei server

31 LVS Linux Virtual Server IP3 IP2 IP1 Internet FTPWEB MAIL

32 Architettura tradizionale Semplice implementazione dellarchitettura di rete Configurazione standard dei servizi Minima adattabilità allaumentare del carico Scalabilità solo a livello del singolo server Nessuna ridondanza dei servizi Gestione aggiuntiva del sistema dei servizi di backup. Vantaggi Svantaggi

33 Load Balancing Cresce luso di Internet. Come assicurare il proprio investimento avendo sempre una continuità del servizio, ed una efficente e crescente performance dei propri server? Server overload Server farms Servers più potenti Incrementare le capacità dei Server Cresce la popolarità di internet La soluzione

34 LVS Linux Virtual Server Con il Load Balancing si incrementano le performance dei servizi attraverso il bilanciamento del carico su tutti i server. Ottimizzazione dei servizi Servizi non bilanciati L V S FTP WEB MAIL

35 Director LVS Il director LVS offre il bilanciamento dei carichi a livello IP in modo da far apparire più servizi paralleli del cluster come servizi virtuali disponibili su un singolo indirizzo server (con un unico indirizzo IP). Tutte le richieste vengono inviate all IP virtuale (VIP) attribuito al director, che avrà il compito di smistarle secondo degli algoritmi di balancing o scheduling definiti (Round- Robin, Weighted Round-Robin, Least Connection, Weighted Least Connection)

36 Unico Virtual Ip per tutti i servizi Multpli Indirizzi Ip di accesso Unico Indirizzo Ip di accesso Virtual IP IP1IP2 IP3 L V S Linux Virtual Server Unico indirizzo ip per tutti i servizi attivi della farm. IP1IP2 IP3 Internet IP3

37 LVS Linux Virtual Server Anche se un singolo server dovesse risultare non disponibile il servizio viene sempre erogato. Linux Virtual Server Internet IP1IP2 IP3

38 LVS Linux Virtual Server La soluzione deve essere flessibile e crescere allaumentare della domanda; il tutto deve avvenire in una modalità trasparente, ottenendo unottima scalabilità. Linux Virtual Server

39 LVS al Centro Univ. di Calcolo La finalità del progetto è di implementare inizialmente i servizi di web, proxy, ftp, mail e samba server sotto LVS utilizzando la soluzione in modalità LVS-Nat. Per assicurare la massima ridondanza verrà installato un Director LVS di backup configurato secondo l High-Availability Linux Project. Inoltre tutti i server verranno collegati alle SAN (Storage Area Network) IBM e Compaq per laccesso ad uno spazio di disco condiviso

40 FTP WEB MAIL SAN Storage Area Network Internet Linux Virtual Server Linux Virtual Server Backup

41 Grazie a tutti


Scaricare ppt "Linux sui sistemi dellUniversità di Palermo Massimo Tartamella Palermo – 22 e 23 novembre 2002."

Presentazioni simili


Annunci Google