E, Ferro 09/05/2002 Datagrid WP4: Fabric Management Enrico Ferro - LNL.

Slides:



Advertisements
Presentazioni simili
ISA Server 2004 Enterprise Edition Preview. ISA Server 2004.
Advertisements

Liberiamo(ci) (dal)le applicazioni con Softgrid
ISA Server for the Enterprise. Clients Client Overview Internet ISA Server SecureNAT Client Do not require you to deploy client software or configure.
Connessione con MySQL.
Servizio DHCP.
Cluster openMosix Linux Day ’04 Caserta Ing. Diego Bovenzi.
Giuseppe Fabio Fortugno.
Alessandra Doria III Workshop Software e Calcolo Moderno Martina Franca Ottobre 1999 La presentazione degli istogrammi nel sistema di Monitoring.
Grid a Perugia Modifiche ad INFN-GRID per permetterne il funzionamento con Worker Nodes su rete nascosta Truncellito Francesco Mariotti Mirko Leonello.
Remote file access sulla grid e metodi di interconnesione di rete M. Donatelli, A.Ghiselli e G.Mirabelli Infn-Grid network 24 maggio 2001.
Future Astronomical Software Environment
La facility nazionale Egrid: stato dell'arte Egrid-Team Trieste, 9 ottobre 2004.
Microsoft Windows Installazione, gestione ed utilizzo delle risorse Microsoft nella sezione INFN di BOLOGNA.
n Migliorare il controllo delle risorse n Implementare policies e pianificazioni n Bilanciare il carico sui vari computer n Sfruttare al meglio i computer.
Gruppo Directory Services Rapporto dell'attivita' svolta - Marzo 2000.
Il Tutorial INFN-GRID/EDG di Torino Testbed INFN-GRID.
LNL M.Biasotto, Bologna, 13 dicembre Installazione automatica Massimo Biasotto – INFN LNL.
Technical Board 21 novembre 2000 WP5 - Network Luciano Gaido 1 Progetto INFN-GRID WP5 - Network Technical Board Cnaf, 21 novembre 2000.
GridICE attività in corso e sviluppi futuri Gennaro Tortone Bologna, 4 marzo Technical Board INFNGRID
1 DAQ Layout VME Readout Unit (XDAQ) TTCvi TTCex TRG BSY Builder Unit (XDAQ) Monitor (ORCA) BSY TRG CCB MiniCrate DT Chamber 1 ROB CCB MiniCrate DT Chamber.
E. Ferro, LNL, 7 dicembre DataGRID overview + WP4 Installation Enrico Ferro INFN-LNL.
M.Biasotto, Padova, 18 gennaio Sviluppo futuro di LCFG per la Release 2 di Datagrid Massimo Biasotto - LNL.
M.Biasotto, Padova, 6 dicembre Esperienze con la farm CMS a LNL e prospettive del WP4 di DataGrid Massimo Biasotto - LNL.
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
1 M. Biasotto – Legnaro, 22 Dicembre 2005 Prototipo Tier 2 di Legnaro-Padova INFN Legnaro.
E. Ferro / CNAF / 14 febbraio /13 GRID.it servizi di infrastruttura Enrico Ferro INFN-LNL.
1 Installazione da rete Introduzione Configurazione del server NFS Cosa serve sul client Configurazione kickstart.
Guida IIS 6 A cura di Nicola Del Re.
Printserver2.pg.infn.it (VM Xen in esecuzione su redhat cluster)
TANGO - WP4 - Milano - 27 Febbraio 2003 Progetto TANGO Attività WP 4 Test Bed Sperimentali Milano - 27 Febbraio 2003.
Distributed System ( )7 TCP/IP four-layer model.
LNL GM, CNAF, 18 ottobre INFN-Farm Management Toolkit 1.Fabric Management per DataGrid e INFNGrid 2.Definizione dei requisiti degli esperimenti.
Dischi in RAID  Redundant Array of Independent Disk Configurazione che permette di combinare più dischi secondo obiettivi di performance e ridondanza.
Protocolli e architetture per WIS. Web Information Systems (WIS) Un Web Information System (WIS) usa le tecnologie Web per permettere la fruizione di.
FESR Consorzio COMETA Pier Paolo CORSO Giuseppe CASTGLIA Marco CIPOLLA Industry Day Catania, 30 Giugno 2011 Commercial applications.
SISTEMI DI GESTIONE DI WORKFLOW
10 azioni per lo scheduling su Grid Uno scheduler per Grid deve selezionare le risorse in un ambiente dove non ha il controllo diretto delle risorse locali,
16 Maggio CSN1 Computing-Software-Analysis CMS-INFN TEAM Analisi in CMS: stato e prospettive del supporto italiano.
Extreme Cluster Administration Toolkit Alberto Crescente, INFN Sez. Padova.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
Condor standard. Sistema Batch. Tool di installazione D. Bortolotti,P.Mazzanti,F.Semeria Workshop Calcolo Paestum 9-12 Giugno 2003.
Distribuzione controllata del software con Systems Management Server 2003 Fabrizio Grossi.
Draft planning of the report Massimo Sgaravatto INFN Padova.
MCSA Mobile Code System Architecture Infrastruttura a supporto della code mobility Pierfrancesco Felicioni Reti di Calcolatori L.S. 2005/2006.
Ingegneria del software Modulo 1 -Introduzione al processo software Unità didattica 6 - Gestione della configurazione software Ernesto Damiani Università.
Extension pack per IIS7 Piergiorgio Malusardi IT Pro Evangelist
Layered Grid Architecture. Application Fabric “Controlling elements locally”: Access to, & control of, resources Connectivity “Talking to Grid elements”:
BaBar Tier A Administration Workshop CCR, Paestum Giugno 2003 Alberto Crescente, INFN Sez. Padova.
Grid nelle sezioni: Milano Luca Vaccarossa INFN – Sezione di Milano Workshop sulle Problematiche di Calcolo e Reti nell'INFN.
La Farm di Atlas a Roma 1 Outline Architettura della farm Architettura della farm Installazione Installazione Monitoring Monitoring Conclusioni Conclusioni.
Report HEPiX Spring meeting 2002 Workshop sulle problematiche di calcolo e reti nell'INFN 6-9 Maggio 2002 La Biodola - Isola d'Elba Silvia Arezzini.
CMS 1 M. Biasotto – Bologna 20/01/2005 Infrastruttura di calcolo per CMS-Italia M.Biasotto – INFN Legnaro e i gestori dei centri CMS Italia.
La Farm di Alice a Torino Workshop sulle problematiche di calcolo e reti Isola d’Elba 6-9 maggio 2002 Mario Sitta (Università del Piemonte Orientale e.
I testbed ed il loro uso 1 I testbed ed il loro uso L. Gaido, A.Ghiselli CSN1, Perugia novembre 2002.
LNL CMS M.Biasotto, Bologna, 28 maggio Upgrade farm a RH-7.3  Due anni fa la farm era stata installata usando una versione customizzata di ANIS.
GESTIONE RETI TCP/IP l troubleshooting è necessario per risolvere molti problemi che si possono verificare all'interno di una rete, una delle aspirazioni.
Sistemi distribuiti Sistema distribuito indica una tipologia di sistema informatico costituito da un insieme di processi interconnessi tra loro in cui.
Roberto Covati – Roberto Alfieri INFN di Parma. Incontri di lavoro CCR dicembre Sommario VmWare Server (in produzione dal 2004) VmWare ESX.
OpenShift Origin – Cosa è
High Avaliability with RHCS HA INFN CNAF 22 Marzo 2006 Bologna Ricci Pier Paolo, on behalf of INFN TIER1 Staff
Overview del middleware gLite Guido Cuscela INFN-Bari II Corso di formazione INFN su aspetti pratici dell'integrazione.
DA e controlli DAFNE Riccardo Gargana Frascati 13/12/ /12/13.
IV Corso di formazione INFN per amministratori di siti GRID Tutorial di amministrazione DGAS Giuseppe Patania.
INFN—Catania Giuseppe Andronico Bologna, 23 Gennaio 2014.
E. Ferro, LNF Febbraio 2005 Release INFN-GRID, apt+kickstart server, yaim, quattor Enrico Ferro INFN - Padova.
Sviluppo Tools Automatic Deployment IaaS OCP - status report - Cristina Aiftimiei (INFN-CNAF) CTS, 05/06/2015.
La gestione della rete e dei server. Lista delle attività  Organizzare la rete  Configurare i servizi di base  Creare gli utenti e i gruppi  Condividere.
Riunione INFN – Bologna, 17 January 2013
MONBOX Federico Bitelli bitelli<at>fis.uniroma3.it
Dichiarazione dei servizi di sito nel GOCDB
Transcript della presentazione:

E, Ferro 09/05/2002 Datagrid WP4: Fabric Management Enrico Ferro - LNL

E. Ferro 09/05/ Sommario  Datagrid WP4: overview  WP4, Installation & Configuration subtask: overview  LCFG  Sviluppi futuri

E. Ferro 09/05/ Datagrid  Il progetto è diviso in “Work Packages”: –WP1: Workload Management –WP2: Data Management –WP3: Monitoring Services –WP4: Fabric Management –WP5: Mass Storage Management –WP6: Testbed –WP7: Network –WP8-10: Applications  La durata complessiva è di 3 anni ( ).  Milestones: month 9 (Sept 2001), month 21 (Sept 2002), month 33 (Sept 2003)

E. Ferro 09/05/ WP4: obiettivi e organizzazione  “Aims to deliver a computing fabric comprised of all the necessary tools to manage a centre providing Grid services on clusters of thousands of nodes”  Si tratta di strumenti orientati ad una gestione della farm –totale –centralizzata  WP4 è diviso in 6 tasks/sottosistemi –Configuration management (CERN + PPARC) –Resource management (ZIB) –Installation & node management (CERN + INFN + PPARC) –Monitoring (CERN + INFN) –Fault tolerance (KIP) –Gridification (NIKHEF)

E. Ferro 09/05/ Farm A (LSF)Farm B (PBS ) Grid User (Mass storage, Disk pools) Local User Installation & Node Mgmt Configuration Management Monitoring & Fault Tolerance Fabric Gridification Resource Management Grid Info Services (WP3) User job control Other Wps Resource Broker (WP1) Data Mgmt (WP2) Grid Data Storage (WP5) Architecture overview Fabric Mgmt - Interface between Grid- wide services and local fabric; - Provides local authentication, authorization and mapping of grid credentials. - Interface between Grid- wide services and local fabric; - Provides local authentication, authorization and mapping of grid credentials. - provides transparent access to different cluster batch systems; - enhanced capabilities (extended scheduling policies, advanced reservation, local accounting). - provides transparent access to different cluster batch systems; - enhanced capabilities (extended scheduling policies, advanced reservation, local accounting). - provides a central storage and management of all fabric configuration information; - central DB and set of protocols and APIs to store and retrieve information. - provides a central storage and management of all fabric configuration information; - central DB and set of protocols and APIs to store and retrieve information. - provides the tools to install and manage all software running on the fabric nodes; - software repositories; - Node management to install, upgrade, remove and configure software packages on the nodes. - provides the tools to install and manage all software running on the fabric nodes; - software repositories; - Node management to install, upgrade, remove and configure software packages on the nodes. - provides the tools for gathering and storing performance, functional and environmental changes for all fabric elements; - central measurement repository provides health and status view of services and resources; - fault tolerance correlation engines detect failures and trigger recovery actions. - provides the tools for gathering and storing performance, functional and environmental changes for all fabric elements; - central measurement repository provides health and status view of services and resources; - fault tolerance correlation engines detect failures and trigger recovery actions.

E. Ferro 09/05/ Installation & Software Mgmt Prototype  E' basato su un tool sviluppato all’Università di Edinburgo: LCFG (Large Scale Linux Configuration)  Caratteristiche principali: –installazione automatica del S.O. –installazione/upgrade/remove di tutti i pacchetti software (basato su RPM) –gestione centralizzata della configurazione –modulare –estendibile 

E. Ferro 09/05/ LCFG Config Files Make XML Profile Server Generic Component Boot Component rdxprof rdxprof daemon Components Local cache Clients Web Server HTTP XML Profiles LCFG: aggiornamento dei clients A collection of agents read configuration parameters and either generate traditional config files or directly manipulate various services Abstract configuration parameters for all nodes stored in a central repository +inet.services ftp +inet.allow ftp sshd +inet.allow_ftp inet.allow_sshd inet.daemon_sshd yes auth.users mickey +auth.userhome_mickey /home/mickey +auth.usershell_mickey /bin/tcsh +inet.services ftp +inet.allow ftp sshd +inet.allow_ftp inet.allow_sshd inet.daemon_sshd yes auth.users mickey +auth.userhome_mickey /home/mickey +auth.usershell_mickey /bin/tcsh /home/MickeyMouseHome /bin/tcsh /home/MickeyMouseHome /bin/tcsh XML profiles Boot Component inet auth /etc/services /etc/inetd.conf /etc/hosts.allow in.telnetd : , in.ftpd : , /etc/hosts.allow in.telnetd : , in.ftpd : , /etc/shadow /etc/group /etc/passwd.... mickey:x:999:20::/home/Mickey:/bin/tcsh.... /etc/passwd.... mickey:x:999:20::/home/Mickey:/bin/tcsh....

E. Ferro 09/05/ LCFG: come funziona il client  All'avvio, viene caricato un demone (rdxprof) che resta in ascolto su una porta UDP. Inoltre un componente "master" (boot) esegue tutti i componenti di LCFG.  Quando e' notificato un cambiamento della configurazione dal server, se necessario viene riscaricato il profilo (=documento XML con la configurazione completa del nodo) via HTTP  Una volta ricevuto il profilo XML, viene salvato su una cache locale e sono riattivati i componenti la cui configurazione è mutata  E' anche possibile che i clients interroghino periodicamente il server (polling)  Ci sono componenti non supportano la possibilità di riconfigurarsi "a caldo" (es. modifica partizioni)

E. Ferro 09/05/ Cos’e’ un componente LCFG?  È uno script shell/PERL  Ciascun componente fornisce un certo numero di “metodi” (start, stop, config,...) che sono invocati al momento opportuno (all'avvio del sistema, in fase di shutdown, in caso di cambiamento della configurazione, etc...)  Accede alla cache locale contenente la configurazione del nodo  Configura gli opportuni servizi, traducendo i parametri di configurazione in normali files di configurazione (es. inetd.conf) oppure gestendo direttamente i demoni

E. Ferro 09/05/ LCFG: componenti custom  LCFG mette a disposizione i componenti per gestire tutti i servizi standard di una macchina: inet, syslog, nfs, cron,...  Un amministratore può creare nuovi componenti custom per configurare e gestire le applicazioni nei propri sistemi: –definisce i nomi e la struttura gerarchica dei propri parametri di configurazione in un file.def (le informazioni da aggiungere al profilo XML) –crea il componente (è uno script); deve includere il componente “generic”, nel quale sono definite delle funzioni comuni (accesso ai dati, log, messaggi standardizzati,...) –ridefinisce i "metodi" vuoti (start, stop, config,...) con il proprio codice e utilizzando i servizi offerti da "generic"

E. Ferro 09/05/ Root Image with LCFG environment First boot via floppy or via network Initialization script starts First boot via floppy or via network Initialization script starts LCFG: node installation procedure DHCP Server Software Packages Software Packages IP address Config URL IP address Config URL NFS Server LCFG Config Files LCFG Config Files XML Profiles XML Profiles LCFG ServerWEB Server Software Repository Client Node Load minimal config data via DHCP: IP Address, Gateway, LCFG server URL Load minimal config data via DHCP: IP Address, Gateway, LCFG server URL Root Image complete with LCFG environment mounted via NFS Load complete configuration via HTTP LCFG Components: disk partitioning, network,... installation of required packages copy of LCFG configuration reboot LCFG Components: disk partitioning, network,... installation of required packages copy of LCFG configuration reboot After reboot LCFG components complete the node configuration

E. Ferro 09/05/ LCFG: pro & contro  Pro: –In uso da anni in un ambiente complesso ed eterogeneo, con centinaia di nodi da gestire, dal cluster ai notebook –Supporta la completa installazione e gestione di tutto il software (sia O.S. che applicazioni) –Molto flessibile, estendibile e customizzabile  Contro: –Complesso: curva di apprendimento iniziale ripida –Manca monitoraggio centralizzato in caso di problemi sui client (es. un componente non riesce a killare un demone) –Mancanza di tools user-friendly per la creazione e gestione dei files di configurazione (ed eventuali errori possono essere molto pericolosi!). –Il software da installare deve essere in formato RPM

E. Ferro 09/05/ Sviluppi futuri  Nuova versione di LCFG (fine maggio)  Linguaggio di alto livello per la configurazione (attualmente è descritta con semplici coppie nome+valore), check più rigorosi sulla consistenza della configurazione  Miglioramento del supporto a RPM  Integrazione con software del Monitoring Subtask di WP4  Scalabilità  Passaggio ad HTTP per la distribuzione dei package da installare (attualmente NFS)  Installazione con PXE  Installazione con tools RedHat (kickstart files)