INAF Osservatorio Astrofisico di Catania INAF - Osservatorio Astrofisico di Catania TriGrid pre-meeting no. 1 Catania 16 Giugno 2005 Alessandro Costa Ugo.

Slides:



Advertisements
Presentazioni simili
Introduzione al prototipo Grid-SCoPE
Advertisements

STATO DEL PROTOTIPO DI SCoPE E DELL’INTEGRAZIONE TRA I 4 PON
Cluster openMosix Linux Day ’04 Caserta Ing. Diego Bovenzi.
Consorzio COMETA - Progetto PI2S2 UNIONE EUROPEA Servizi middleware aggiuntivi URL dellindagine:
1 STATO DELLINTEGRAZIONE TRA I 4 PROGETTI AVVISO 1575/2004 ATTIVITA DEL GRUPPO TECNICO OPERATIVO Riunione del Comitato Tecnico sullInteroperabilità MUR,
Roma 30 ottobre 2008 UNIONE EUROPEA 1 Stato dell'interoperabilita' tra i progetti PON 1575 Riunione del Comitato di interoperabilià Roma 30/10/2008 Silvio.
Global Business Services © 2007 IBM Corporation System i Promuovere linnovazione, semplificare lIT Audrey Hampshire, System i Product Manager Italia.
1 REALIZZAZIONE DELLINTEROPERABILITA FRA I PROGETTI DELLAVVISO 1575/2004 Riunione del Comitato Tecnico sullInteroperabilità MUR, 25/10/2007 L. Merola.
1 Riunione del 29 Marzo 2007 IL PROGETTO SCoPE Prof. Guido Russo I lavori Le apparecchiature Il portale.
Workshop CNAF – Bologna 8 Luglio 2011 FARO Accesso Web a risorse e servizi remoti in ambiente Grid/Cloud A. Rocchi, C. Sciò, G. Bracco, S. Migliori, F.
La facility nazionale Egrid: stato dell'arte Egrid-Team Trieste, 9 ottobre 2004.
Il Tutorial INFN-GRID/EDG di Torino Testbed INFN-GRID.
GridICE attività in corso e sviluppi futuri Gennaro Tortone Bologna, 4 marzo Technical Board INFNGRID
1 M. Biasotto – Legnaro, 22 Dicembre 2005 Prototipo Tier 2 di Legnaro-Padova INFN Legnaro.
E. Ferro / CNAF / 14 febbraio /13 GRID.it servizi di infrastruttura Enrico Ferro INFN-LNL.
Secure Socket Layer (SSL) Transport Layer Security (TLS)
INFO Sevizio Centralizzato Informatica e Reti Modalità di utilizzo dei server di calcolo del C.E.D. di Frascati.
Printserver2.pg.infn.it (VM Xen in esecuzione su redhat cluster)
Servizi Grid ed agenti mobili : un ambiente di sviluppo e delivering
FESR Trinacria Grid Virtual Laboratory ADAT (Archivi Digitali Antico Testo) Salvatore Scifo TRIGRID Second TriGrid Checkpoint Meeting Catania,
Dischi in RAID  Redundant Array of Independent Disk Configurazione che permette di combinare più dischi secondo obiettivi di performance e ridondanza.
FESR Consorzio COMETA Pier Paolo CORSO Giuseppe CASTGLIA Marco CIPOLLA Industry Day Catania, 30 Giugno 2011 Commercial applications.
FESR Consorzio COMETA Giuseppe Andronico Industry Day Catania, 30 Giugno 2011 IaaS, PaaS e SaaS: cosa significano per le aziende.
CNAF 18/11/2004 Federica Fanzago INFN Padova a/grape... BAT... BATMAN...o? M.Corvo, F.Fanzago, N.Smirnov (INFN Padova) + tutte le persone che fanno i test.
Infrastruttura GRID di produzione e i T2 Cristina Vistoli Cnaf.
Extreme Cluster Administration Toolkit Alberto Crescente, INFN Sez. Padova.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
FESR Trinacria Grid Virtual Laboratory Strumenti di gestione Rosanna Catania Rita Ricceri Gianni Mario Ricciardi INFN Catania Task force.
FESR Consorzio COMETA - Progetto PI2S2 CORSIKA Domenico Torresi Consorzio Cometa 1st First International Grid School for Industrial.
Condor standard. Sistema Batch. Tool di installazione D. Bortolotti,P.Mazzanti,F.Semeria Workshop Calcolo Paestum 9-12 Giugno 2003.
LNF Farm E. V. 9/8/2006. Hardware CE, LCFG, HLR, 3 WN: DL 360 1U; SE: DL 380 2U 5 WN: BL 25 P In totale 25 jobs general purpuse (coda Atlas) + una coda.
Attivita' Grid in BaBar Workshop sulle Problematiche di Calcolo e Reti nell'INFN Maggio 2004.
Distribuzione controllata del software con Systems Management Server 2003 Fabrizio Grossi.
Layered Grid Architecture. Application Fabric “Controlling elements locally”: Access to, & control of, resources Connectivity “Talking to Grid elements”:
BaBar Tier A Administration Workshop CCR, Paestum Giugno 2003 Alberto Crescente, INFN Sez. Padova.
Grid nelle sezioni: Milano Luca Vaccarossa INFN – Sezione di Milano Workshop sulle Problematiche di Calcolo e Reti nell'INFN.
La Farm di Atlas a Roma 1 Outline Architettura della farm Architettura della farm Installazione Installazione Monitoring Monitoring Conclusioni Conclusioni.
TIER-2 E’ stato certificato in sequenza dal –CNAF –Alessandro De Salvo come ATLAS software manager in LCG –LCG group del CERN nella TestZone E’ costituito.
Report HEPiX Spring meeting 2002 Workshop sulle problematiche di calcolo e reti nell'INFN 6-9 Maggio 2002 La Biodola - Isola d'Elba Silvia Arezzini.
Condor III Workshop sul Calcolo INFN F. Semeria INFN Bologna Cagliari
CMS 1 M. Biasotto – Bologna 20/01/2005 Infrastruttura di calcolo per CMS-Italia M.Biasotto – INFN Legnaro e i gestori dei centri CMS Italia.
La Farm di Alice a Torino Workshop sulle problematiche di calcolo e reti Isola d’Elba 6-9 maggio 2002 Mario Sitta (Università del Piemonte Orientale e.
I testbed ed il loro uso 1 I testbed ed il loro uso L. Gaido, A.Ghiselli CSN1, Perugia novembre 2002.
Introduzione ai servizi Grid e relativa sicurezza Università di Catania – Fac. Di Ingegneria Emilio Mastriani– Consorzio COMETA
Project Review Novembrer 17th, Project Review Agenda: Project goals User stories – use cases – scenarios Project plan summary Status as of November.
Storage (ieri, oggi e domani) Luca dell’Agnello INFN-CNAF.
Roberto Covati INFN di Parma. Workshop CCR/INFN GRID Palau maggio Sommario VmWare Server (in produzione dal 2004 al 2008) VmWare Infrastructure.
FESR Trinacria Grid Virtual Laboratory Rosanna Catania Rita Ricceri INFN Catania 25 Luglio 2006 Grid Monitoring: GridICE – bacct - lsload.
Roberto Covati – Roberto Alfieri INFN di Parma. Incontri di lavoro CCR dicembre Sommario VmWare Server (in produzione dal 2004) VmWare ESX.
FESR Trinacria Grid Virtual Laboratory Esercitazione sulla Security Dario Russo INFN Catania Catania, 14 Marzo 2006.
1 Attività per la formazione Scuole INFN Grid Edizione 2008 Valeria Ardizzone INFN Catania.
OpenShift Origin – Cosa è
Università degli studi di Cagliari Facoltà di Ingegneria Dipartimento di Ingegneria Elettronica Gruppo di Elettromagnetismo Metodo di Progettazione Automatica.
FESR Trinacria Grid Virtual Laboratory PROGETTO “MAMMO” Sviluppo e ottimizzazione di algoritmi adattativi, specificatamente di Artificial.
Michele Punturo INFN Perugia 1. Riunione di oggi Mattina: problemi immediati – Trasferimento dati da LIGO (Luca Rei) – Trasferimento dati da.
High Avaliability with RHCS HA INFN CNAF 22 Marzo 2006 Bologna Ricci Pier Paolo, on behalf of INFN TIER1 Staff
Overview del middleware gLite Guido Cuscela INFN-Bari II Corso di formazione INFN su aspetti pratici dell'integrazione.
Worker node on demand: le soluzioni Andrea Chierici INFN-CNAF CCR 2009.
INFN—Catania Giuseppe Andronico Bologna, 23 Gennaio 2014.
Martedi 8 novembre 2005 Consorzio COMETA “Progetto PI2S2” UNIONE EUROPEA Accesso all’infrastruttura Grid del Consorzio COMETA Grid Open Day alla Facoltà.
A.A CORSO INTEGRATO DI INFORMATICA E BIOINFORMATICA per il CLT in BIOLOGIA MOLECOLARE Scuola di Scienze, Università di Padova Docenti: Proff.
FESR Trinacria Grid Virtual Laboratory Porting su grid di *ROSETTA*, un metodo per la predizione di strutture proteiche Giuseppe La Rocca.
JOB MONITORING Donvito Giacinto INFN-Bari. OUTLINE ● Use-case ● Informazioni utilizzate e metodologie di raccolta per il job monitoring ● Informazioni.
FESR Trinacria Grid Virtual Laboratory Workload Management System (WMS) Muoio Annamaria INFN - Catania Primo Workshop TriGrid VL Catania,
Aggiornamento attivita’ gruppo Windows Gian Piero Siroli, Dip. di Fisica, Università di Bologna e INFN CCR, ottobre 2007.
SCoPE - Stato dei Lavori
Riunione INFN – Bologna, 17 January 2013
Dichiarazione dei servizi di sito nel GOCDB
INAF – Osservatorio Astrofisico di Catania
GENIUS Grid Portal Lorenzo Neri INFN Catania
Transcript della presentazione:

INAF Osservatorio Astrofisico di Catania INAF - Osservatorio Astrofisico di Catania TriGrid pre-meeting no. 1 Catania 16 Giugno 2005 Alessandro Costa Ugo Becciani  Stato nodo Grid INAF Catania  Grid INAF Catania  Un passo avanti: infrastruttura di rete TriGrid pre-meeting 1° 16/06/2005

INAF Osservatorio Astrofisico di Catania Centro di Calcolo  Dimensioni locale:55 mq  Gruppo di continuitàn 2:  60 KVAHPC (IBM SP) + utenza  10 KVAinfrastrutture di rete/calcolo  Sistema antincendio:Argonfire  Climatizzazione:n 3:  40K BTU  18K BTU  22K BTU TriGrid pre-meeting 1° 16/06/2005

INAF Osservatorio Astrofisico di Catania Grid status TriGrid pre-meeting 1° 16/06/2005 Griglia di Produzione N.1 Computing Elementgridce.ct.astro.it N.1 Storage Elementgridse.ct.astro.it N.1 User Interfacegridui.ct.astro.it N.2 +’1’ Worker Nodesgridwn1.ct.astro.itgridwn2.ct.astro.it 8 Processors POWER 41.1 GHz Global RAM Memory: 16 Gbytes Disk Array: 437 GB RAID 5 L2: 1.5 Mbytes L3: 128 Mbyte ram: 2 GB per processor OS AIX 5.2 spnodo4.ct.astro.it

INAF Osservatorio Astrofisico di Catania Grid status TriGrid pre-meeting 1° 16/06/2005 Gilda site N.1 Computing Elementgildace.ct.astro.it N.1 Storage Elementgildase.ct.astro.it N.1 User Interface N.2 Worker Nodesgildawn1.ct.astro.itgildawn2.ct.astro.it gridui.ct.astro.it

INAF Osservatorio Astrofisico di Catania  INTEGRAZIONE DEL SISTEMA DI CALCOLO IBM SP in Grid.it Grid activities PROBLEMATICHE Our goal was to find procedures to integrate an IBM SP parallel computer into the INFN- GRID as a worker node N.1 IBM SP Power 4 node (8 CPUs) We cannot use an LCFG server to install an IBM SP as a worker node for at least two reasons: LCFG version of INFN-GRID initialize machines, reinstalling the OS and all needed applications LCFG version of INFN-GRID initialize machines, reinstalling the OS and all needed applications The repository managed by the LCFG contains rpm packages compiled for i386 architecture and Linux Redhat 7.3: architecture and SO of target machines is definitively different. The installation must proceed in a different way!

INAF Osservatorio Astrofisico di Catania  INTEGRAZIONE DEL SISTEMA DI CALCOLO IBM SP in Grid.it Grid activities IBM SP4 configuration OpenPBS compilation and pbs_mom installation Some slight changes has been required to the OpenPBS installation scripts: platform AIX 5.1 unsupported We have used “–enable-sp2” to compile special code to deal with the SP high speed switch. IBM Grid Toolbox V3 for AIX installation (it is the IBM version of Globus Toolkit 3)IBM Grid Toolbox V3 for AIX installation (it is the IBM version of Globus Toolkit 3) Virtual Organitazions user creationsVirtual Organitazions user creations Ex: inaf001 is the username used by gridce.ct.astro.it to map the following certificate: “/C=IT/O=INFN/OU=Personal Certificate/L=INAF Catania/CN=Alessandro Population of /etc/grid-security/certificates/Population of /etc/grid-security/certificates/ with CA certificates and Certification Revocation Lists by a cron copy from the CE. Minor changes (mktemp command compilation and installation, creation of a list containing ssh keys of trusted hosts) on AIX 5.2.Minor changes (mktemp command compilation and installation, creation of a list containing ssh keys of trusted hosts) on AIX 5.2. Computing Element PBS server configuration:PBS server configuration: Add new WNs to /var/spool/pbs/server_priv/nodes. Submission on NON Linux systems gridwn1.ct.astro.it np=1lcgpro gridwn2.ct.astro.itnp=1lcgpro spnodo4.ct.astro.itnp=8ibmsp Replace ‘source’ with ‘. ’ inReplace ‘source’ with ‘. ’ in/opt/globus/lib/perl/Globus/GRAM/submit-helper.pl belonging to the package: lcg-extra-jobmanagers (Perl  script shell remote execution. Changes in CE) These changes have no side effects on the other linux worker nodes

INAF Osservatorio Astrofisico di Catania  INTEGRAZIONE DEL SISTEMA DI CALCOLO IBM SP in Grid.it Grid activities

INAF Osservatorio Astrofisico di Catania Short-HOWTO Sottomissione di Job a IBM spnodo4.ct.astro.it da una User Interface INFN GRID L’IBM SP4 (spnodo4.ct.astro.it) dell’Osservatorio Astrofisico di Catania è attualmente configurato come Worker Node (WN) del nostro sito grid di produzione. E’ quindi possibile sottomettere job su tale macchina utilizzando i classici comandi di sottomissione della User Interface (CLI), con l’aggiunta di un requirement per far sì che il Resource Broker (RB) scheduli il job in tale macchina. Ció puó essere ottenuto in due modi: Aggiungendo l’opzione resource gridce.ct.astro.it:2119/jobmanager-lcgpbs-short durante la sottomissione con il comando edg-job-submit Inserendo all’interno del JDL che descrive il job il seguente requisito: Requirements = other.GlueCEUniqueID = = "gridce.ct.astro.it:2119/jobmanager-lcgpbs-short"; TriGrid pre-meeting 1° 16/06/2005

INAF Osservatorio Astrofisico di Catania HelloWorld.jdl [ Executable = "/bin/echo"; Arguments = "Hello World"; StdOutput = "message.txt"; StdError = "stderror"; OutputSandbox = {"message.txt","stderror"}; rank = -other.GlueCEStateEstimatedResponseTime; requirements = other.GlueCEStateStatus == "Production"; Requirements = other.GlueCEUniqueID == "gridce.ct.astro.it:2119/jobmanager- lcgpbs-short"; ] Di seguito un semplice esempio di JDL: Per la sottomissione, usare il seguente comando, una volta che ci si è autenticati su una user interface e inizializzato un proxy (con grid- proxy-init o myproxy-init/myproxy-get-deletation): edg-job-submit --vo inaf –o JID HelloWorld.jdl TriGrid pre-meeting 1° 16/06/2005

INAF Osservatorio Astrofisico di Catania Lo scopo del presente progetto e' quello i estendere le funzionalita' di Astrocomp ed adeguarne le funzionalita'. Sara' infatti interfacciato con i componenti di Grid.it e sfruttera' le possibilita' offerte dalla rete di poter avviare l'esecuzione del software sui nodi che saranno determinati dai livelli sottostanti delle componenti di rete. In questo modo l'utente potra' scegliere il software che vuole eseguire e Astrocomp, ne avviera‘ l'esecuzione sul nodo che sara' individuato con il minor carico computazionale e con le risorse adeguate. Inoltre questa nuova implementazione consentira' di gestire dallo stesso punto di accesso sistemi per loro natura eterogenei: i nodi di Grid.it generalmente basati su cluster di PC e nodi di tipo MPP come il sistema IBM SP dell'Osservatorio. Il punto in oggetto sara' sviluppato anche con la collaborazione del gruppo originario che ha ideato il progetto: Prof. R.C. Dolcetta, Dott. P. Miocchi,Dott.ssa P. Di Matteo (Univ. La Sapienza-Roma), e Dott. V. Rosato (Enea Casaccia-Roma). TriGrid pre-meeting 1° 16/06/2005  Astrocomp-G: integrazione in grid Grid activities

Astrocomp-G We introduce Astrocomp-G, a grid-enabled portal to run codes over a computational grid.Specifically, we re-implemented the portal authentication mechanisms adopting standards currently used in many international computational grids. A user who wants to log into the portal will need, besides username/password released by the portal web master upon registration, a digital X509 certificate that will allow a “proxy” creation, stored by a MyProxy server. It is used to authenticate users who are accessing the facilities offered by the grid. -Login in UI -Downolad Certificate and key -Create MyProxy (extend certification validaty) -Login, Password, Myproxy server, Myproxy Passfrase and Username,

Astrocomp-G The use of proxies and X509 certificates is a key point of GSI (Grid Security Infrastructure), a standard used by all grid infrastructures all over the world.To implement the portal login and proxy creation, we made use of Grid Port 2, a Perl toolkit designed by Npaci to aid in portal creation.To give a further level of security Astrocomp-G is accessed through HTTPS/SSL connections made available by Apache web server. Moreover, we re-engineered the job submission mechanisms of the available parallel codes to handle their running on the GRID-IT production grid. In particular, through the portal, we are able to check job status, watch logs, retrieve the output from a Resource Broker and visualize the output. Because of the particular features of available applications, the portalis currently set to directed submitted jobs towards our IBM SP machine previously integrated in out testbed.The experiments have been done using MARA, a parallel code for the analysis of light curves of closed binary systems (Becciani, U. et al. 2005).

INAF Osservatorio Astrofisico di Catania Infrastruttura di rete TriGrid pre-meeting 1° 16/06/2005  Target: unica LAN “estesa” che raccolga le risorse grid di INFN CT e INAF CT INAF grid fibra multimodale (4 coppie) INFN grid nodo garr ct fibra monomodale CWDM (Coarse Wave Division Multiplexing ) Fino a 16 Λ su una singola fibra

INAF Osservatorio Astrofisico di Catania Infrastruttura di rete TriGrid pre-meeting 1° 16/06/2005 INAF grid fibra multimodale INFN grid nodo garr ct fibra monomodale SWITCH+GBIC (GigaBit Interface Converter) Fibra - rame CWDM Convertitori mulimodo/monomodo

INAF Osservatorio Astrofisico di Catania Infrastruttura di rete TriGrid pre-meeting 1° 16/06/2005  previsioni di spesa componentemodello quantitàprezzo (euro) ChassisMetrobility 2500 R Multiplexer CWDM Metrobility R416-A4-A SWITCHCISCO G 24El GBIC LX CISCO11000 WS-G5486 Conv multim/monomodo