1 PROGETTO SCoPE E INTEGRAZIONE TRA I 4 PON EVOLUZIONE EGEE3 SA1 italia Bologna 20/05/2008 Silvio Pardi
2 Progetto SCoPE (Sistema Cooperativo distribuito ad alte Prestazioni per Elaborazioni Scientifiche Multidisciplinari) Progetto di Ateneo interamente dell’Università degli Studi di Napoli Federico II nell’ambito dei progetti PON avviso 1575/2004
3 Progetto SCoPE Comunità di riferimento Scienze del Microcosmo e del Macrocosmo Scienze della Vita Scienze dei materiali e dell’ambiente Scienze Sociali SCoPE serve nuove comunità prima non utilizzatrici del grid computing. Un unica VO di progetto scope, attualmente 60 iscritti, utilizzatori effettivi, in forte aumento.
4 Il progetto SCoPE Optical Fiber SCIENZE MEDICINA LETTERE GIURISPRUDENZA INGEGNERIA COLLECT. STORAGE COLLECT. CORE
5 Progetto SCoPE Il progetto S.Co.P.E. prevede la creazione di una e-infrastruttura distribuita utilizzando il paradigma del Grid computing. Esso fornisce una risposta unitaria al problema del calcolo avanzato nell’ambito della Federico II, integrando tutte le principali risorse di calcolo e di storage già disponibli nei 4 siti di Medicina, Ingegneria, CSI e CAMPUSGRID, con un nuovo datacenter composto da hardware di utlima generazione. Tutte le sedi sono interconnesse tra loro ad alta banda mediante un anello in fibra ottica metropolitano.
6 Il nuovo CED, il progetto
7 RISORSE DEL NUOVO DATA CENTER: Circa 300 WN biprocessore quadcore a 64bit in soluzione blade, connessioni infiniband per un totale di oltre 2000 core Circa 100 TB raw 20 lame blade per servizi collective e nodi test 33 Rack Raffreddamento ad acqua INAUGURAZIONE A SETTEMBRE
8 Il nuovo CED, il progetto Sistema operativo SL i386 e SL 4.5 x86_64 Middleware di riferimento INFN-GRID nelle seguenti versioni: 3.0 Per i servizi Collective, CE ed SE 3.1 Per i workernode Previsto passaggio a 3.1 di tutti i servizi a completamento del datacenter.
9 Stato del Prototipo SCoPE: Collective Services YAIM-REPOSITORY VOMS SERVER RESOURCE BROKER – BDII WMS GLITE MY-PROXY SERVER LFC – FILE CATALOG SERVER GRIDICE MONITORING SISTEMA TICKETING
10 Stato del Prototipo SCoPE: Core Services sito GSC COMPUTING ELEMENT 11 WORKER NODE 56 CORE STORAGE ELEMENT 4 TB SPAZIO DISCO USER INTERFACE GENIUS PORTAL
11 Stato del Prototipo SCoPE: Core Services
12 SCoPE Tool Kit Toolkit di librerie scientifiche opensource installati mediante i comani lcg-asis. Disponibili per un certo numero di librerie job di Installazione Validazione Rimozione
13 SCoPE Tool Kit METIS MUMPS GROMACS FFTW3 FFTW2 GSL (GNU Scientific Library) BLAS (Basic Linear Algebra Subprograms) LAPACK (Linear Algebra PACKage) BLACS (Basic Linear Algebra Communication Subprograms) SCALAPACK (Scalable Linear Algebra PACKage) PETSc (Portable, Extensible Toolkit for Scientific Computation) PORT (Portable, Outstanding, Reliable, and Tested) CFITSIO PGPLOT SExtractor libX11 (Sottoinsieme di XFree86-libs) G95 Compilatori java, C, C++ IDL
14 SCoPE Network Monitoring
15 Personale Coinvolto nella attività di SCoPE SCOPE Silvio Pardi Marco Scognamiglio Davide Bottalico Vania Boccia Fulvio Polito Anita Alicante Luca D’onofrio 6 persone 5 contrattisti sul progetto SCoPE.
16 Progetti PON Avviso 1575/2004 TRISAIA 4 PROGETTI FINANZIATI CRESCO - ENEA CyberSar- Consz. COSMOLAB PI2S2- Consz. COMETA SCOPE – UNINA
17 Strategia di Interoperabilità Nel luglio 2007 sono iniziati i lavori del comitato tecnico di interoperabilità promosso dai quatto progetti e sostenuto dal Ministero dell’Università e Ricerca. Obiettivo del Tavolo è rendere i 4 progetti interoperanti come valore aggiunto per l’esperienza 1575 e per creare una infrastruttura di Grid nel meridione
18 Strategia di Interoperabilità L’attività di interoperabilità è stata promossa dal Comitato Tecnico di Interoperabilità composto dagli esponenti dei 4 progetti, rappreentanti del ministero e da esperti. Il gruppo si riunisce una volta al mese ed coordinato dal Prof. Leonardo Merola dell’Università Federico II
19 Strategia di Interoperabilità Sono stati creati alcuni documenti tra cui Documento Strategico di Connettività Documento Strategico di Interoperabilità Documento Tecnico Operativo Service Level Agreement Spunti di Riflessione per la programmazione
20 GARR PI2S2 GARR Altri Enti e realtà Strategia di Interoperabilità
21 Vantaggi visione unica dell’intera infrastruttura nessuna modifica alla configurazione del RB locale assenza di un servizio centralizzato dedicato alla gestione del Grid Information Service e del Resource Broker implementazione semplice ed immediata Strategia di Interoperabilità
22 Documento tecnico Operativo SOMMARIO 1. TAG DI RUNTIME 2. JOB QUEUE 3. SERVIZI COLLECTIVE CENTRALI E DISTRIBUITI 4. SERVIZI DI MONITORAGGIO 5. ISTALLAZIONE SOFTWARE APPLICATIVO 6. INTERFACCE E PROTOCOLLI PER LO STORAGE 7. ABILITAZIONE DELLE VO COMUNI 8. ACCOUNTING 9. GESTIONE DOWNTIME E SISTEMA DI TICKET 10. SERVICE LEVEL AGREEMENT
23 TAGSPECIFICA MIDDLEWARE LCG-X_Y_ZSupporta versione del middleware LCG-X_Y_Z GLITE-X_Y_ZSupporta versione del middleware GLITE-X_Y_Z ANAGRAFICA CITTA’ (XXXX)Città dove è situato il sito PROJECT-NAME (XXXX)Nome del progetto SITE-NAME (XXXX)Nome del sito LIBRERIE E SOFTWARE MPICHLibreria MPICH MPICH2Libreria MPICH versione 2 MPI_HOME_SHAREDArchitettura MPI con directory Shared tra i worker node MPI_HOME_NOTSHAREDArchitettura MPI con directory NON Shared tra i worker node IDL-X.YSupporto per IDL versione X.Y ABAQUS-X.YSupporto per ABAQUS versione X.Y Sono stati definiti i TAG che descrivono - secondo gli standard europei che si è deciso di adottare - le caratteristiche delle risorse hardware e software. TAG DI RUNTIME
24 Nome CodaTIPOCPUTIME (minuti)WALLTIME (minuti)PRIORITY jobmanager- -poncert Coda di Certificazione Prioritaria jobmanager- -crescocert Coda di Certificazione Prioritaria jobmanager- -cybrcert Coda di Certificazione Prioritaria jobmanager- -pi2s2cert Coda di Certificazione Prioritaria jobmanager- -scopecert Coda di Certificazione Prioritaria jobmanager- -cresco_short Coda Job Cresco15120Alta jobmanager- -cresco_long Coda Job Cresco Media jobmanager- -cresco_infinite Coda Job Cresco Bassa jobmanager- -cybr_short Coda Job Crybersar15120Alta jobmanager- -cybr_long Coda Job Crybersar Media jobmanager- -cybr_infinite Coda Job Crybersar Bassa jobmanager- -pi2s2_short Coda Job PI2S215120Alta jobmanager- -pi2s2_long Coda Job PI2S Media jobmanager- -pi2s2_infinite Coda Job PI2S Bassa Tutti i progetti implementano tre code job per ogni progetto, short, long e infinite più la coda poncert (per la certificazione dei sw) con differenti policies di CPUTIME e WALLTIME e differenti priorità. JOB QUEUE
25 E’ stata adottata la seguente organizzazione: Servizi distribuiti: VOMS, BDII, RB/WMS, CE, SE, WN, UI LFC, Ticketing Servizi centralizzati: Monitoring, Accounting SERVIZI “COLLECTIVE” CENTRALI E DISTRIBUITI
26 I servizi di monitoraggio sono stati implementati in maniera centrale e suddivisi tra i progetti in modo da avere molti tools attivi ma senza una eccessiva ridondanza che produrrebbe un eccessivo traffico di interrogazioni. Web LDAP Browser (in ogni sito) GridICE (centralizzato presso SCoPE) GStat (centralizzato presso il server goc.grid.sinica.edu.tw ) SAM +VO poncert (centralizzato presso CYBERSAR) Real-Time Monitoring (centralizzato presso PI2S2) SERVIZI DI MONITORAGGIO
27 Monitoraggio GSTAT SAM – CYBERSAR DOWN-TIME - PI2S2 GRIDICE
28 Soluzione tecnica: Realizzare tool-kit di applicazione Pubblicare nella variabile di RUNTIME Installare il software tramite utenti SGM (Software Grid Manager ) ISTALLAZIONE SOFTWARE APPLICATIVO
29 Protocolli di trasferimento Per mantenere il sistema di autenticazione basato sui certificati, i progetti abiliteranno il protocollo di trasferimento griftp per il trasferimento dati. Interfacce SRM (Storage Resource Manager) e configurazioni Per garantire piena compatibilità ed interoperabilità con le altre strutture internazionali gli Storage Element impiegati per l’interoperabilità dai progetti utilizzeranno interfaccia SRM supportando srmv1.1 e srmv2.2. Ogni progetto abiliterà sugli storage element impegnati nell’interoperabilità una quantità di spazio disco da definire creando le seguenti aree logiche: /home/cresco, /home/cyersar, /home/pi2s2, /home/scope INTERFACCE E PROTOCOLLI PER LO STORAGE
30 DGAS (Distributed Grid Accounting System ) Si utilizzerà per le informazioni di accounting il sistema DGAS (ref. installando il sensore DGAS Gianduia sui Computing Element. HLR (Home Location Register ) Ogni sito installerà un HLR_RESOURCE ed un HLR_USER Server sul quale verranno registrate tutte le risorse disponibili per l’interoperabilità, in termini di code job. Sarà possibile individuare un HLR di secondo livello per raccogliere le informazioni dei differenti progetti in un unico punto, utilizzando il tool grafico HLR MON. ACCOUNTING
31 Ogni progetto utilizzerà il proprio sistema di ticketing locale. Per la gestione dei ticket interprogetto, se un utente del progetto X riscontra problemi sul sito del progetto Y, può aprire una segnalazione direttamente sul sistema di ticketing del progetto Y. I sistemi di ticketing devono prevedere almeno 3 aree per la suddivisione dei ticket: SITE – per i problemi tecnici di installazione VO – per le questioni relative alla singola virtual organization, certificazioni ecc. APPLICATION – per il supporto delle applicazioni. GESTIONE DOWNTIME E SISTEMA DI TICKET
32 SCOPE TICKET TICKET PI2S2 TICKET-CYBERSAR TICKET CRESCO
33 E’ stato preparato un documento per definire il livello di servizi che i progetti si impegnano a garantire. Ci si basa sull’esperienza del Regional Operation Center (ROC) italiano di EGEE. SERVICE LEVEL AGREEMENT
34 corso la discussione E’ in corso la discussione dei seguenti punti principali: DURATA DELL’AGREEMENT RESPONSABILITA’ SUPPORTO DI SECONDO LIVELLO HARDWARE E CRITERI DI CONNETTIVITA’ DESCRIZONE DEI SERVIZI MINIMI OFFERTI (Numero di CPU e di spazio disco) SERVICE HOURS DOWNTIME SUPPORTO VO
35 Ogni sito coinvolto nell’infrastruttura interoperabile dovrà : Fornire risorse di calcolo, storage e servizi: numero di CPU pari al 25% delle forniture ……………………… Garantire man power sufficiente per l’interoperabilità: almeno 2 persone, per un totale minimo di 1 FTE Gestire efficacemente le risorse del sito: a) effettuare gli aggiornamenti relativi al software applicativo per le applicazioni di interoperabilità. b) modificare le configurazioni coordinandosi durante le riunioni telefoniche. Prendere in carico e aggiornare i ticket relativi all’interoperabilità: tempo massimo di risposta: 48 ore dal lunedì al venerdì. Memorandum of Understanding Progetti Avviso 1575 Definizione del Service Level Agreement per l’interoperabilità tra i quattro progetti dell’Avviso 1575
36 Monitorare “proattivamente” il sito, controllando periodicamente lo stato delle risorse e dei servizi mediante tools di monitoraggio concordati: GridICE, Gstat, SFT, ecc. Garantire continuità al supporto ed alla gestione del sito; durante i periodi unattended, si dovrà mettere in down-time il sito chiudendo le code. Garantire la partecipazione dei tecnici operativi dell’ interoperabilità alle phone conference quindicinali. Compilare i pre-report settimanali: entro il venerdì. Supportare le VO di test e controllo (coda poncert) con priorità maggiore rispetto alle altre VO. Questo MoU dovrà essere sottoscritto dal responsabile del progetto e potrà essere aggiornato in base ai feedback ottenuti durante la sperimentazione.
37 E’ attualmente in corso un’indagine per individuare aree applicative di interesse comune ai 4 progetti con l’obiettivo di creare VO tematiche trasversali. Tali VO costituiranno un valore aggiunto per l’integrazione e la coesione tra le infrastrutture nascenti ed avranno, tra le altre attività, l’obiettivo di individuare e manutenere il software applicativo di interesse specifico. Le soluzioni tecniche fin ora adottate sono adeguate per realizzare l’e-infrastruttura dell’Italia meridionale e per l’integrazione nell’ e-infrastruttura Grid italiana ed europea. ABILITAZIONE DELLE VO COMUNI INTEROPERABILITA’ CON ALTRE INFRASTRUTTURE
38 Organizzare e portare a pieno regime il sistema di ticketing per il supporto verso gli utenti. Organizzare delle Guide di utilizzo del software applicativo. Configurare e monitorizzare i servizi di HLR per l’accounting. Organizzare i TOOL KIT con le librerie applicative. Attività del Gruppo Tecnico Operativo
39 Personale Coinvolto nella attività di interoperabilità CYBERSAR Daniele Mura Gianmario Mereu CRESCO Giovanni Bracco Carlo Scio PI2S2 Rosanna Catania Giuseppe Platania Gianni Mario Ricciardi Gianluca Passaro Alberto Falzone SCOPE Gennaro Tortone Silvio Pardi Fulvio Serio Marco Scognamiglio Davide Bottalico Vania Boccia
40 L’Organizzazione GRIS Ù Creare una Griglia computazionale per il calcolo ad alte prestazioni (in totale, ~8000 CPU e ~0.5 Petabytes di spazio disco) nel Mezzogiorno d’Italia per attività di Ricerca & Sviluppo & Innovazione Coordinatore R.Barbera
41 Naples, Networking Day, La “rete” di GRIS Ù
42 L’attività di interoperabilità conflusice in GRISU- Griglie del Sud Protocollo di intesa stipulato tra I quattro progetti CRESCO, CyberSar, PI2S2 e SCoPE insieme con SPACI. GRISU
43 Il PON (Generalità e Assi) Il PON “Ricerca e Competitività” ha l’obiettivo di cofinanziare progetti nei campi della ricerca scientifica, dello sviluppo tecnologico, della competitività e dell’innovazione industriale nel periodo di programmazione Il PON si articolerà su 3 Assi prioritari: Asse I: Sostegno ai mutamenti strutturali Asse II: Sostegno all’innovazione Asse III: Assistenza tecnica e attività di accompagnamento Le azioni dell’Asse I e dell’Asse II saranno tra loro fortemente correlate ed interdipendenti
44
45 Obiettivi strategici da proporre al Ministero