La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

1 PROGETTO SCoPE E INTEGRAZIONE TRA I 4 PON EVOLUZIONE EGEE3 SA1 italia Bologna 20/05/2008 Silvio Pardi.

Presentazioni simili


Presentazione sul tema: "1 PROGETTO SCoPE E INTEGRAZIONE TRA I 4 PON EVOLUZIONE EGEE3 SA1 italia Bologna 20/05/2008 Silvio Pardi."— Transcript della presentazione:

1 1 PROGETTO SCoPE E INTEGRAZIONE TRA I 4 PON EVOLUZIONE EGEE3 SA1 italia Bologna 20/05/2008 Silvio Pardi

2 2 Progetto SCoPE (Sistema Cooperativo distribuito ad alte Prestazioni per Elaborazioni Scientifiche Multidisciplinari) Progetto di Ateneo interamente dell’Università degli Studi di Napoli Federico II nell’ambito dei progetti PON avviso 1575/2004

3 3 Progetto SCoPE Comunità di riferimento Scienze del Microcosmo e del Macrocosmo Scienze della Vita Scienze dei materiali e dell’ambiente Scienze Sociali SCoPE serve nuove comunità prima non utilizzatrici del grid computing. Un unica VO di progetto scope, attualmente 60 iscritti, utilizzatori effettivi, in forte aumento.

4 4 Il progetto SCoPE Optical Fiber SCIENZE MEDICINA LETTERE GIURISPRUDENZA INGEGNERIA COLLECT. STORAGE COLLECT. CORE

5 5 Progetto SCoPE Il progetto S.Co.P.E. prevede la creazione di una e-infrastruttura distribuita utilizzando il paradigma del Grid computing. Esso fornisce una risposta unitaria al problema del calcolo avanzato nell’ambito della Federico II, integrando tutte le principali risorse di calcolo e di storage già disponibli nei 4 siti di Medicina, Ingegneria, CSI e CAMPUSGRID, con un nuovo datacenter composto da hardware di utlima generazione. Tutte le sedi sono interconnesse tra loro ad alta banda mediante un anello in fibra ottica metropolitano.

6 6 Il nuovo CED, il progetto

7 7 RISORSE DEL NUOVO DATA CENTER: Circa 300 WN biprocessore quadcore a 64bit in soluzione blade, connessioni infiniband per un totale di oltre 2000 core Circa 100 TB raw 20 lame blade per servizi collective e nodi test 33 Rack Raffreddamento ad acqua INAUGURAZIONE A SETTEMBRE

8 8 Il nuovo CED, il progetto Sistema operativo SL 3.0.8 i386 e SL 4.5 x86_64 Middleware di riferimento INFN-GRID nelle seguenti versioni: 3.0 Per i servizi Collective, CE ed SE 3.1 Per i workernode Previsto passaggio a 3.1 di tutti i servizi a completamento del datacenter.

9 9 Stato del Prototipo SCoPE: Collective Services YAIM-REPOSITORY VOMS SERVER RESOURCE BROKER – BDII WMS GLITE MY-PROXY SERVER LFC – FILE CATALOG SERVER GRIDICE MONITORING SISTEMA TICKETING

10 10 Stato del Prototipo SCoPE: Core Services sito GSC COMPUTING ELEMENT 11 WORKER NODE 56 CORE STORAGE ELEMENT 4 TB SPAZIO DISCO USER INTERFACE GENIUS PORTAL

11 11 Stato del Prototipo SCoPE: Core Services

12 12 SCoPE Tool Kit Toolkit di librerie scientifiche opensource installati mediante i comani lcg-asis. Disponibili per un certo numero di librerie job di Installazione Validazione Rimozione

13 13 SCoPE Tool Kit METIS MUMPS GROMACS FFTW3 FFTW2 GSL (GNU Scientific Library) BLAS (Basic Linear Algebra Subprograms) LAPACK (Linear Algebra PACKage) BLACS (Basic Linear Algebra Communication Subprograms) SCALAPACK (Scalable Linear Algebra PACKage) PETSc (Portable, Extensible Toolkit for Scientific Computation) PORT (Portable, Outstanding, Reliable, and Tested) CFITSIO PGPLOT SExtractor libX11 (Sottoinsieme di XFree86-libs) G95 Compilatori java, C, C++ IDL

14 14 SCoPE Network Monitoring

15 15 Personale Coinvolto nella attività di SCoPE SCOPE Silvio Pardi spardi@na.infn.itspardi@na.infn.it Marco Scognamiglio marco.scognamiglio@unina.itmarco.scognamiglio@unina.it Davide Bottalico davide.bottalico@unina.itdavide.bottalico@unina.it Vania Boccia vania.boccia@unina.itvania.boccia@unina.it Fulvio Polito fulvio.polito@unina.itfulvio.polito@unina.it Anita Alicante anita.alicante@unina.itanita.alicante@unina.it Luca D’onofrio luca.donofrio@unina.itluca.donofrio@unina.it 6 persone 5 contrattisti sul progetto SCoPE.

16 16 Progetti PON Avviso 1575/2004 TRISAIA 4 PROGETTI FINANZIATI CRESCO - ENEA CyberSar- Consz. COSMOLAB PI2S2- Consz. COMETA SCOPE – UNINA

17 17 Strategia di Interoperabilità Nel luglio 2007 sono iniziati i lavori del comitato tecnico di interoperabilità promosso dai quatto progetti e sostenuto dal Ministero dell’Università e Ricerca. Obiettivo del Tavolo è rendere i 4 progetti interoperanti come valore aggiunto per l’esperienza 1575 e per creare una infrastruttura di Grid nel meridione

18 18 Strategia di Interoperabilità L’attività di interoperabilità è stata promossa dal Comitato Tecnico di Interoperabilità composto dagli esponenti dei 4 progetti, rappreentanti del ministero e da esperti. Il gruppo si riunisce una volta al mese ed coordinato dal Prof. Leonardo Merola dell’Università Federico II

19 19 Strategia di Interoperabilità Sono stati creati alcuni documenti tra cui Documento Strategico di Connettività Documento Strategico di Interoperabilità Documento Tecnico Operativo Service Level Agreement Spunti di Riflessione per la programmazione 2007-2013

20 20 GARR PI2S2 GARR Altri Enti e realtà Strategia di Interoperabilità

21 21 Vantaggi visione unica dell’intera infrastruttura nessuna modifica alla configurazione del RB locale assenza di un servizio centralizzato dedicato alla gestione del Grid Information Service e del Resource Broker implementazione semplice ed immediata Strategia di Interoperabilità

22 22 Documento tecnico Operativo SOMMARIO 1. TAG DI RUNTIME 2. JOB QUEUE 3. SERVIZI COLLECTIVE CENTRALI E DISTRIBUITI 4. SERVIZI DI MONITORAGGIO 5. ISTALLAZIONE SOFTWARE APPLICATIVO 6. INTERFACCE E PROTOCOLLI PER LO STORAGE 7. ABILITAZIONE DELLE VO COMUNI 8. ACCOUNTING 9. GESTIONE DOWNTIME E SISTEMA DI TICKET 10. SERVICE LEVEL AGREEMENT

23 23 TAGSPECIFICA MIDDLEWARE LCG-X_Y_ZSupporta versione del middleware LCG-X_Y_Z GLITE-X_Y_ZSupporta versione del middleware GLITE-X_Y_Z ANAGRAFICA CITTA’ (XXXX)Città dove è situato il sito PROJECT-NAME (XXXX)Nome del progetto SITE-NAME (XXXX)Nome del sito LIBRERIE E SOFTWARE MPICHLibreria MPICH MPICH2Libreria MPICH versione 2 MPI_HOME_SHAREDArchitettura MPI con directory Shared tra i worker node MPI_HOME_NOTSHAREDArchitettura MPI con directory NON Shared tra i worker node IDL-X.YSupporto per IDL versione X.Y ABAQUS-X.YSupporto per ABAQUS versione X.Y Sono stati definiti i TAG che descrivono - secondo gli standard europei che si è deciso di adottare - le caratteristiche delle risorse hardware e software. TAG DI RUNTIME

24 24 Nome CodaTIPOCPUTIME (minuti)WALLTIME (minuti)PRIORITY jobmanager- -poncert Coda di Certificazione28804320Prioritaria jobmanager- -crescocert Coda di Certificazione28804320Prioritaria jobmanager- -cybrcert Coda di Certificazione28804320Prioritaria jobmanager- -pi2s2cert Coda di Certificazione28804320Prioritaria jobmanager- -scopecert Coda di Certificazione28804320Prioritaria jobmanager- -cresco_short Coda Job Cresco15120Alta jobmanager- -cresco_long Coda Job Cresco7201440Media jobmanager- -cresco_infinite Coda Job Cresco28804320Bassa jobmanager- -cybr_short Coda Job Crybersar15120Alta jobmanager- -cybr_long Coda Job Crybersar7201440Media jobmanager- -cybr_infinite Coda Job Crybersar28804320Bassa jobmanager- -pi2s2_short Coda Job PI2S215120Alta jobmanager- -pi2s2_long Coda Job PI2S27201440Media jobmanager- -pi2s2_infinite Coda Job PI2S228804320Bassa Tutti i progetti implementano tre code job per ogni progetto, short, long e infinite più la coda poncert (per la certificazione dei sw) con differenti policies di CPUTIME e WALLTIME e differenti priorità. JOB QUEUE

25 25 E’ stata adottata la seguente organizzazione: Servizi distribuiti: VOMS, BDII, RB/WMS, CE, SE, WN, UI LFC, Ticketing Servizi centralizzati: Monitoring, Accounting SERVIZI “COLLECTIVE” CENTRALI E DISTRIBUITI

26 26 I servizi di monitoraggio sono stati implementati in maniera centrale e suddivisi tra i progetti in modo da avere molti tools attivi ma senza una eccessiva ridondanza che produrrebbe un eccessivo traffico di interrogazioni. Web LDAP Browser (in ogni sito) GridICE (centralizzato presso SCoPE) GStat (centralizzato presso il server goc.grid.sinica.edu.tw ) SAM +VO poncert (centralizzato presso CYBERSAR) Real-Time Monitoring (centralizzato presso PI2S2) SERVIZI DI MONITORAGGIO

27 27 Monitoraggio GSTAT SAM – CYBERSAR https://sam-cybr.ca.infn.it/sam/sam.py DOWN-TIME - PI2S2 http://trigrid-advices.trigrid.it/support/calendar/ GRIDICE http://gridice.scope.unina.it

28 28 Soluzione tecnica:  Realizzare tool-kit di applicazione  Pubblicare nella variabile di RUNTIME  Installare il software tramite utenti SGM (Software Grid Manager ) ISTALLAZIONE SOFTWARE APPLICATIVO

29 29 Protocolli di trasferimento Per mantenere il sistema di autenticazione basato sui certificati, i progetti abiliteranno il protocollo di trasferimento griftp per il trasferimento dati. Interfacce SRM (Storage Resource Manager) e configurazioni Per garantire piena compatibilità ed interoperabilità con le altre strutture internazionali gli Storage Element impiegati per l’interoperabilità dai progetti utilizzeranno interfaccia SRM supportando srmv1.1 e srmv2.2. Ogni progetto abiliterà sugli storage element impegnati nell’interoperabilità una quantità di spazio disco da definire creando le seguenti aree logiche: /home/cresco, /home/cyersar, /home/pi2s2, /home/scope INTERFACCE E PROTOCOLLI PER LO STORAGE

30 30 DGAS (Distributed Grid Accounting System ) Si utilizzerà per le informazioni di accounting il sistema DGAS (ref. http://www.to.infn.it/grid/accounting/main.html) installando il sensore DGAS Gianduia sui Computing Element.http://www.to.infn.it/grid/accounting/main.html HLR (Home Location Register ) Ogni sito installerà un HLR_RESOURCE ed un HLR_USER Server sul quale verranno registrate tutte le risorse disponibili per l’interoperabilità, in termini di code job. Sarà possibile individuare un HLR di secondo livello per raccogliere le informazioni dei differenti progetti in un unico punto, utilizzando il tool grafico HLR MON. ACCOUNTING

31 31  Ogni progetto utilizzerà il proprio sistema di ticketing locale.  Per la gestione dei ticket interprogetto, se un utente del progetto X riscontra problemi sul sito del progetto Y, può aprire una segnalazione direttamente sul sistema di ticketing del progetto Y.  I sistemi di ticketing devono prevedere almeno 3 aree per la suddivisione dei ticket:  SITE – per i problemi tecnici di installazione  VO – per le questioni relative alla singola virtual organization, certificazioni ecc.  APPLICATION – per il supporto delle applicazioni. GESTIONE DOWNTIME E SISTEMA DI TICKET

32 32 SCOPE TICKET TICKET PI2S2 TICKET-CYBERSAR TICKET CRESCO

33 33 E’ stato preparato un documento per definire il livello di servizi che i progetti si impegnano a garantire. Ci si basa sull’esperienza del Regional Operation Center (ROC) italiano di EGEE. SERVICE LEVEL AGREEMENT

34 34 corso la discussione E’ in corso la discussione dei seguenti punti principali: DURATA DELL’AGREEMENT RESPONSABILITA’ SUPPORTO DI SECONDO LIVELLO HARDWARE E CRITERI DI CONNETTIVITA’ DESCRIZONE DEI SERVIZI MINIMI OFFERTI (Numero di CPU e di spazio disco) SERVICE HOURS DOWNTIME SUPPORTO VO

35 35 Ogni sito coinvolto nell’infrastruttura interoperabile dovrà :  Fornire risorse di calcolo, storage e servizi: numero di CPU pari al 25% delle forniture ………………………  Garantire man power sufficiente per l’interoperabilità: almeno 2 persone, per un totale minimo di 1 FTE  Gestire efficacemente le risorse del sito: a) effettuare gli aggiornamenti relativi al software applicativo per le applicazioni di interoperabilità. b) modificare le configurazioni coordinandosi durante le riunioni telefoniche.  Prendere in carico e aggiornare i ticket relativi all’interoperabilità: tempo massimo di risposta: 48 ore dal lunedì al venerdì. Memorandum of Understanding Progetti Avviso 1575 Definizione del Service Level Agreement per l’interoperabilità tra i quattro progetti dell’Avviso 1575

36 36  Monitorare “proattivamente” il sito, controllando periodicamente lo stato delle risorse e dei servizi mediante tools di monitoraggio concordati: GridICE, Gstat, SFT, ecc.  Garantire continuità al supporto ed alla gestione del sito; durante i periodi unattended, si dovrà mettere in down-time il sito chiudendo le code.  Garantire la partecipazione dei tecnici operativi dell’ interoperabilità alle phone conference quindicinali.  Compilare i pre-report settimanali: entro il venerdì.  Supportare le VO di test e controllo (coda poncert) con priorità maggiore rispetto alle altre VO. Questo MoU dovrà essere sottoscritto dal responsabile del progetto e potrà essere aggiornato in base ai feedback ottenuti durante la sperimentazione.

37 37 E’ attualmente in corso un’indagine per individuare aree applicative di interesse comune ai 4 progetti con l’obiettivo di creare VO tematiche trasversali. Tali VO costituiranno un valore aggiunto per l’integrazione e la coesione tra le infrastrutture nascenti ed avranno, tra le altre attività, l’obiettivo di individuare e manutenere il software applicativo di interesse specifico. Le soluzioni tecniche fin ora adottate sono adeguate per realizzare l’e-infrastruttura dell’Italia meridionale e per l’integrazione nell’ e-infrastruttura Grid italiana ed europea. ABILITAZIONE DELLE VO COMUNI INTEROPERABILITA’ CON ALTRE INFRASTRUTTURE

38 38 Organizzare e portare a pieno regime il sistema di ticketing per il supporto verso gli utenti. Organizzare delle Guide di utilizzo del software applicativo. Configurare e monitorizzare i servizi di HLR per l’accounting. Organizzare i TOOL KIT con le librerie applicative. Attività del Gruppo Tecnico Operativo

39 39 Personale Coinvolto nella attività di interoperabilità CYBERSAR Daniele Mura daniele.mura@ca.infn.it Gianmario Mereu Gianmario.mereu@ca.infn.it CRESCO Giovanni Bracco bracco@frascati.enea.it Carlo Scio scio@frascati.enea.it PI2S2 Rosanna Catania Rosanna.Catania@ct.infn.it Giuseppe Platania giuseppe.platania@ct.infn.it Gianni Mario Ricciardi giannimario.ricciardi@ct.infn.it Gianluca Passaro gianluca.passaro@ct.infn.it Alberto Falzone alberto.falzone@nice-italy.com SCOPE Gennaro Tortone gennaro.tortone@na.infn.it Silvio Pardi spardi@na.infn.it Fulvio Serio serio@unina.it Marco Scognamiglio marco.scognamiglio@unina.it Davide Bottalico davide.bottalico@unina.it Vania Boccia vania.boccia@unina.it

40 40 L’Organizzazione GRIS Ù Creare una Griglia computazionale per il calcolo ad alte prestazioni (in totale, ~8000 CPU e ~0.5 Petabytes di spazio disco) nel Mezzogiorno d’Italia per attività di Ricerca & Sviluppo & Innovazione Coordinatore R.Barbera

41 41 Naples, Networking Day, 15.04.2008 41 La “rete” di GRIS Ù

42 42 L’attività di interoperabilità conflusice in GRISU- Griglie del Sud Protocollo di intesa stipulato tra I quattro progetti CRESCO, CyberSar, PI2S2 e SCoPE insieme con SPACI. GRISU

43 43 Il PON 2007-2013 (Generalità e Assi) Il PON 2007-2013 “Ricerca e Competitività” ha l’obiettivo di cofinanziare progetti nei campi della ricerca scientifica, dello sviluppo tecnologico, della competitività e dell’innovazione industriale nel periodo di programmazione 2007-2013. Il PON 2007-2013 si articolerà su 3 Assi prioritari: Asse I: Sostegno ai mutamenti strutturali Asse II: Sostegno all’innovazione Asse III: Assistenza tecnica e attività di accompagnamento Le azioni dell’Asse I e dell’Asse II saranno tra loro fortemente correlate ed interdipendenti

44 44

45 45 Obiettivi strategici da proporre al Ministero


Scaricare ppt "1 PROGETTO SCoPE E INTEGRAZIONE TRA I 4 PON EVOLUZIONE EGEE3 SA1 italia Bologna 20/05/2008 Silvio Pardi."

Presentazioni simili


Annunci Google