Scaricare la presentazione
La presentazione è in caricamento. Aspetta per favore
PubblicatoFranco Salerno Modificato 11 anni fa
1
1 MUR, 14/02/2008 - L.Merola INTEROPERABILITA TRA I PROGETTI DELLAVVISO 1575/2004 STRATEGIE E STATO DELLARTE
2
2 12/02/2007: Primo Concertation Meeting dei progetti dellAvviso 1575 Favorire una proficua sinergia finalizzata a delineare la struttura portante dell infrastruttura GRID nazionale che presenti fattori manifesti o latenti di attrattività per il sistema industriale. Creare nellambito del sito web del PON Ricerca una community web dedicata allAvviso 1575/2004. Attivare un Tavolo Tecnico a cui demandare la definizione di un programma volto a supportare l interoperabilità tra i 4 progetti cofinanziati. Aprire ad altri soggetti che operano in ambito GRID per promuovere un proficuo interscambio nazionale ed internazionale.
3
3 12/05/2007: Avvio del Tavolo Tecnico sullinteroperabilitàAzioni: Realizzare, in più steps, lintegrazione e il consolidamento operativo delle risorse informatiche predisposte dai progetti finanziati con le risorse assegnate dallAvviso 1575 in una comune e-Infrastruttura meridionale integrata a livello italiano ed europeo,con particolare riguardo a: -Miglioramento della connettivita interna tra le sedi in OB1 ed esterna verso le-Infrastruttura nazionale. -Definizione e realizzazione di comuni condizioni operative con Service Level Agreement e policies dinteroperabilita concordate a livello interno e con le e-Infrastrutture di riferimento nazionale ed europeo. -Miglioramento ed evoluzione coordinato dei servizi di middleware secondo le necessità di comuni applicazioni allinterno del quadro di riferimento nazionale ed internazionale. - Scelta e supporto integrato di possibili applicazioni comuni. -Definizione realizzazione di un comune portale di accesso.
4
PI2S2Dr. Giuseppe Andronicogiuseppe.andronico@ct.infn.iteffettivo PI2S2Prof. Antonella Di Stefanoad@diit.unict.itsostituto PI2S2Prof. Antonio Puliafitoapuliafito@unime.itsostituto SCoPEProf. Leonardo Merola (ccordinatore) leonardo.merola@na.infn.iteffettivo SCoPEProf. Guido Russoguido.russo@unina.itsostituto SCoPEProf. Almerico Murlialmerico.murli@unina.itsostituto CRESCODr. Silvio Migliorimigliori@enea.iteffettivo CRESCODr. Giovanni Braccobracco@frascati.enea.itsostituto CRESCODr. Andrea Quintilianiquintiliani@casaccia.enea.itsostituto CYBERSARdr Alberto Masonialberto.masoni@ca.infn.iteffettivo CYBERSARDr. Daniele Muradaniele.mura@ca.infn.itsostituto CYBERSARGianluigi Zanettigianluigi.zanetti@crs4.itsostituto ESPERTO MURProf. Mirco Mazzuccatomirco.mazzucato@pd.infn.it ESPERTO MURProf. Francesco Beltramefrancesco.beltrame@miur.it COMITATO TECNICO SULLINTEOPERABILITA (AVVISO 1575/2004)
5
5 Riunioni del Comitato Tecnico sullInteroperabilità: 19/07/2007 27/09/2007 25/10/2007 29/11/2007 20/12/2007 24/01/2008 Documento sulla Connettività Documento sulla Connettività OK Documento sullInteroperabilità Documento sullInteroperabilità OK Documento tecnico operativo Documento tecnico operativo in corso Service Level Agreement Service Level Agreement in corso Prossime riunioni:28/02/2008 27/03/2008 23/04/2008 22/05/2008 Documenti strategici e operativi:
6
6 E stato costituito un gruppo di lavoro tecnico operativo composto da esperti dei quattro progetti, che riferiscono al Comitato Tecnico sullInteroperabilità (CTI). Il gruppo tecnico operativo ha il mandato di: elaborare un Documento Tecnico Operativo che adotti le direttive strategiche fornite dal Comitato Tecnico sullinteroperabilità; proporre soluzioni tecniche implementative di dettaglio; gestire tecnicamente ed operativamente linfrastruttura comune.
7
7 Gruppo TECNICO OPERATIVO (AVVISO 1575/2004) SCOPE (Napoli): Silvio Pardi spardi@na.infn.it (coordinatore del gruppo)spardi@na.infn.it Gennaro Tortone gennaro.tortone@na.infn.itgennaro.tortone@na.infn.it Fulvio Serio serio@unina.itserio@unina.it Marco Scognamiglio marco.scognamiglio@unina.itmarco.scognamiglio@unina.it Davide Bottalico davide.bottalico@unina.it Vania Boccia vania.boccia@unina.itdavide.bottalico@unina.itvania.boccia@unina.it PI2S2 (Sicilia): Rosanna Catania Rosanna.Catania@ct.infn.it Giuseppe Platania giuseppe.platania@ct.infn.it Gianni Mario Ricciardi giannimario.ricciardi@ct.infn.it Gianluca Passaro gianluca.passaro@ct.infn.it Alberto Falzone alberto.falzone@nice-italy.comRosanna.Catania@ct.infn.itgiuseppe.platania@ct.infn.itgiannimario.ricciardi@ct.infn.itgianluca.passaro@ct.infn.italberto.falzone@nice-italy.com Daniele Zito daniele.zito@diit.unict.it Emilio Mastriani mastriani@dmi.unict.itdaniele.zito@diit.unict.itmastriani@dmi.unict.it CRESCO (ENEA): Giovanni Bracco bracco@frascati.enea.it Carlo Scio scio@frascati.enea.itbracco@frascati.enea.itscio@frascati.enea.it Andrea Santoro andrea.santoro@frascati.enea.itandrea.santoro@frascati.enea.it Alessio Rocchi alessio.rocchi@frascati.enea.it CYBERSAR (Sardegna):alessio.rocchi@frascati.enea.it Daniele Mura daniele.mura@ca.infn.itdaniele.mura@ca.infn.it Gianmario Mereu Gianmario.mereu@ca.infn.itGianmario.mereu@ca.infn.it
8
8 E in fase avanzata di realizzazione la prima fase: LINTEROPERABILITADELLE INFRASTRUTTURE L INTEROPERABILITA DELLE INFRASTRUTTURE Si sta avviando la seconda fase: LINTEROPERABILITADELLE APPLICAZIONI L INTEROPERABILITA DELLE APPLICAZIONI Si è avviata la discussione sulla programmazione 2007-2013: LA REALIZZAZIONE DELLe-INFRASTRUTTURA ITALIANA APERTA ALLA COLLABORAZIONE ITALIANA APERTA ALLA COLLABORAZIONE E ALLINTERAZIONE TRA RICERCA E IMPRESA E ALLINTERAZIONE TRA RICERCA E IMPRESA
9
9 TEMPISTICA 27/09/07 25/10/07 ATTIVAZIONE VO NEI SITI PROVVISTI DI SERVIZI COLLETTIVI IMPLEMENTAZIONE DEI SERVIZI COLLETTIVI NEI SITI ANCORA SPROVVISTI INIZIO DEL TESTBED INTEGRAZIONE DEI 4 PON INTEGRAZIONE DEI 4 PON TESTBED SU TUTTA LA NUOVA GRIGLIA 24/01/08 28/02/08 29/11/07 SPECIFICHE DEI SERVIZI DI PRIMO LIVELLO SPECIFICHE SERVIZI DI SECONDO LIVELLO E SERVICES LEVEL AGREEMENT 20/12/07 APPLICAZIONIAPPLICAZIONI COMUNICOMUNI
10
Community web Avviso 1575: OK
12
12 CONNETTIVITA fra i progetti Avviso 1575/2004 http://www.ponricerca.miur.it/OrganizationFolders/CentriSuperC/6704.DOC documento approvato nella riunione del CTI del 25-10-2007
13
13 Per la realizzazione dellinteroperabilità dellinfrastruttura Grid dei progetti dellAvviso 1575/2004 è cruciale che la connettività (reti e comunicazioni) sia adeguata in termini di prestazioni, affidabilità, efficienza, ridondanza. E essenziale il ruolo che il Consortium GARR potrà svolgere anche in futuro. E indispensabile che i quattro progetti possano contare subito su interconnessioni a 622 Mb/s con una banda garantita di almeno 400 Mb/s in questa fase iniziale di interoperabilità con successivo ampliamento quando sarà realizzata linterconnessione per tutti al Gb/s e oltre, come peraltro è già previsto nei progetti GARR di potenziamento della rete a 10 Gb/s (GARRX). Obiettivo immediato OTTOBRE 2007: E stata inviata una lettera al MUR affinché sostenga presso il Consortium GARR la priorità del potenziamento della CONNETTIVITA fra i progetti dellAvviso 1575/2004
14
14 Obiettivo a medio-termine Realizzare un anello di fibre che interconnetta i siti relativi ai progetti finanziati dal PON utilizzando WDM (Multiplazione a Divisione di Lunghezza donda) con limplementazione di collegamenti IP dedicati in tecnologia 10GigaEthernet e la remotizzazione di collegamenti fra le strutture di Storage in tecnologia FC o SCSI. Acquisizione fibre dedicate (dark fiber) in IRU (Indefeasible Right of Use): diritto di utilizzazione pluriennale di una infrastruttura in fibra ottica già esistente
15
15 La realizzazione Linfrastruttura sarà costituita da tratte geografiche terrestri e marine e drop locali di collegamento Le tratte a copertura geografica interregionale o interprovinciale saranno mutuabili dalla futura infrastruttura di GARR-X Per le tratte locali (<70 Km) non condizionate da problemi di amplificazione o rigenerazione intermedia saranno utilizzate tratte locali di infrastrutture MAN preesistenti o da acquisire con appalti ad-hoc
16
16 Interconnessione SCOPE-CRESCO Napoli Monte S. Angelo - Roma Sapienza sarà realizzata nel contesto del Lotto A.6 della gara GARR-X completamento a 5 mesi dalla consegna lavori. Napoli Monte S. Angelo – Catania Cittadella sarà realizzata nel contesto del Lotto A.7 della gara GARR-X completamento a 10 mesi dallinizio dei lavori. Napoli Monte S. Angelo – Corso Umberto, realizzata nel contesto della MAN Napoletana della Ricerca è già disponibile in fibra G.652 (1 coppia dedicabile) Corso Umberto – Enea Portici (circa 17 Km) va realizzata in fibra ottica G.652 al costo ~ 350K
17
17 Interconnessione PI2S2 Le tratte interne Catania Cittadella-Palermo-Mazara del Vallo e Messina-Palermo saranno realizzate nel contesto del Lotto A.9 della gara GARR-X per cui è previsto il completamento a 10 mesi dallinizio dei lavori.
18
18 Interconnessione CYBERSAR la tratta sottomarina Sa Illetta-Mazara del Vallo (377km – fibra G.654) è già stata realizzata nel contesto del consorzio Janna la tratta sottomarina Olbia – Civitavecchia (250km – fibra G.652) è già stata realizzata nel contesto del consorzio Janna la tratta Civitavecchia-Roma sarà realizzata nel contesto del Lotto A.13 della gara GARR- X completamento a 10 mesi dalla consegna lavori. La tratta Cagliari (Sa Illetta) –Sassari (Macao) - Olbia sarà realizzata nel contesto del Lotto A.11 della gara GARR-X completamento a 10 mesi la tratta interna Sa Illetta (landing point di Janna) -Pula (parco Polaris - CRS4) di circa 40Km è già disponibile (Fibra Telecom/Tiscali già Acquisita in IRU dalla Regione nellambito diCyberSAR) e fornita in comodato duso gratuito a CRS4
19
19 INTEROPERABILITA fra i progetti Avviso 1575/2004 http://www.ponricerca.miur.it/OrganizationFolders/CentriSuperC/6705.DOC documento approvato nella riunione del CTI del 25-10-2007
20
20 Lobiettivo dell interoperabilità fra i progetti dellAvviso 1575/04 è in corso di realizzazione attraverso ladozione di uno standard comune di comunicazione e di servizi di base comuni ed è compatibile con linteroperabilità e la facile integrazione con le altre infrastrutture di calcolo distribuito nazionali ed internazionali basate sulla tecnologia Grid. Linteroperabilità è già stata realizzata in versione limitata e prototipale con risorse proprie dei singoli progetti già esistenti (pre-esistenze) e sarà completa entro pochi mesi e comunque entro la conclusione dei progetti. A regime: -- potenza di calcolo di alcune migliaia di core per progetto -- centinaia di TB per progetto -- servizi Grid in parte centralizzati in parte replicati localmente
21
21 Preesistenze SCoPE Le principali preesistenze di risorse di calcolo riguardano i settori scientifici Fisica-Chimica-Matematica che operano nel Campus di Monte SantAngelo dove è già attiva uninfrastruttura di Campus Grid, e i poli di Ingegneria e di Medicina, tutti collegati in MAN con fibra a 2.4Gb/s. Preesistenze PI2S2 La grid siciliana è attualmente organizzata in poli di calcolo dislocati geograficamente. Preesistenze CRESCO La GRID ENEA è attualmente costituita da sei poli situati nei centri ENEA di Portici, Frascati, Roma (ENEA-Casaccia); Bologna; Brindisi, Matera (ENEA-Trisaia). Il progetto coinvolge, oltre a Portici, i centri ENEA di Brindisi e Trisaia (MT). Preesistenze CYBERSAR E organizzato in poli di calcolo, dislocati geograficamente, interconnessi da una fibra ottica dedicata ed integrati tra loro da una architettura di tipo grid.
22
22 Ladozione di uno strato middleware comune (anche tramite appositi gateway) è necessario al fine di creare una comune Infrastruttura di calcolo integrata e interoperabile sia a livello italiano che europeo anche con Grid che adottano standard diversi. Scelte strategiche: gLite Standard comune di comunicazione: gLite gLite Implementazione di servizi basati su gLite LCG e LCG (LHC Computing Grid) Certification Authority Certification Authority riconosciuta a livello mondiale
23
23 Servizi aggiuntivi (o di secondo livello): Servizi aggiuntivi (o di secondo livello): Cataloghi virtuali dei file (LFC, AMGA, ecc.) Portale daccesso (Genius, line-mode, ecc.) Monitoring (GridIce, Service Availability Montoring, ecc.) Tickets (Xoops/Xhelp, ecc.) Accounting (DGAS, APEL, ecc.) Tags (descrizione risorse, ecc.) Service Level Agreement Service Level Agreement Servizi di base (o di primo livello): VOMS Collective: VOMS (Virtual Organization Memebership Service), RB/WMS BDII RB/WMS (Resource Broker), BDII (Information Index) CE WN Core: CE (Computing Element), WN (Worker Node), SE UI SE (Storage Element), UI (User Interface)
24
24 GARR PI2S2 GARR Altri Enti e realtà
25
25 Servizi centralizzati e Servizi distribuiti I servizi di primo livello sono replicati nelle varie sedi come stabilito nel documento di interoperabilità. Per quanto riguarda i servizi di secondo livello tecnicamente appare opportuno centralizzare alcuni di essi per evitare eccessivo carico sulla rete Grid.
26
26 Vantaggi visione unica dellintera infrastruttura nessuna modifica alla configurazione del RB locale assenza di un servizio centralizzato dedicato alla gestione del Grid Information Service e del Resource Broker implementazione semplice ed immediata
27
27 Applicazioni computazionali chimiche Gaussian 03 (codice di riferimento per i calcoli quantistici) sfrutta larchitettura SMP, mentre AMBER e GROMACS (codici di dinamica molecolare classica) lavorano efficacemente su architettura cluster. Applicazioni di Imaging medico (MedIGrid) 1) Effettuare la ricostruzione 3D di immagini SPECT mediante lutilizzo di una libreria di software parallelo basata su MPI. 2) Effettuare denoising di sequenze ecocardiografiche mediante lutilizzo di una libreria di software parallelo basata su PETSc. Applicazioni di Elettromagnetismo e Telecomunicazioni Previsione e il monitoraggio del campo elettromagnetico in centri urbani; pianificazione di reti wireless, una volta note le sorgenti di campo (antenne da installare, o già operanti, per le comunicazioni GSM), le condizioni iniziali e al contorno. Applicazioni di Fisica subnucleare e di astrofisica Studio delle interazioni protone-protone ad altissima energia presso l'acceleratore LHC (Large Hadron Collider) del CERN (esperimento ATLAS). Ricerca di onde gravitazionali (esperimento VIRGO). Astrofisica di Survey Applicazioni SCoPE (prime applicazioni esportabili per linteoperabilità)
28
28 FLASH (www.flash.uchicago.edu) è un programma sviluppato da Alliances Center for Astrophysical Termonuclear Flashes per studiare il problema dei lampi termonucleari sulla superficie di stelle compatte, ed e molto usato da comunità di astrofisica. Questa applicazione richiede MPICH2.www.flash.uchicago.edu OpenFOAM (www.opencfd.co.uk/openfoam) Open Field Operation and Manipulation, una applicazione per la simulazione di campi basata sulla risoluzione di equazioni differenziali alle derivate parziali e completamente basato sulluso di MPICH2. Largamente usata da comunità di ingegneria e, in particolare, allinterno del progetto per calcoli di fluidodinamica che descrivono la combustione nei motori a scoppio.www.opencfd.co.uk/openfoam Applicazioni PI2S2 (prime applicazioni esportabili per linteroperabilità)
29
29 Applicazioni CRESCO IDL Codice commerciale con licenza non parallelo ma con un elevato numero di casi da eseguire (es. analisi immagini, analisi immagini satellitari...). LENEA può mettere a disposizione attraverso il suo portale laccesso allo sviluppo e la possibilità di eseguire fino ad 80 casi in contemporanea a livello geografico e multipiattaforma. FLUENT Codice commerciale con licenza parallelo ad alto accoppiamento, il numero di licenze è limitato ma sufficienti ad una sperimentazione. CPMD Codice OpenSource parallelo per la modellazione di materiali.
30
30 Chimica Mdynamix è un codice parallelo scalabile di simulazione di dinamiche molecolari di sistemi molecolari di varia natura. Meteorologia MOLOCH viene utilizzato per scopi di ricerca per la simulazione, ad alta risoluzione spaziale e a breve scadenza temporale, dello sviluppo di temporali, di flussi sopra orografie complesse e di processi fisici responsabili di precipitazioni intense. Idrologia CODESA-3D è un modello matematico-numerico che descrive il flusso di acqua sotterranea e il trasporto di inquinanti in essa disciolti nel suolo e sottosuolo. Astrofisica codice per simulazioni TD-DFT di molecole in tempo e spazio reale Ingegneria strutturale ed industriale simulazione e modellistica nell'ingegneria di processo e della produzione e la pianifcazione territoriale ed ambientale Fisica delle alte energie Esperimento ALICE (A Large Ion Collider Experiment) del CERN di Ginevra Fisica della Materia CMPTool (Caspur Model Potentials Tool), applicazione multi piattaforma sviluppata per simulazioni di dinamica molecolare Biofisica ORAC e' un codice di dinamica molecolare classica per simulare sistemi e processi con applicazioni nel campo biologico/medico alla scala microscopica Applicazioni CYBERSAR
31
31 IMPLEMENTAZIONE TECNICA DELLINTEROPERABILITA Documento Tecnico Operativo in corso di elaborazione
32
32 Documento Tecnico Operativo SOMMARIO 1. TAG DI RUNTIME 2. JOB QUEUE 3. SERVIZI COLLECTIVE CENTRALI E DISTRIBUITI 4. SERVIZI DI MONITORAGGIO 5. ISTALLAZIONE SOFTWARE APPLICATIVO 6. INTERFACCE E PROTOCOLLI PER LO STORAGE 7. ACCOUNTING 8. GESTIONE DOWNTIME E SISTEMA DI TICKET 9. SERVICE LEVEL AGREEMENT 10. ABILITAZIONE DELLE VO COMUNI 11. INTEROPERABILITA CON ALTRE INFRASTRUTTURE OK
33
33 TAGSPECIFICA MIDDLEWARE LCG-X_Y_ZSupporta versione del middleware LCG-X_Y_Z GLITE-X_Y_ZSupporta versione del middleware GLITE-X_Y_Z ANAGRAFICA CITTA (XXXX)Città dove è situato il sito PROJECT-NAME (XXXX)Nome del progetto SITE-NAME (XXXX)Nome del sito LIBRERIE E SOFTWARE MPICHLibreria MPICH MPICH2Libreria MPICH versione 2 MPI_HOME_SHAREDArchitettura MPI con directory Shared tra i worker node MPI_HOME_NOTSHAREDArchitettura MPI con directory NON Shared tra i worker node IDL-X.YSupporto per IDL versione X.Y ABAQUS-X.YSupporto per ABAQUS versione X.Y Sono stati definiti i TAG che descrivono - secondo gli standard europei che si è deciso di adottare - le caratteristiche delle risorse hardware e software. TAG DI RUNTIME
34
34 Nome CodaTIPOCPUTIME (minuti)WALLTIME (minuti)PRIORITY jobmanager- -poncert Coda di Certificazione28804320Prioritaria jobmanager- -crescocert Coda di Certificazione28804320Prioritaria jobmanager- -cybrcert Coda di Certificazione28804320Prioritaria jobmanager- -pi2s2cert Coda di Certificazione28804320Prioritaria jobmanager- -scopecert Coda di Certificazione28804320Prioritaria jobmanager- -cresco_short Coda Job Cresco15120Alta jobmanager- -cresco_long Coda Job Cresco7201440Media jobmanager- -cresco_infinite Coda Job Cresco28804320Bassa jobmanager- -cybr_short Coda Job Crybersar15120Alta jobmanager- -cybr_long Coda Job Crybersar7201440Media jobmanager- -cybr_infinite Coda Job Crybersar28804320Bassa jobmanager- -pi2s2_short Coda Job PI2S215120Alta jobmanager- -pi2s2_long Coda Job PI2S27201440Media jobmanager- -pi2s2_infinite Coda Job PI2S228804320Bassa Tutti i progetti implementano tre code job per ogni progetto, short, long e infinite più la coda poncert (per la certificazione dei sw) con differenti policies di CPUTIME e WALLTIME e differenti priorità. JOB QUEUE
35
35 E stata adottata la seguente organizzazione: Servizi distribuiti: VOMS, BDII, RB/WMS, CE, SE, WN, UI LFC, Ticketing Servizi centralizzati: Monitoring, Accounting SERVIZI COLLECTIVE CENTRALI E DISTRIBUITI
36
36 I servizi di monitoraggio sono stati implementati in maniera centrale e suddivisi tra i progetti in modo da avere molti tools attivi ma senza una eccessiva ridondanza che produrrebbe un eccessivo traffico di interrogazioni. Web LDAP Browser (in ogni sito) GridICE (centralizzato presso SCoPE) GStat (centralizzato presso il server goc.grid.sinica.edu.tw ) SAM +VO poncert (centralizzato presso CYBERSAR) Real-Time Monitoring (centralizzato presso PI2S2) SERVIZI DI MONITORAGGIO
37
37 Monitoraggio GSTAT SAM – CYBERSAR https://sam-cybr.ca.infn.it/sam/sam.py DOWN-TIME - PI2S2 http://trigrid-advices.trigrid.it/support/calendar/ GRIDICE – SCoPE http://gridice.scope.unina.it
38
38 Soluzione tecnica: Realizzare tool-kit di applicazione Pubblicare nella variabile di RUNTIME Installare il software tramite utenti SGM (Software Grid Manager ) E in corso la definizione delle applicazioni comuni e dei relativi tool-kit ISTALLAZIONE SOFTWARE APPLICATIVO
39
39 Protocolli di trasferimento Per mantenere il sistema di autenticazione basato sui certificati, i progetti abiliteranno il protocollo di trasferimento griftp per il trasferimento dati. Interfacce SRM (Storage Resource Manager) e configurazioni Per garantire piena compatibilità ed interoperabilità con le altre strutture internazionali gli Storage Element impiegati per linteroperabilità dai progetti utilizzeranno interfaccia SRM supportando srmv1.1 e srmv2.2. Ogni progetto abiliterà sugli storage element impegnati nellinteroperabilità una quantità di spazio disco da definire creando le seguenti aree logiche: /home/cresco, /home/cyersar, /home/pi2s2, /home/scope INTERFACCE E PROTOCOLLI PER LO STORAGE
40
40 DGAS (Distributed Grid Accounting System ) Si utilizzerà per le informazioni di accounting il sistema DGAS (ref. http://www.to.infn.it/grid/accounting/main.html) installando il sensore DGAS Gianduia sui Computing Element.http://www.to.infn.it/grid/accounting/main.html HLR (Home Location Register ) Ogni sito installerà un HLR_RESOURCE ed un HLR_USER Server sul quale verranno registrate tutte le risorse disponibili per linteroperabilità, in termini di code job. Sarà possibile individuare un HLR di secondo livello per raccogliere le informazioni dei differenti progetti in un unico punto, utilizzando il tool grafico HLR MON. ACCOUNTING
41
41 Ogni progetto utilizzerà il proprio sistema di ticketing locale. Per la gestione dei ticket interprogetto, se un utente del progetto X riscontra problemi sul sito del progetto Y, può aprire una segnalazione direttamente sul sistema di ticketing del progetto Y. I sistemi di ticketing devono prevedere almeno 3 aree per la suddivisione dei ticket: SITE – per i problemi tecnici di installazione VO – per le questioni relative alla singola virtual organization, certificazioni ecc. APPLICATION – per il supporto delle applicazioni. GESTIONE DOWNTIME E SISTEMA DI TICKET
42
42 SCOPE TICKET TICKET PI2S2 TICKET-CYBERSAR
43
43 E stato preparato un documento per definire il livello di servizi che i progetti si impegnano a garantire. Ci si basa sullesperienza del Regional Operation Center (ROC) italiano di EGEE. SERVICE LEVEL AGREEMENT
44
44 corso la discussione E in corso la discussione dei seguenti punti principali: DURATA DELLAGREEMENT RESPONSABILITA SUPPORTO DI SECONDO LIVELLO HARDWARE E CRITERI DI CONNETTIVITA DESCRIZONE DEI SERVIZI MINIMI OFFERTI (Numero di CPU e di spazio disco) SERVICE HOURS DOWNTIME SUPPORTO VO
45
45 Ogni sito coinvolto nellinfrastruttura interoperabile dovrà : Fornire risorse di calcolo, storage e servizi: numero di CPU pari al 25% delle forniture ……………………… Garantire man power sufficiente per linteroperabilità: almeno 2 persone, per un totale minimo di 1 FTE Gestire efficacemente le risorse del sito: a) effettuare gli aggiornamenti relativi al software applicativo per le applicazioni di interoperabilità. b) modificare le configurazioni coordinandosi durante le riunioni telefoniche. Prendere in carico e aggiornare i ticket relativi allinteroperabilità: tempo massimo di risposta: 48 ore dal lunedì al venerdì. Memorandum of Understanding Progetti Avviso 1575 Definizione del Service Level Agreement per linteroperabilità tra i quattro progetti dellAvviso 1575 (IN DISCUSSIONE)
46
46 Monitorare proattivamente il sito, controllando periodicamente lo stato delle risorse e dei servizi mediante tools di monitoraggio concordati: GridICE, Gstat, SFT, ecc. Garantire continuità al supporto ed alla gestione del sito; durante i periodi unattended, si dovrà mettere in down-time il sito chiudendo le code. Garantire la partecipazione dei tecnici operativi dell interoperabilità alle phone conference quindicinali. Compilare i pre-report settimanali: entro il venerdì. Supportare le VO di test e controllo (coda poncert) con priorità maggiore rispetto alle altre VO. Questo MoU dovrà essere sottoscritto dal responsabile del progetto e potrà essere aggiornato in base ai feedback ottenuti durante la sperimentazione.
47
47 E attualmente in corso unindagine per individuare aree applicative di interesse comune ai 4 progetti con lobiettivo di creare VO tematiche trasversali. Tali VO costituiranno un valore aggiunto per lintegrazione e la coesione tra le infrastrutture nascenti ed avranno, tra le altre attività, lobiettivo di individuare e manutenere il software applicativo di interesse specifico. Le soluzioni tecniche fin ora adottate sono adeguate per realizzare le-infrastruttura dellItalia meridionale e per lintegrazione nell e-infrastruttura Grid italiana ed europea. ABILITAZIONE DELLE VO COMUNI INTEROPERABILITA CON ALTRE INFRASTRUTTURE
48
48 E ASSOLUTAMENTE NECESSARIO NON DISPERDERE AL TERMINE DEI PROGETTI IL PATRIMONIO DI RISORSE, COMPETENZE, SINERGIE E RISULTATI SCIENTIFICI ACQUISITI. OCCORRE ASSICURARE LA CONTINUITA DELLA COMUNITA CHE HA DATO VITA AL 1575 ESPORTANDO ANCHE LESPERIENZA AD ALTRE REALTA SCIENTIFICHE E NON.
49
49 PROGRAMMAZIONE 2007-2013 PON RICERCA E COMPETITIVITA Asse I: Sostegno ai mutamenti strutturali Asse II: Sostegno allinnovazione Asse I Obiettivo operativo: Potenziamento delle strutture e delle dotazioni scientifiche e tecnologiche Azione: Rafforzamento strutturale Lazione prevede lo sviluppo del GRID computing su una dimensione pluriregionale, in modo da assicurare il rafforzamento di uninfrastruttura strategica per la soluzione al problema del calcolo distribuito e ad alte prestazioni attraverso laccesso a risorse di diversa natura (calcolatori, banche dati, librerie software). Ciò consentirà di valorizzare gli interventi realizzati nella programmazione 2000-2006 e di integrare quanto verrà compiuto attraverso la politica nazionale per le aree sottoutilizzate. Gli interventi sono mirati ad accrescere il ruolo che gli attori scientifici dellobiettivo Convergenza potranno svolgere nellambito del VII Programma Quadro.
50
Conferenza Nazionale IES08 IES08 - Italian e-Science 2008 Napoli, 27–29 maggio 2008 Universita degli di Studi di Napoli Federico II Aula Magna, Complesso Universitario Monte S. Angelo, via Cintia, Napoli
Presentazioni simili
© 2024 SlidePlayer.it Inc.
All rights reserved.