1 REALIZZAZIONE DELLINTEROPERABILITA FRA I PROGETTI DELLAVVISO 1575/2004 Riunione del Comitato Tecnico sullInteroperabilità MUR, 27/09/2007.

Slides:



Advertisements
Presentazioni simili
Introduzione al prototipo Grid-SCoPE
Advertisements

STATO DEL PROTOTIPO DI SCoPE E DELL’INTEGRAZIONE TRA I 4 PON
CRESCO – Kick-off meeting LA II – 23 maggio 2006 CRESCO–workshop SPIII– ENEA 06Luglio 2007 ITALIAN NATIONAL AGENCY FOR NEW TECNOLOGY,
UNIVERSITA DEGLI STUDI DI PARMA Dipartimento di Ingegneria dellInformazione Parma, Novembre 2003 Conferenza europea di Minerva SERVIZI E TECNOLOGIE.
La Direttiva Europea 2007/02/EC
UNIVERSITÀ DEGLI STUDI DI SIENA FACOLTÀ DI INGEGNERIA.
18/06/08 InterPro – Interoperabilità di Protocollo Walter Volpi Regione Toscana Livorno - 4 luglio 2008.
1 Progettare e operare nella scuola dellautonomia Attività di formazione del personale del sistema scolastico Tratto da LA SCUOLA per lo Sviluppo Programma.
Consorzio COMETA - Progetto PI2S2 UNIONE EUROPEA Servizi middleware aggiuntivi URL dellindagine:
1 STATO DELLINTEGRAZIONE TRA I 4 PROGETTI AVVISO 1575/2004 ATTIVITA DEL GRUPPO TECNICO OPERATIVO Riunione del Comitato Tecnico sullInteroperabilità MUR,
1 IL PROGETTO SCoPE Slides in progress – L. Merola, G. Russo.
1 STATO DELLINTEGRAZIONE TRA I 4 PROGETTI AVVISO 1575/2004 ATTIVITA DEL GRUPPO TECNICO OPERATIVO Riunione del Comitato Tecnico sullInteroperabilità MUR,
1 STATO DELLINTEGRAZIONE TRA I 4 PROGETTI AVVISO 1575/2004 ATTIVITA DEL GRUPPO TECNICO OPERATIVO Riunione del Comitato Tecnico sullInteroperabilità MUR,
1 STATO DELLINTEGRAZIONE TRA I 4 PROGETTI AVVISO 1575/2004 ATTIVITA DEL GRUPPO TECNICO OPERATIVO Riunione del Comitato Tecnico sullInteroperabilità MUR,
Comitato Tecnico sullInteroperabilità MUR, L. Merola.
REALIZZAZIONE DELLINTEROPERABILITA FRA I PROGETTI DELLAVVISO 1575/2004 Riunione del Comitato Tecnico sullInteroperabilità MUR, 29/11/2007 L. Merola.
Interoperabilità tra i PON Giuseppe Andronico (INFN e Consorzio COMETA)
1 STATO DELLINTEGRAZIONE TRA I 4 PROGETTI AVVISO 1575/2004 Riunione del Comitato Tecnico sullInteroperabilità MUR, 28/02/2008 S.Pardi.
1 CONNETTIVITA progetti Avviso 1575/2004 Proposta di progetto di interconnessione su scala nazionale Riunione del Comitato Tecnico sullInteroperabilità
Comitato Tecnico sullInteroperabilità MUR, L. Merola.
Proposta di integrazione e consolidamento delle risorse presenti nellinfrastruttura Grid dellItalia Meridionale (L. Merola, )
Daniele Mura 25 Ottobre Stato di avanzamento dellinfrastruttura CyberSar.
1 STATO DELLINTEGRAZIONE TRA I 4 PROGETTI AVVISO 1575/2004 Riunione del Comitato Tecnico sullInteroperabilità MUR, 29/11/2007 S.Pardi.
Comitato Tecnico sullInteroperabilità MUR, L. Merola.
1 STATO DELLINTEGRAZIONE TRA I 4 PROGETTI AVVISO 1575/2004 ATTIVITA DEL GRUPPO TECNICO OPERATIVO Riunione del Comitato Tecnico sullInteroperabilità MUR,
Roma 30 ottobre 2008 UNIONE EUROPEA 1 Stato dell'interoperabilita' tra i progetti PON 1575 Riunione del Comitato di interoperabilià Roma 30/10/2008 Silvio.
Consorzio COMETA - Progetto PI2S2 UNIONE EUROPEA B rainstorming del Consorzio COMETA sul PON Dr. Giuseppe Andronico INFN.
1 STATO DELLINTEGRAZIONE TRA I 4 PROGETTI AVVISO 1575/2004 Riunione del Comitato Tecnico sullInteroperabilità MUR, 20/12/2007 S.Pardi.
1 MUR, 14/02/ L.Merola INTEROPERABILITA TRA I PROGETTI DELLAVVISO 1575/2004 STRATEGIE E STATO DELLARTE.
Proposta di integrazione e consolidamento delle risorse presenti nellinfrastruttura Grid dellItalia Meridionale (L. Merola, )
1 Riunione del 29 Marzo 2007 IL PROGETTO SCoPE Prof. Giuseppe Marrucci LAvviso 1575/2004 ed i quattro progetti vincitori Lo stato dellarte del progetto.
1 REALIZZAZIONE DELLINTEROPERABILITA FRA I PROGETTI DELLAVVISO 1575/2004 Riunione del Comitato Tecnico sullInteroperabilità MUR, 25/10/2007 L. Merola.
1 Riunione del 29 Marzo 2007 IL PROGETTO SCoPE Prof. Guido Russo I lavori Le apparecchiature Il portale.
1 CyberSar Grid Users Day - Cagliari, L. Merola INTEROPERABILITA FRA I PROGETTI DELLAVVISO 1575/2004.
1 STATO DI AVANZAMENTO DEL PROGETTO SCoPE Slides in progress – L. Merola, G. Russo.
CRESCO – Kick-off meeting LA II – 23 maggio 2006 CRESCO–Infrastruttura HPC– ENEA 03 aprile Il Progetto.
Riunione CRESCO Infrastruttura HPC Cresco Analisi Preliminare.
Analisi Computazionale Fluido-Struttura sulla Griglia ENEA
WP 14 Grid Applications for Geophysics Istituto Nazionale di Geofisica e Vulcanologia INGV Progetto FIRB Grid.it Documento di rimodulazione.
Workshop CNAF – Bologna 8 Luglio 2011 FARO Accesso Web a risorse e servizi remoti in ambiente Grid/Cloud A. Rocchi, C. Sciò, G. Bracco, S. Migliori, F.
WP3 – Fornitura per realizzazione Prototipo Condivisione obiettivi e scenari duso 12 Giugno 2008.
25 ottobre 2002infn1 FIRB-Grid WP3,5 Grid deployment.
CASACCIA FRASCATI S.Teresa Saluggia Ispra BOLOGNA PORTICI TRISAIA BRINDISI Manfredonia Centri computazionali ENEA-GRID #CPU/Core 45.
Servizi Grid ed agenti mobili : un ambiente di sviluppo e delivering
Scuolambiente – Catania 30 Marzo 2007 Stefano Gazziano – Dip. Fisica e Materiali Nuove tecnologie per la didattica Il contributo di ENEA e CUTGANA per.
Risultati complessivi Diego Ragazzi
1 Michellone Giancarlo Allo stato attuale i contenuti del presente documento non impegnano ancora il Project Manager e non riflettono necessariamente la.
C. Aiftimiei 1, S. Andreozzi 2, S. Dal Pra 1, G. Donvito 3, S. Fantinel 4, E. Fattibene 2, G. Cuscela 3, G. P. Maggi 3, G. Misurelli 2, A. Pierro 3 1 INFN-Padova.
FESR Trinacria Grid Virtual Laboratory ADAT (Archivi Digitali Antico Testo) Salvatore Scifo TRIGRID Second TriGrid Checkpoint Meeting Catania,
FESR Consorzio COMETA Giuseppe Andronico Industry Day Catania, 30 Giugno 2011 IaaS, PaaS e SaaS: cosa significano per le aziende.
CCR 14-15/03/2006 Status Report Gruppo Storage CCR.
Test Storage Resource Manager per SC4 Giacinto Donvito Vincenzo Spinoso.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
Attivita' Grid in BaBar Workshop sulle Problematiche di Calcolo e Reti nell'INFN Maggio 2004.
1 G. Marrucci Il progetto SCoPE: Sistema cooperativo distribuito ad alte prestazioni per elaborazioni scientifiche multidisciplinari UNIONE EUROPEA.
A. Murli - Progetto SCoPE. Middleware applicativo - 29 marzo Riunione del 29 Marzo 2007 IL PROGETTO SCoPE Almerico Murli Middleware Applicativo.
Layered Grid Architecture. Application Fabric “Controlling elements locally”: Access to, & control of, resources Connectivity “Talking to Grid elements”:
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
Giuseppe Lo Re Dipartimento di Ingegneria Informatica Università di Palermo “GeoGrid” Un laboratorio virtuale per il Knowledge Management del territorio.
1 Attività per la formazione Scuole INFN Grid Edizione 2008 Valeria Ardizzone INFN Catania.
26 Giugno 2007CSN1 - Frascati1 Temi di attualità nella CCR Accanto alla tradizionale attività di controllo dei finanziamenti per le infrastrutture di calcolo.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
Claudio Grandi Workshop CCR 2015 Claudio Grandi INFN Bologna.
FESR Trinacria Grid Virtual Laboratory Porous Fluid Dynamics Analyzer Supporter : Salvatore Scifo Affiliation : TRIGRID Second TriGrid Checkpoint.
Overview del middleware gLite Guido Cuscela INFN-Bari II Corso di formazione INFN su aspetti pratici dell'integrazione.
FESR Trinacria Grid Virtual Laboratory La sicurezza dei dati in ambiente Trigrid Giordano Scuderi.
Progetto ReCaS status update Giuseppe Andronico WS CCR, Catania 28 Maggio 2014.
1 PROGETTO SCoPE Incontro dei Progetti PON Avviso 1575 con il ROC di INFN Grid Catania 04/07/2008 Silvio Pardi.
SCOPE: stato e piano di integrazione Phd. Silvio Pardi CNAF
L’infrastruttura del progetto ReCaS Paolo Lo Re on behalf of ReCaS collaboration.
Transcript della presentazione:

1 REALIZZAZIONE DELLINTEROPERABILITA FRA I PROGETTI DELLAVVISO 1575/2004 Riunione del Comitato Tecnico sullInteroperabilità MUR, 27/09/2007

2 FINALITA E CONTENUTO DEL DOCUMENTO Proporre una strategia per la realizzazione dellinteroperabilità delle risorse di calcolo, storage e servizi Grid dei quattro progetti finanziati tramite l Avviso 1575/2004: CRESCO-ENEA CYBERSAR-Consorzio Cosmolab PI2S2-Consorzio Cometa SCOPE-Univ. di Napoli Federico II Il raggiungimento di tale obiettivo, che si realizzerà attraverso ladozione di uno standard comune di comunicazione e di servizi di base comuni, dovrà prevedere anche linteroperabilità e la facile integrazione con le altre infrastrutture di calcolo distribuito nazionali ed internazionali basate sulla tecnologia Grid.

3 Nel documento si propone un piano di integrazione/interoperabilità da raggiungere ben entro la conclusione dei progetti, in particolare: In versione limitata e prototipale entro la fine del 2007 con risorse proprie già esistenti. In versione completa nel corso del 2008 con le attrezzature acquisite tramite le gare attualmente in corso o in via di completamento.

4 Preesistenze CRESCO Il Progetto CRESCO ha come obiettivo la realizzazione, presso il Centro Ricerche ENEA di Portici (NA), di un importante Polo di calcolo multidisciplinare per lo studio dei sistemi complessi di natura biologica e tecnologica, collegato con facilities di elaborazione, archiviazione e visualizzazione 3D di dati ubicate presso i Centri ENEA di Brindisi e Trisaia (MT). La GRID ENEA è attualmente costituita da sei poli situati nei centri ENEA di Portici, Frascati, Roma (ENEA-Casaccia); Bologna; Brindisi, Matera (ENEA-Trisaia). Il progetto coinvolge, oltre a Portici, i centri ENEA di Brindisi e Trisaia (MT). Le principali componenti, che attualmente costituiscono linfrastruttura ENEA-GRID, sono circa 800 CPU e 30 TByte di storage e 6 aule per la visualizzazione 3D.

5 Preesistenze CYBERSAR Il progetto CYBERSAR ha come obiettivo principale quello di realizzare in Sardegna una nuova infrastuttura di calcolo condivisa, per supportare applicazioni computazionali innovative attraverso l'utilizzo di soluzioni tecnologie all'avanguardia. E gestito dal consorzio COSMOLAB che include il CRS4 (Centro per gli Studi Avanzati, la Ricerca e lo Sviluppo in Sardegna), l'INAF (Istituto Nazionale di Astrofisica), l'INFN (Istituto Nazionale di Fisica Nucleare) l'Universita' di Cagliari, l'Universita' di Sassari, la società Nice s.r.l. e la società Tiscali S.p.a. E organizzato in poli di calcolo, dislocati geograficamente, interconnessi da una fibra ottica dedicata ed integrati tra loro da una architettura di tipo grid. La potenza di calcolo aggregata che sara' resa disponibile da questo progetto sara' di circa 1200 core di calcolo e circa 4 terabyte di storage. Applicazioni: differenti ambiti di ricerca che includono l'astrofisica, le biotecnologie, la climatologia e la geofisica, la fisica delle alte energie, le scienze dei materiali, l'ingegneria strutturale ed industriale e la bioinformatica.

6 Preesistenze PI2S2 Il Progetto PI2S2 ha lo scopo di realizzare una infrastruttura di calcolo ad alte prestazioni basata sulla tecnologia grid per applicazioni scientifiche e tecniche in Sicilia. Consorzio COMETA: Cons. SCIRE, INFN, INAF, INGV, UniCT, UniME, UniPA Alcune gare di fornitura sono già state espletate sino alla completa installazione delle apparecchiature. Al termine di tutte le gare nei 6 siti saranno disponibili complessivamente 36 chassis blade contenenti 462 lame per un totale di 1848 core AMD Opteron e circa 212 TB di storage.

7 Preesistenze SCoPE Il progetto S.Co.P.E. (UniNA Federico II) ha come obiettivo primario la realizzazione di un Sistema di Calcolo ad Alte Prestazioni, che operi anche secondo il paradigma GRID, orientato ad applicazioni scientifiche multidisciplinari, ed in particolare alla modellistica computazionale ed alla gestione di grosse banche dati. Le principali preesistenze di risorse di calcolo riguardano i settori scientifici Fisica-Chimica-Matematica che operano nel Campus di Monte SantAngelo dove è già attiva uninfrastruttura di Campus Grid, e i poli di Ingegneria e di Medicina, tutti collegati in MAN con fibra a 2.4Gb/s.

8 INTEGRAZIONE E INTEROPERABILITA A LIVELLO DI CONNETTIVITA Per la realizzazione dellinteroperabilità dellinfrastruttura Grid dei progetti dellAvviso 1575/2004 è cruciale che la connettività (reti e comunicazioni) sia adeguata in termini di prestazioni, affidabilità, efficienza, ridondanza. Essenziale il ruolo che il Consortium GARR potrà svolgere anche in futuro. E indispensabile che i quattro progetti possano contare subito su 622 Mb/s con una banda garantita di almeno 400 Mb/s in questa fase iniziale di interoperabilità con successivo ampliamento quando sarà realizzata linterconnessione per tutti al Gb/s e oltre, come per altro è già previsto nei progetti GARR di potenziamento della rete a 10 Gb/s (GARRX).

9 A medio-lungo termine (1-3 anni al massimo), si ritiene necessaria una soluzione in grado di garantire adeguate caratteristiche di disponibilità di banda, flessibilità nellerogazione di servizi end-to-end e scalabilità futura, basata sullutilizzazione di infrastrutture in fibra ottica dedicate (dark fiber) già acquisite o da acquisire in modalità IRU ( Indefeasible Right of Use ). In tale contesto si propone di realizzare un anello di fibre che interconnetta i siti relativi ai progetti CRESCO, CYBERSAR, PI2S2 e SCOPE che utilizzando il paradigma WDM (multiplazione a Divisione di Lunghezza donda) consenta limplementazione di collegamenti IP dedicati in tecnologia 10GigaEthernet.

10 PI2S2

11 INTEGRAZIONE E INTEROPERABILITA A LIVELLO DELLA INFRASTRUTTURA GRID Ladozione di uno strato middleware comune (anche tramite appositi gateway) è necessario al fine di creare una comune Infrastruttura di calcolo integrata/interoperabile sia a livello italiano che europeo anche con Grid che adottano standard diversi Scelte strategiche: standard comune di comunicazione: gLite implementazione di servizi basati su gLite ed LCG (LHC Computing Grid).

12 Middleware e servizi di base (core, collective) A monte dei servizi si pone la Certification Authority (CA) che rilascia i certificati necessari ad autenticare server ed utenti. Si richiede che tutti i partner si basino su Certification Authority ammesse dalla GridPMA. Come middleware di riferimento proponiamo lutilizzo di gLite-LCG, implementando servizi di tipo collective e core. I servizi collective previsti per ogni sito, e necessari per lintegrazione sono: VOMS, RB, BDII. I servizi core, anche essi necessari, sono: Computing Element, Worker Nodes, Storage Element ed User Interface. Autenticazione / Autorizzazione (VO, VOMS) Si propone che ognuno dei progetti disponga di un VOMS server necessario per lautenticazione ed autorizzazione degli utenti sulle VO, in particolare ciascun VOMS server dovrà gestire la VO locale. Il certificato di ciascun server VOMS dovrà essere accessibile da parte degli altri progetti al fine di autenticare gli utenti sulle proprie risorse. Servizi di base o di primo livello

13 Servizio Informativo BDII /Resource Broker Si propone che ogni progetto installi un RB capace di sottomettere job sia su siti basati su LCG che gLite; in particolare si propone linstallazione dei due servizi di brokering, RB_LCG e WMS di gLite. Ciascuno dei Resource Broker punterà ad un top BDII locale che pubblichi le informazioni provenienti dai site BDII di tutte le risorse condivise, sia quelle locali sia quelle degli altri progetti. Si propone ad esempio di pubblicare sul portale del progetto un file contenente le entry LDAP delle risorse che si intende condividere. In questo modo ogni amministratore locale potrà pubblicare sul proprio BDII le risorse di tutti i progetti e utilizzarle mediante il proprio RB locale. Servizi di base o di primo livello

14 Computing Element e Worker Node Si richiede limplementazione di CE e WN di tipo gLite o LCG, lasciando and ogni progetto lautonomia di scegliere a seconda delle preferenze il sistema operativo e gli strumenti di gestione dei worker node (code, sistemi di monitoring, ecc). La fruibilità delle risorse di calcolo così configurate sarà garantita dallutilizzo di UI e RB capaci di interfacciarsi sia con risorse gLite che LCG come richiesto nel punto precedente come requirement per BDII/RB. Si propone di concordare un set di tag da pubblicare sul BDII per pubblicare informazioni sulle caratteristiche specifiche messe a disposizione dai siti dellinfrastruttura integrata e che permettano agli utenti di selezionare le risorse necessarie alle loro applicazioni trasversalmente alle diverse infrastrutture. Per le code sui CE si propone di scegliere una strategia comune. Una prima proposta è quella di impostare 3 code per ogni progetto: Short, Medium e Long con parametri da definire in base ai feedback delle applicazioni. Servizi di base o di primo livello

15 Storage Element Si richiede altresì che ogni progetto metta a disposizione lo storage che intende condividere con gli altri quattro progetti, mediante interfaccia di tipo SRM, con uneventuale proposta aggiuntiva per allinearsi allo standard SRM 2.2. Ogni progetto resta autonomo di scegliere il proprio storage manager (DPM, dCache, SToRM, CASTOR, ecc.) User Interface Per garantire laccesso alle risorse condivise si richiede che ogni progetto attivi almeno una User Interface per servizi LCG e gLite i cui utenti e politiche daccesso verranno gestite autonomamente dai singoli progetti. Servizi di base o di primo livello

16 GARR PI2S2 GARR Altri Enti e realtà

17 Cataloghi virtuali dei file Come sistema di File Catalog, non essendo vincolante per linteroperabilità tra i progetti, ogni sito può scegliere il servizio da implementare, in particolare proponiamo LFC come file catalog e AMGA come metadata catalog. Portale daccesso Si propongono per laccesso alla griglia diverse modalità, sia line mode sia tramite portali specifici (ad es. ma non necessariamente Genius). Ogni progetto 1575 deve prevedere un portale che consenta anche di referenziare il portale delle altre infrastrutture. Tramite questo portale si avrà accesso alla propria UI presente in ogni sito che consentirà laccesso agli utenti della rispettiva VO. Nella fase di definizione dei portali si definiranno le informazioni che dovranno essere condivise fra i diversi progetti. Servizi aggiuntivi o di secondo livello

18 Monitoring Per monitorare lo stato delle risorse si propone, fra le possibili scelte, almeno lutilizzo di GridIce, che è già adottato e supportato da numerose organizzazioni Tickets Per la sottomissione dei ticket degli utenti si propone lutilizzo di un sistema di ticketing basato su piattaforma open source Xoops/Xhelp, che consenta preferibilmente un accesso mediante certificato. I vari progetti dovranno concordare un Service Level Agreement sui tempi di risposta ai ticket sottoposti da utenti o membri degli altri progetti. Una proposta e quella di garantire a tutti gli stessi tempi di risposta e di concordare assieme un valore per tale tempo che serva da riferimento per tutti i progetti. Servizi aggiuntivi o di secondo livello

19 Vantaggi visione unica dellintera infrastruttura nessuna modifica alla configurazione del RB locale assenza di un servizio centralizzato dedicato alla gestione del Grid Information Service e del Resource Broker implementazione semplice ed immediata Conseguenze nel caso di servizi di monitoring locali basati sul GIS occorre apportare delle piccole modifiche alla configurazione al fine di non pubblicare linsieme globale delle risorse

20 Da discutere in futuro leventuale implementazione di servizi collettivi comuni (es. RB, II)

21 Applicazioni CRESCO IDL Codice commerciale con licenza non parallelo ma con un elevato numero di casi da eseguire ( es. analisi immagini, analisi immagini satellitari..). LENEA può mettere a disposizione attraverso il suo portale laccesso allo sviluppo e la possibilità di eseguire fino ad 80 casi in contemporanea a livello geografico e multipiattaforma. FLUENT Codice commerciale con licenza parallelo ad alto accoppiamento, il numero di licenze è limitato ma sufficienti ad una sperimentazione; CPMD : Codice OpenSource parallelo per la modellazione di materiali

22 Applicazioni CYBERSAR Chimica Mdynamix è un codice parallelo scalabile di simulazione di dinamiche molecolari di sistemi molecolari di varia natura. Meteorologia MOLOCH viene utilizzato per scopi di ricerca per la simulazione, ad alta risoluzione spaziale e a breve scadenza temporale, dello sviluppo di temporali, di flussi sopra orografie complesse e di processi fisici responsabili di precipitazioni intense. Idrologia CODESA-3D è un modello matematico-numerico che descrive il flusso di acqua sotterranea e il trasporto di inquinanti in essa disciolti nel suolo e sottosuolo. Astrofisica codice per simulazioni TD-DFT di molecole in tempo e spazio reale Ingegneria strutturale ed industriale simulazione e modellistica nell'ingegneria di processo e della produzione e la pianifcazione territoriale ed ambientale Fisica delle alte energie Esperimento ALICE (A Large Ion Collider Experiment) del CERN di Ginevra Fisica della Materia CMPTool (Caspur Model Potentials Tool), applicazione multi piattaforma sviluppata per simulazioni di dinamica molecolare Biofisica ORAC e' un codice di dinamica molecolare classica per simulare sistemi e processi con applicazioni nel campo biologico/medico alla scala microscopica

23 Applicazioni PI2S2 FLASH ( è un programma sviluppato da Alliances Center for Astrophysical Termonuclear Flashes per studiare il problema dei lampi termonucleari sulla superficie di stelle compatte, ed e molto usato da comunità di astrofisica. Questa applicazione richiede MPICH2. OpenFOAM ( Open Field Operation and Manipulation, una applicazione per la simulazione di campi basata sulla risoluzione di equazioni differenziali alle derivate parziali e completamente basato sulluso di MPICH2. Largamente usata da comunità di ingegneria e, in particolare, allinterno del progetto per calcoli di fluidodinamica che descrivono la combustione nei motori a scoppio.

24 Applicazioni SCoPE Applicazioni computazionali chimiche Gaussian 03 (codice di riferimento per i calcoli quantistici) sfrutta larchitettura SMP, mentre AMBER e GROMACS (codici di dinamica molecolare classica) lavorano efficacemente su architettura cluster. Applicazioni di Imaging medico ( MedIGrid) 1) Effettuare la ricostruzione 3D di immagini SPECT mediante lutilizzo di una libreria di software parallelo basata su MPI. 2) Effettuare denoising di sequenze ecocardiografiche mediante lutilizzo di una libreria di software parallelo basata su PETSc. Applicazioni di Elettromagnetismo e Telecomunicazioni Previsione e il monitoraggio del campo elettromagnetico in centri urbani; pianificazione di reti wireless, una volta note le sorgenti di campo (antenne da installare, o già operanti, per le comunicazioni GSM), le condizioni iniziali e al contorno. Applicazioni di Fisica subnucleare Studio delle interazioni protone-protone ad altissima energia presso l'acceleratore LHC (Large Hadron Collider) del CERN (esperimento ATLAS).

25 Azioni e tempistica Costituire un gruppo di lavoro tecnico operativo composto da esperti dei quattro progetti, che riferiscono al Comitato Tecnico sullInteroperabilità nominato dal MUR. Realizzare uninfrastruttura grid operante per la fine dellanno corrente (2007) in cui i quattro progetti dimostrino la fruibilità di risorse di calcolo e storage e dei servizi grid collettivi e locali da parte di alcune applicazioni pilota. Linfrastruttura interoperante fra i quattro progetti potrà costituire lasse portante della griglia computazionale dellItalia meridionale e potrà naturalmente integrarsi e interoperare con altre realtà e infrastrutture Grid nazionali ed internazionali.

26 Azioni Per ogni sito che abbia organizzato i servizi collettivi secondo quanto concordato, le azioni operative per la realizzazione dellinteroperabilità possono essere cosi riassunte: Abilitazione delle VO degli altri progetti sulle risorse disponibili Scambio dei Certificati VOMS Registrazione delle risorse degli altri siti sul proprio TOP BDII Creazione di aree di storage per i diversi progetti sugli Storage Element Testbed della infrastruttura integrata

27 Tempistica 17/12/07 01/10/07 01/11/07 AZIONI 1-4 NEI SITI PROVVISTI DI SERVIZI COLLETTIVI IMPLEMENTAZIONE DEI SERVIZI COLLETTIVI NEI SITI ANCORA SPROVVISTI INIZIO DEL TESTBED INTEGRAZIONE DEI 4 PON INTEGRAZIONE DEI 4 PON TESTBED SU TUTTA LA NUOVA GRIGLIA 01/12/07

28 Risorse Necessarie Per una prima integrazione e verifica dellinteroperabilità si propone che ciascun progetto metta a disposizione risorse di calcolo (processori) e di storage da concordare (ad es. qualche decina di processori e qualche centinaia di GB). Lattività di integrazione e testbed verrà svolta dal gruppo di lavoro operativo, composto da almeno due persone per progetto.

29 Conclusioni Linteroperabilità delle risorse computazionali à la Grid dei progetti finanziati mediante lAvviso 1575/2004 è obiettivo raggiungibile entro la fine del 2007 in versione limitata e prototipale con risorse proprie già esistenti e sarà completata nel corso del 2008 quando saranno effettivamente disponibili le attrezzature acquisite tramite le gare attualmente in corso o in via di completamento. E essenziale che la connettività di rete telematica sia adeguata nel breve termine e che evolva come proposto o comunque con le prestazioni richieste. I quattro progetti devono costituire immediatamente un gruppo di lavoro di operativi che collaborino strettamente fra loro per la realizzazione dellinteroperabilità, anche in vista di una gestione concordata dellinfrastruttura, pur nel rispetto dellautonomia delle singole realtà. Estensione delliniziativa ad altre realtà meridionali e nazionali, nei tempi e nei modi opportuni, che saranno oggetto di discussione di questo e di altri comitati appositamente costituiti.