Progetto S.Co.P.E. – WP4 Progettazione e sviluppo di middleware applicativo e sviluppo delle applicazioni Introduzione Workshop del 21 Febbraio 2008 Almerico.

Slides:



Advertisements
Presentazioni simili
Introduzione al prototipo Grid-SCoPE
Advertisements

UNIVERSITA DEGLI STUDI DI PARMA Dipartimento di Ingegneria dellInformazione Parma, Novembre 2003 Conferenza europea di Minerva SERVIZI E TECNOLOGIE.
Scuola della Società Italiana di Statistica Una breve presentazione: passato e prospettive Monica Pratesi | Università di Pisa Direttore della Scuola della.
1 Modellare le infrastrutture critiche Giovedì 25 settembre 2008 Salvatore Tucci Presidente AIIC Ordinario di Calcolatori Elettronici Università di Roma.
Consorzio per la Formazione e la Ricerca in Ingegneria dellInformazione – Politecnico di Milano © Cristiano Mossa Portale dei progetti e servizi.
Utilizzo di XP in ambienti distribuiti
Cluster openMosix Linux Day ’04 Caserta Ing. Diego Bovenzi.
Studiare INFORMATICA all’Università Ca’ Foscari
Towards Evolving Knowledge based iNternet-worked Enterprise TEKNE.
IL PATRIMONIO DI DATI - LE BASI DI DATI. Il patrimonio dei dati Il valore del patrimonio di dati: –Capacità di rispondere alle esigenze informative di.
Universita` di Torino Facolta` di Scienze M.F.N. Corso di Studi in Fisica Servizi per gli studenti Tutoraggio: e rivolto agli studenti del I anno e dà
1 STATO DELLINTEGRAZIONE TRA I 4 PROGETTI AVVISO 1575/2004 ATTIVITA DEL GRUPPO TECNICO OPERATIVO Riunione del Comitato Tecnico sullInteroperabilità MUR,
1 STATO DELLINTEGRAZIONE TRA I 4 PROGETTI AVVISO 1575/2004 ATTIVITA DEL GRUPPO TECNICO OPERATIVO Riunione del Comitato Tecnico sullInteroperabilità MUR,
1 STATO DELLINTEGRAZIONE TRA I 4 PROGETTI AVVISO 1575/2004 ATTIVITA DEL GRUPPO TECNICO OPERATIVO Riunione del Comitato Tecnico sullInteroperabilità MUR,
Comitato Tecnico sullInteroperabilità MUR, L. Merola.
REALIZZAZIONE DELLINTEROPERABILITA FRA I PROGETTI DELLAVVISO 1575/2004 Riunione del Comitato Tecnico sullInteroperabilità MUR, 29/11/2007 L. Merola.
1 CONNETTIVITA progetti Avviso 1575/2004 Proposta di progetto di interconnessione su scala nazionale Riunione del Comitato Tecnico sullInteroperabilità
Comitato Tecnico sullInteroperabilità MUR, L. Merola.
Proposta di integrazione e consolidamento delle risorse presenti nellinfrastruttura Grid dellItalia Meridionale (L. Merola, )
1 STATO DELLINTEGRAZIONE TRA I 4 PROGETTI AVVISO 1575/2004 ATTIVITA DEL GRUPPO TECNICO OPERATIVO Riunione del Comitato Tecnico sullInteroperabilità MUR,
Tecnologia dei Servizi Grid e cloud computing - Lezione Lezione ottobre 2009 Il materiale didattico usato in questo corso è stato mutuato.
Proposta di integrazione e consolidamento delle risorse presenti nellinfrastruttura Grid dellItalia Meridionale (L. Merola, )
Progetto S.Co.P.E. WP4 MedIGrid, un PSE per il Medical Imaging: implementazione in ambiente gLite G. Laccetti.
1 Riunione del 29 Marzo 2007 IL PROGETTO SCoPE Prof. Giuseppe Marrucci LAvviso 1575/2004 ed i quattro progetti vincitori Lo stato dellarte del progetto.
1 REALIZZAZIONE DELLINTEROPERABILITA FRA I PROGETTI DELLAVVISO 1575/2004 Riunione del Comitato Tecnico sullInteroperabilità MUR, 25/10/2007 L. Merola.
PROGETTO S.Co.P.E. Coinvolgimento Facoltà di Ingegneria.
1 Riunione del 29 Marzo 2007 IL PROGETTO SCoPE Prof. Guido Russo I lavori Le apparecchiature Il portale.
Incontro CRESCO – ENEA PORTICI – 23 ottobre 2006 ITALIAN NATIONAL AGENCY FOR NEW TECNOLOGY, ENERGY AND THE ENVIRONMENT.
CRESCO – Kick-off meeting LA II – 23 maggio 2006 CRESCO–Infrastruttura HPC– ENEA 03 aprile Il Progetto.
Roma - 7 marzo 2007 Matteo Spatola direttore vendite
Informatica e Tecnologie per la comunicazione in rete 1
Cosa sanno (e cosa non sanno) i giovani pediatri
WP 14 Grid Applications for Geophysics Istituto Nazionale di Geofisica e Vulcanologia INGV Progetto FIRB Grid.it Documento di rimodulazione.
MINISTERO DELL'ISTRUZIONE, DELL'UNIVERSITÀ E DELLA RICERCA MIUR-PRIN Progetto di ricerca Conoscenze scientifiche, sperimentali e tacite.
La facility nazionale Egrid: stato dell'arte Egrid-Team Trieste, 9 ottobre 2004.
Grid Computing Sergio Andreozzi. Chi è interessato ad analizzare i dati generati da LHC? Circa 5,000 scienziati –distribuiti nel mondo –appartenenti ad.
INGEGNERIA DELLA CONOSCENZA E SISTEMI ESPERTI Prof
1 Workshop Conclusione Azione Formativa Torino 11 Maggio 2011 Organizzazione dellazione formativa - Il percorso formativo - il calendario - Aspetti organizzativi.
25 ottobre 2002infn1 FIRB-Grid WP3,5 Grid deployment.
14 Settembre 1999Congresso U.M.I. MINISTERO DELLA PUBBLICA ISTRUZIONE DIREZIONE GENERALE DELL' ISTRUZIONE SECONDARIA DI 1° GRADO Insegnamento-apprendimento.
Torna alla prima pagina Inforscuola, 2/12/99 1 MINISTERO DELLA PUBBLICA ISTRUZIONE DIREZIONE GENERALE DELL' ISTRUZIONE SECONDARIA DI 1° GRADO Progetto:
Servizi Grid ed agenti mobili : un ambiente di sviluppo e delivering
Scuolambiente – Catania 30 Marzo 2007 Stefano Gazziano – Dip. Fisica e Materiali Nuove tecnologie per la didattica Il contributo di ENEA e CUTGANA per.
Risultati complessivi Diego Ragazzi
Corso Laboratorio di Basi Dati II Usability Lab 2007 Corso Laboratorio di Basi Dati II Elementi di Progettazione di Basi di Dati Multimediali in rete Metodologie.
La “Griglia” informatica Fabrizio Gagliardi CERN EGEE Project Director
FESR Consorzio COMETA - Progetto PI2S2 Sala Grid e applicazioni scientifiche Dr.ssa Annamaria Muoio & Dr. Andrea Nigro 16/05/2006.
Grid Computing: tecnologie abilitanti e applicazioni per eScience MURST Impiego del Fondo Speciale per lo Sviluppo della Ricerca di Interesse Strategico.
1 Michellone Giancarlo Allo stato attuale i contenuti del presente documento non impegnano ancora il Project Manager e non riflettono necessariamente la.
1 Sistemi Avanzati per il Riconoscimento (4S02792) Dr. Marco Cristani orario ricevimento: mer
C. Aiftimiei 1, S. Andreozzi 2, S. Dal Pra 1, G. Donvito 3, S. Fantinel 4, E. Fattibene 2, G. Cuscela 3, G. P. Maggi 3, G. Misurelli 2, A. Pierro 3 1 INFN-Padova.
FESR Trinacria Grid Virtual Laboratory ADAT (Archivi Digitali Antico Testo) Salvatore Scifo TRIGRID Second TriGrid Checkpoint Meeting Catania,
Città di Grugliasco … dal 1976 … a SCUOLA 2.0 Istituto Tecnico Industriale.
CRESCO – Kick-off meeting LA II – 23 maggio 2006 CRESCO–workshop HPC– ENEA 06 marzo 2007 ITALIAN NATIONAL AGENCY FOR NEW TECNOLOGY, ENERGY.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
1 G. Marrucci Il progetto SCoPE: Sistema cooperativo distribuito ad alte prestazioni per elaborazioni scientifiche multidisciplinari UNIONE EUROPEA.
A. Murli - Progetto SCoPE. Middleware applicativo - 29 marzo Riunione del 29 Marzo 2007 IL PROGETTO SCoPE Almerico Murli Middleware Applicativo.
Sistema operativo Il Sistema Operativo gestisce le risorse hw e sw del sistema di elaborazione Facilita l'interazione tra utente e sistema Esistono diversi.
Le risorse elettroniche per l’ingegneria Maddalena Morando Biblioteca Centrale di Ingegneria.
Workshop CCR e INFN-GRID Hotel Cala di Lepre Palau, maggio 2009 Il futuro di INFGRID nell'era IGI:
26 Giugno 2007CSN1 - Frascati1 Temi di attualità nella CCR Accanto alla tradizionale attività di controllo dei finanziamenti per le infrastrutture di calcolo.
1 Progetto Sistema Cooperativo Distribuito ad alte Prestazioni per Elaborazioni Scientifiche Multidisciplinari (S.Co.P.E.) Programma Operativo Nazionale.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
Claudio Grandi Workshop CCR 2015 Claudio Grandi INFN Bologna.
17 GennaioTier2 Milano G. Costa 1 17-Gennaio-2006.
Progetto ReCaS status update Giuseppe Andronico WS CCR, Catania 28 Maggio 2014.
1 PROGETTO SCoPE Incontro dei Progetti PON Avviso 1575 con il ROC di INFN Grid Catania 04/07/2008 Silvio Pardi.
L’infrastruttura del progetto ReCaS Paolo Lo Re on behalf of ReCaS collaboration.
L.Perini Milano: 10 Gennaio Ex-ATLAS-Grid (Tier2 incluso) l Ruolo dei Tiers in ATLAS e grid l Le persone di Milano e le attività l Le infrastrutture.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Transcript della presentazione:

Progetto S.Co.P.E. – WP4 Progettazione e sviluppo di middleware applicativo e sviluppo delle applicazioni Introduzione Workshop del 21 Febbraio 2008 Almerico Murli

Obiettivi del progetto S.Co.P.E. Realizzazione di un Sistema di Calcolo ad Alte Prestazioni, orientato ad applicazioni scientifiche multidisciplinari, che operi secondo il paradigma GRID, dedicato alla modellistica computazionale … per ricerche nelle aree applicative di interesse del progetto (Scienze del Microcosmo e del Macrocosmo, Scienze della Vita, Scienze dei Materiali e dell'Ambiente, …) …sviluppare simulazioni computazionali relative alle applicazioni in tali settori,… realizzando codici innovativi, … al fine di fornire un significativo avanzamento della conoscenza nei vari settori Computational Science

L obiettivo principale del WP4 è: Sviluppare applicazioni che possono sfruttare efficientemente linfrastruttura S.Co.P.E. anche attraverso la definizione di un opportuno middleware Infrastruttura S.Co.P.E. Applicazioni Middleware

Architettura del progetto S.Co.P.E. WP 2/3 WP 4 WP 1

Le applicazioni e la griglia Per classificare le applicazioni rispetto allambiente di esecuzione è necessario rispondere alla domanda: I.Foster, C. Kesselmann What types of applications will grids be used for?

Classi di applicazioni per GRID High performance computing (HPC) o supercomputing: applicazioni che utilizzano la griglia per trattare problemi su larga scala. Tali applicazioni sono caratterizzate da: un insieme elevato di task fortemente collegati, necessità di molte risorse (CPU, Memoria, ecc…) necessità di ottenere un risultato in un tempo fissato, realtime (molti calcoli nel più breve tempo possibile – pochi minuti) Esempi: Chimica computazionale ab initio, inquinamento elettromagnetico …

Classi di applicazioni per GRID High-throughput computing (HTC): applicazioni che utilizzano la griglia per trattare problemi su larga scala. Tali applicazioni sono caratterizzate da: un insieme elevato di task scarsamente collegati o addirittura indipendenti necessità di molte risorse (CPU, Memoria, ecc…) necessità di ottenere un risultato che richiede un elevato numero di esecuzioni in un tempo non necessariamente fissato (la massima quantità di calcoli in un tempo non necessariamente breve – anche alcuni mesi) Esempi: Fisica delle alte energie, studi parametrici, …

Classi di applicazioni per GRID Data intensive computing: applicazioni che interagiscono con grosse quantità di dati. Tali applicazioni sono caratterizzate da: enormi flussi di dati memorizzati su risorse geograficamente distribuite necessità di risorse di storage elevate necessità di accedere ai dati in maniera rapida ed efficiente Esempi: Fisica delle alte energie, Astronomia, Bioinformatica, …

On demand computing: Paghi quello che usi Utilizzazione di risorse della griglia (hardware, software, sensori, ecc…), per breve tempo e alloccorrenza Collaborative computing: Tale utilizzo si concretizza con la realizzazione del Laboratorio Virtuale Classi di applicazioni per GRID tale utilizzo della griglia emula lattuale accesso alle informazioni via Web

Classificazione delle applicazioni Scienze dei materiali (V. Barone) Fisica subnucleare (L. Merola) Astrofisica (G.Longo) Astrofisica (L. Milano) Scienze della vita (G. Paolella) Elettrom. e Telecom. (G. Franceschetti) Scienze dei materiali (D. Ninno) Elettrotecnica (G. Rubinacci) Scienze dei materiali (A. Coniglio) Scienze soc. e stat. (C. Lauro) Ingegneria chimica (P. Maffettone) Misure elet. e elettron. (L. Angrisani) Matematica Numerica (A.Murli) High performance computing High-throughput computing Data Intensive computing On demand computing Collaborative computing

Il middleware LCG/gLite, nato in ambito CERN/INFN è, naturalmente, particolarmente adatto ad applicazioni data-intensive computing e high-throughput computing tipiche di alcuni campi della Fisica carente relativamente alle applicazioni di high performance computing, verso le quali gran parte della comunità scientifica del progetto mostra interesse. MA

Necessità di adeguare il middleware per applicazioni di supercomputing Introduzione di strumenti per la realizzazione di applicazioni parallele multi-sito, ad es: PACX-MPI, MPICH-G2, … Strumenti per il mantenimento di prestazioni e la gestione dei guasti su macchine parallele multi-sito …

Linteroperabilità Lo IEEE definisce linteroperabilità come: The capability to communicate, execute programs, or transfer data among various functional units in a manner that requires the user to have little or no knowledge of the unique characteristics of those units Institute of Electrical and Electronics Engineers. IEEE Standard Computer Dictionary: A Compilation of IEEE Standard Computer Glossaries. New York, NY: 2004 Capacità di macchine diverse con sistemi HW/SW diversi di interagire grazie a specifiche e procedure generali e standard

Interoperation vs. Interoperability Interoperation Just make it work together Whatever it takes, could be ad-hoc, undocumented, fragile Low hanging fruit, future interoperability Charlie Catlett (Director, NSF TeraGrid) and Satoshi Matsuoka (Sub Project Director, NAREGI Project) From Interoperation to Interoperability - GGF16 Grid Interoperations Now Capacità di macchine diverse con sistemi HW/SW diversi di interagire sulla base di soluzioni ad-hoc e non standard

Interop{eration, erability} CIOÈ Charlie Catlett (Director, NSF TeraGrid) Multi-Grid Interoperation Planning and Exploration of Production Interoperation Opportunities, Multi-Grid Interoperation Planning Meeting, 2005 Perfect Interoperability is the enemy of Interoperation Il meglio è nemico del bene

Proposte di arricchimento del middleware per l interoperabilitá Introduzione di meccanismi per linteroperabilità tra middleware differenti: GRelC ( Grid Relational Catalog Project ) GridWay Metascheduler …

Costruzione del Middleware applicativo Attività svolte Si è provveduto a formare un gruppo di lavoro, costituito dai referenti delle applicazioni e da referenti dei WP 2, 3 e 4 per: Censire le applicazioni di interesse della comunità scientifica della Federico II Definire il middleware applicativo Individuare le modalità di integrazione delle applicazioni nellinfrastruttura GRID SCoPE

Componenti gruppo di lavoro Dipartimento di Scienze Fisiche: P. Coraggio, F. Conventi, M. Biglietti, P. Doria, F. Trani, L. Milano, G. Longo, G. DAngelo, A. Coniglio, M. Pica Ciamarra Dipartimento di Ingegneria Chimica: P.L. Maffettone, G. D'Avino, S. Crescitelli, A. Brasiello Dipartimento di Matematica e Statistica: R. Miele Dipartimento di Elettronica e Telecomunicazioni: R. Guida, P. Imperatore, A. Capozzoli, P. Vinetti Dipartimento di Informatica e Sistemistica: F. Moscato Dipartimento di Biochimica e Biotecnologie Mediche: G. Busiello, M. Petrillo

Componenti gruppo di lavoro Dipartimento di Chimica: O. Crescenzi, M. Pesole, C. Garzillo, P. Caruso Dipartimento di Matematica ed Applicazioni: G. Laccetti, D. Romano Misure Elettriche ed Elettroniche: L. Angrisani, A. Napolitano, R. Schiano Lo Moriello Dipartimento di Ingegneria Elettrica: G. Rubinacci, A. Chiarello, D. Assante ICTP-CNR: L. Carracciuolo CSI: G. Barone, S. Pardi

Costruzione del middleware di riferimento del progetto SCoPE ? Grid Services + LCG/gLite Applicazioni

Astrofisica Grid Services LCG/gLite GSL Astrofisica Low Level Medium Level

Applicazioni Low Level Medium Level Grid Services LCG/gLite GSL Astrofisica Fisica subnucleare EGEE VO ATLAS Toolkit Fisica Subnucleare

Applicazioni Matematica Numerica Grid Services LCG/gLite GSL Fisica subnucleare EGEE VO ATLAS Toolkit MPIBLASLAPACK PETSc Matematica Numerica Low Level Medium Level Astrofisica

Applicazioni Elettromagnetismo e telecomunicazioni Grid Services LCG/gLite GSL Fisica subnucleare EGEE VO ATLAS Toolkit BLASLAPACK PETSc Matematica Numerica Elettromagnetismo telecomunicazioni IDL Low Level Medium Level Astrofisica MPI

Applicazioni Scienze dei materiali e dellambiente Grid Services LCG/gLite GSL Fisica subnucleare EGEE VO ATLAS Toolkit PETSc Matematica Numerica Elettromagnetismo telecomunicazioni IDL Espresso FFTW GAUSSIANGROMACS Scienze dei materiali e dellambiente Low Level Medium Level Astrofisica MPIBLASLAPACK MPI BLASLAPACKScaLAPACK

Applicazioni Ingegneria Chimica Grid Services LCG/gLite GSL Fisica subnucleare EGEE VO ATLAS Toolkit PETSc Matematica Numerica Elettromagnetismo telecomunicazioni IDL Espresso FFTW GAUSSIANGROMACS Scienze dei materiali e dellambiente PARDISOMUMPS BLACS Ingegneria Chimica Low Level Medium Level Astrofisica MPIBLASLAPACKMPIBLASLAPACK GROMACS ScaLAPACK

FFTW Misure Elettriche ed Elettroniche Grid Services LCG/gLite GSL Fisica subnucleare EGEE VO ATLAS Toolkit MPIBLASLAPACK PETSc Matematica Numerica Elettromagnetismo telecomunicazioni IDL EspressoGAUSSIANGROMACS Scienze dei materiali e dellambiente PARDISOMUMPS ScaLAPACKBLACS Ingegneria Chimica Misure elettriche ed elettroniche MATLAB Low Level Medium Level Astrofisica FFTW

Elettrotecnica Grid Services LCG/gLite GSL Fisica subnucleare EGEE VO ATLAS Toolkit MPIBLASLAPACK PETSc Matematica Numerica Elettromagnetismo telecomunicazioni IDL Espresso FFTW GAUSSIANGROMACS Scienze dei materiali e dellambiente PARDISOMUMPS ScaLAPACKBLACS Ingegneria Chimica Misure elettriche ed elettroniche MATLAB Elettrotecnica IMSL Low Level Medium Level Astrofisica

Scienze della vita Grid Services LCG/gLite GSL Fisica subnucleare EGEE VO ATLAS Toolkit MPIBLASLAPACK PETSc Matematica Numerica Elettromagnetismo telecomunicazioni IDL Espresso FFTW GAUSSIANGROMACS Scienze dei materiali e dellambiente PARDISOMUMPS ScaLAPACKBLACS Ingegneria Chimica Misure elettriche ed elettroniche Elettrotecnica Low Level Medium Level Astrofisica Scienze della vita BLAST IMSL MATLAB

Composizione attuale del middleware Grid Services LCG/gLite GSL EGEE VO ATLAS Toolkit MPIBLASLAPACK PETScIDL Espresso FFTW GAUSSIANGROMACS PARDISOMUMPS ScaLAPACKBLACS Low Level Medium Level BLAST IMSL MATLAB Per consentire a tutte le applicazioni di utilizzare linfrastruttura di progetto è necessario rendere fruibile alla VO scope linsieme del middleware applicativo

Costruzione del toolkit relativo al middleware applicativo Definizione della composizione del toolkit della VO SCOPE mediante censimento delle librerie utilizzate dalle applicazioni Individuazione delle procedure di costruzione, installazione e validazione del toolkit (in collaborazione con WP 2 e 3 e gruppo operativo per linteroperabilità) Diffusione del toolkit sulle infrastrutture degli altri PON

Prospettive di progetto Completare il porting delle applicazioni censite sullinfrastruttura SCoPE e in modo che possano usufruire anche delle infrastrutture degli altri 3 PON Integrare le applicazioni e il middleware con i meccanismi necessari a renderle grid-aware cioè capaci di adattarsi alla struttura dinamica delle griglie computazionali. Realizzare il laboratorio virtuale

Programma Operativo Nazionale Ricerca Scientifica, Sviluppo Tecnologico, Alta Formazione Misura II.2 Società dellInformazione per il Sistema Scientifico Meridionale Azione a – Sistemi di calcolo e simulazione ad alte prestazioni Conferenza Nazionale Italian e-Science 2008 IES maggio 2008 Universita degli di Studi di Napoli Federico II Aula Magna, Complesso Universitario Monte S. Angelo, via Cintia, Napoli Convegno sui progetti Avviso 1575/2004

Programma Operativo Nazionale Ricerca Scientifica, Sviluppo Tecnologico, Alta Formazione Misura II.2 Società dellInformazione per il Sistema Scientifico Meridionale Azione a – Sistemi di calcolo e simulazione ad alte prestazioni Il termine e-Science caratterizza la ricerca scientifica che utilizza risorse di calcolo ad alte prestazioni geograficamente distribuite e grandi quantità di dati. Con tale termine ci si riferisce anche alla ricerca scientifica su larga scala condotta attraverso collaborazioni distribuite via Internet. In tal senso un esempio significativo e costituito dalla fisica delle particelle, che utilizza una infrastruttura di e- Science per accedere ad adeguate risorse di calcolo per lanalisi dei risultati e di immagazzinamento dei dati prodotti dallesperimento LHC del CERN. Altri esempi riguardano, la scienza dei materiali, la chimica computazionale, lastrofisica, le scienze della terra, le scienze sociali, le scienze della vita, etc. La grid rappresenta quindi linfrastruttura indispensabile per la realizzazione di una tale visione della scienza. Scopo del convegno è condividere i risultati ottenuti dai 4 progetti cofinanziati nellambito dellAvviso 1575/2004 con le altre realtà italiane in varie aree delle-Science, quali lo sviluppo di nuovi frameworks applicativi di e-Science, tecnologie grid per le-Learning, la possibilita di accesso trasparente ad archivi digitali, grid computing, etc. Verranno presentati i risultati dei progetti finanziati dal PON su queste aree, nonché i progressi nel campo delle tecnologie grid per le-Science al fine di contribuire allintegrazione dei progetti stessi in un unico sistema virtuale per il sud Italia, con strette relazioni con i progetti nazionali ed europei. La conferenza costituirà, da una parte un forum per i progetti cofinanziati nellambito del programma e per la comunità italiana di e-Science con il fine di mostrare i risultati ottenuti, e dallaltra rappresenta un occasione in cui gli esperti delle comunità scientifiche di e-Science italiane potranno incontrare, in particolare, quelli delle- infrastruttura meridionale. Data la presenza attiva di responsabili del Ministero, la conferenza sara anche un momento di confronto per delineare le linee guida per le future strategie nazionali in questo settore.

Comitato di Programma: Prof. F. Beltrame, Università degli Studi di Genova e MiUR Prof. A. Camurri, Università degli Studi di Genova Dr.ssa Claudia Galletti, AdG del PON Ricerca (MiUR) Dr. D. Laforenza, CNR Prof. G. Marrucci, Università degli Studi di Napoli Federico II Dr. A. Masoni, INFN Sez. di Cagliari Prof. M. Mazzucato, INFN – CNAF Ing. S. Migliori, Enea Prof. A. Murli, Universita degli Studi di Napoli Federico II Prof. G. Pappalardo, Università degli Studi di Catania Prof. P. Ritrovato, Università degli Studi di Salerno Prof. S. Salerno, Università degli Studi di Salerno Programma Operativo Nazionale Ricerca Scientifica, Sviluppo Tecnologico, Alta Formazione Misura II.2 Società dellInformazione per il Sistema Scientifico Meridionale Azione a – Sistemi di calcolo e simulazione ad alte prestazioni

Comitato Organizzatore: Prof. V. Barone, Università degli Studi di Napoli Federico II Sig.ra E. Cesaro, Università degli Studi di Napoli Federico II Dr. M.R. Fario, Università degli Studi di Napoli Federico II Prof. G. Franceschetti, Università degli Studi di Napoli Federico II Dr. P. Mastroserio, INFN Sez. di Napoli Prof. N. Mazzocca, Università degli Studi di Napoli Federico II Prof. L. Merola, Università degli Studi di Napoli Federico II e INFN Sez. di NA Prof. A. Murli, Università degli Studi di Napoli Federico II (CHAIRMAN) Prof. G. Paolella, Università degli Studi di Napoli Federico II Prof. G. Russo, Università degli Studi di Napoli Federico II e ARPA Prof. S. Salerno, Università di degli Studi di Salerno Prof. F. Salvatore, Università degli Studi di Napoli Federico II e CEINGE Prof. G. Ventre, Università degli Studi di Napoli Federico II e CRIAI Programma Operativo Nazionale Ricerca Scientifica, Sviluppo Tecnologico, Alta Formazione Misura II.2 Società dellInformazione per il Sistema Scientifico Meridionale Azione a – Sistemi di calcolo e simulazione ad alte prestazioni

Sito web: Date importanti: Apertura registrazione e sottomissione Poster Abstract: 25 Febbraio 2008 Chiusura sottomissione Poster Abstract: 15 Aprile 2008 Comunicazione accettazione Poster Abstract: entro il 10 Maggio 2008 Chiusura delle iscrizioni: 13 Maggio 2008 Programma Operativo Nazionale Ricerca Scientifica, Sviluppo Tecnologico, Alta Formazione Misura II.2 Società dellInformazione per il Sistema Scientifico Meridionale Azione a – Sistemi di calcolo e simulazione ad alte prestazioni

Programma degli Interventi Prof. Barone ( Dott. Brancato ) Prof. Franceschetti Prof. Laccetti Prof. Maffettone Prof. Ninno ( Dott. Trani ) Prof. Longo Prof. Merola Prof. Milano (Dott. Garufi ) Prof. Paolella