La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

1 Conferenza Nazionale - Italian e-Science 2008 Napoli, 27 maggio 2008 - L. Merola INTEROPERABILITA’ DEI PROGETTI DELL’AVVISO 1575/2004.

Presentazioni simili


Presentazione sul tema: "1 Conferenza Nazionale - Italian e-Science 2008 Napoli, 27 maggio 2008 - L. Merola INTEROPERABILITA’ DEI PROGETTI DELL’AVVISO 1575/2004."— Transcript della presentazione:

1 1 Conferenza Nazionale - Italian e-Science 2008 Napoli, 27 maggio 2008 - L. Merola INTEROPERABILITA’ DEI PROGETTI DELL’AVVISO 1575/2004

2 2 12/02/2007: Primo Concertation Meeting dei progetti dell’Avviso 1575 Favorire una proficua sinergia finalizzata a delineare la struttura portante dell’ infrastruttura GRID nazionale che presenti fattori manifesti o latenti di attrattività per il sistema industriale. Creare nell’ambito del sito web del PON Ricerca una community web dedicata all’Avviso 1575/2004. Attivare un Tavolo Tecnico a cui demandare la definizione di un programma volto a supportare l’ interoperabilità tra i 4 progetti cofinanziati. Aprire ad altri soggetti che operano in ambito GRID per promuovere un proficuo interscambio nazionale ed internazionale.

3 3 ELEMENTI DI NOVITA’ I 4 progetti si rivolgono anche a nuove comunità di utenti (non necessariamente esperti di computing) che fino ad ora non hanno utilizzato sistemi di Grid computig  NUOVI SETTORI SCIENTIFICI  NUOVI AMBITI APPLICATIVI  NUOVE “RICHIESTE DI UTENTE” DA SUPPORTARE  NUOVE PROBLEMATICHE DI INTEROPERABILITA’

4 4 12/05/2007: Avvio del Tavolo Tecnico sull’interoperabilità Azioni / Obiettivo: Realizzare, in più steps, l’integrazione e il consolidamento operativo delle risorse informatiche predisposte dai progetti finanziati con le risorse assegnate dall’Avviso 1575 in una comune e-Infrastruttura meridionale integrata a livello italiano ed europeo,con particolare riguardo a:  Miglioramento della connettivita’ interna tra le sedi in OB1 ed esterna verso l’e-Infrastruttura nazionale.  Definizione e realizzazione di comuni condizioni operative con Service Level Agreement e policies d’interoperabilita’ concordate a livello interno e con le e-Infrastrutture di riferimento nazionale ed europeo.  Miglioramento ed evoluzione coordinato dei servizi di middleware secondo le necessità di comuni applicazioni all’interno del quadro di riferimento nazionale ed internazionale.  Scelta e supporto integrato di possibili applicazioni comuni.  Definizione realizzazione di un comune portale di accesso.

5 5 PI2S2Dr. Giuseppe Andronicogiuseppe.andronico@ct.infn.iteffettivo PI2S2Prof. Antonella Di Stefanoad@diit.unict.itsostituto PI2S2Prof. Antonio Puliafitoapuliafito@unime.itsostituto SCoPEProf. Leonardo Merola (coordinatore) leonardo.merola@na.infn.iteffettivo SCoPEProf. Guido Russoguido.russo@unina.itsostituto SCoPEProf. Almerico Murlialmerico.murli@unina.itsostituto CRESCODr. Silvio Migliorimigliori@enea.iteffettivo CRESCODr. Giovanni Braccobracco@frascati.enea.itsostituto CRESCODr. Andrea Quintilianiquintiliani@casaccia.enea.itsostituto CYBERSARdr Alberto Masonialberto.masoni@ca.infn.iteffettivo CYBERSARDr. Daniele Muradaniele.mura@ca.infn.itsostituto CYBERSARGianluigi Zanettigianluigi.zanetti@crs4.itsostituto ESPERTO MURProf. Mirco Mazzuccatomirco.mazzucato@pd.infn.it ESPERTO MURProf. Francesco Beltramefrancesco.beltrame@miur.it COMITATO TECNICO PER L’INTEROPERABILITA’

6 6 Il Comitato Tecnico per l’ Interoperabilità si riunisce mensilmente (la prima riunione si è tenuta il 27 luglio 2007) ed ha prodotto ed approvato documenti strategici e operativi: Documento sulla Connettività Documento sulla Connettività Documento sull’Interoperabilità Documento sull’Interoperabilità Documento tecnico operativo Documento tecnico operativo Service Level Agreement Service Level Agreement Spunti di Riflessione per la programmazione Spunti di Riflessione per la programmazione 2007-2013 2007-2013

7 7 E’ stato costituito un gruppo di lavoro tecnico operativo composto da esperti dei quattro progetti, che riferiscono al Comitato Tecnico per l ’Interoperabilità (CTI). Il gruppo tecnico operativo  ha elaborato un Documento Tecnico Operativo che adotta le direttive strategiche fornite dal Comitato Tecnico per l’interoperabilità;  ha proposto soluzioni tecniche implementative di dettaglio;  gestisce tecnicamente ed operativamente l’infrastruttura comune;  si riunisce in phone-conference ogni 2 settimane.

8 8 Gruppo TECNICO OPERATIVO SCOPE (Napoli): Silvio Pardi spardi@na.infn.it (coordinatore del gruppo)spardi@na.infn.it Gennaro Tortone gennaro.tortone@na.infn.itgennaro.tortone@na.infn.it Marco Scognamiglio marco.scognamiglio@unina.itmarco.scognamiglio@unina.it Davide Bottalico davide.bottalico@unina.it Vania Boccia vania.boccia@unina.itdavide.bottalico@unina.itvania.boccia@unina.it PI2S2 (Sicilia): Rosanna Catania Rosanna.Catania@ct.infn.it (referente operativo)Rosanna.Catania@ct.infn.it Giuseppe Platania giuseppe.platania@ct.infn.it Gianni Mario Ricciardi giannimario.ricciardi@ct.infn.it Gianluca Passaro gianluca.passaro@ct.infn.it Alberto Falzone alberto.falzone@nice-italy.comgiuseppe.platania@ct.infn.itgiannimario.ricciardi@ct.infn.itgianluca.passaro@ct.infn.italberto.falzone@nice-italy.com Daniele Zito daniele.zito@diit.unict.it Emilio Mastriani mastriani@dmi.unict.itdaniele.zito@diit.unict.itmastriani@dmi.unict.it Rita Ricceri rita.ricceri@ct.infn.itrita.ricceri@ct.infn.it CRESCO (ENEA): Carlo Scio scio@frascati.enea.it (referente operativo)scio@frascati.enea.it Giovanni Bracco bracco@frascati.enea.it Andrea Santoro andrea.santoro@frascati.enea.itbracco@frascati.enea.itandrea.santoro@frascati.enea.it Alessio Rocchi alessio.rocchi@frascati.enea.it CYBERSAR (Sardegna):alessio.rocchi@frascati.enea.it Daniele Mura daniele.mura@ca.infn.it (referente operativo)daniele.mura@ca.infn.it Gianmario Mereu Gianmario.mereu@ca.infn.itGianmario.mereu@ca.infn.it

9 9  E’ stato completato con successo il primo obiettivo L’INTEROPERABILITA’DELLE INFRASTRUTTURE L’ INTEROPERABILITA’ DELLE INFRASTRUTTURE L’INTEROPERABILITA’TRA I SISTEMI DI L’ INTEROPERABILITA’ TRA I SISTEMI DI SUPPORTO AGLI UTENTI SUPPORTO AGLI UTENTI  E’ a buon punto l’attività di integrazione di alto livello L’INTEROPERABILITA’DELLE APPLICAZIONI L’ INTEROPERABILITA’ DELLE APPLICAZIONI  E’ stata creata una comunity e gettate le basi per le prossime sfide della programmazione 2007-2013: LA REALIZZAZIONE DELL’e-INFRASTRUTTURA ITALIANA APERTA ALLA COLLABORAZIONE ITALIANA APERTA ALLA COLLABORAZIONE E ALL’INTERAZIONE TRA RICERCA E IMPRESA E ALL’INTERAZIONE TRA RICERCA E IMPRESA RISULTATI RAGGIUNTI

10 10 TEMPISTICA 27/09/07 25/10/07 ATTIVAZIONE VO NEI SITI PROVVISTI DI SERVIZI COLLETTIVI IMPLEMENTAZIONE DEI SERVIZI COLLETTIVI NEI SITI ANCORA SPROVVISTI INIZIO DEL TESTBED INTEGRAZIONE DEI 4 PON INTEGRAZIONE DEI 4 PON TESTBED SU TUTTA LA NUOVA GRIGLIA 24/01/08 29/11/07 SPECIFICHE DEI SERVIZI DI PRIMO LIVELLO SPECIFICHE SERVIZI DI SECONDO LIVELLO E SERVICES LEVEL AGREEMENT 20/12/07 APPLICAZIONIAPPLICAZIONI COMUNICOMUNI 28/02/0822/03/0822/05/0822/04/08 L’interoperabilità è già stata realizzata in versione limitata e prototipale con risorse proprie dei singoli progetti già esistenti (pre-esistenze) e sarà completa entro pochi mesi e comunque entro la conclusione dei progetti.

11 11 Community web Avviso 1575: OK

12 12 La CONNETTIVITA’ dei progetti dell’Avviso 1575 Per la realizzazione dell’interoperabilità dell’infrastruttura Grid dei progetti dell’Avviso 1575/2004 è cruciale che la connettività (reti e comunicazioni) sia adeguata in termini di prestazioni, affidabilità, efficienza, ridondanza. E’ essenziale il ruolo che il Consortium GARR potrà svolgere anche in futuro. Obiettivi:  Immediata interconnessione tra i centri al Gb/s, con banda garantita.  Potenziamento infrastrutturale a 10 Gb/s (come già previsto nei piani del GARR) e oltre.

13 13 Realizzare un anello di fibre che interconnetta i siti relativi ai progetti finanziati dal PON utilizzando WDM (Multiplazione a Divisione di Lunghezza d’onda) con la implementazione di collegamenti IP dedicati in tecnologia 10 Gib/s (e oltre) e la remotizzazione di collegamenti fra le strutture di Storage in tecnologia FC o SCSI. Acquisizione fibre dedicate (dark fiber) in IRU (Indefeasible Right of Use): diritto di utilizzazione pluriennale di una infrastruttura in fibra ottica già esistente

14 14 L’ INTEROPERABILITA’ infrastrutturale dei progetti Avviso 1575 Obiettivi: assicurare l’interoperabilità delle infrastrutture dei 4 progetti adottando uno standard comune di comunicazione e servizi di base comuni compatibili con l’interoperabilità con le altre infrastrutture di calcolo distribuito nazionali ed internazionali basate sulla tecnologia Grid  strato di middleware comune (gLite) e gateway di interfacciamento Risorse a fine progetti:  potenza di calcolo di alcune migliaia di “core” per progetto  centinaia di TB per progetto  servizi Grid in parte centralizzati in parte replicati localmente

15 15  Servizi aggiuntivi o di secondo livello: (in parte centralizzati in parte replicati nelle varie sedi) Cataloghi virtuali dei file (LFC, AMGA, ecc.) Portale d’accesso (Genius, line-mode, ecc.) Monitoring (GridIce, Service Availability Montoring, ecc.) Tickets (Xoops/Xhelp, ecc.) Accounting (DGAS, APEL, ecc.) Tags (descrizione risorse, ecc.)  Service Level Agreement Servizi di base o di primo livello:  Servizi di base o di primo livello: (replicati nelle varie sedi) VOMS Collective: VOMS (Virtual Organization Memebership Service), RB/WMS BDII RB/WMS (Resource Broker), BDII (Information Index) CE WN Core: CE (Computing Element), WN (Worker Node), SE UI SE (Storage Element), UI (User Interface)

16 16 GARR PI2S2 GARR Altri Enti e realtà

17 17 IDL Codice commerciale con licenza non parallelo ma con un elevato numero di casi da eseguire (es. analisi immagini, analisi immagini satellitari...). L’ENEA può mettere a disposizione attraverso il suo portale l’accesso allo sviluppo e la possibilità di eseguire fino ad 80 casi in contemporanea a livello geografico e multipiattaforma. FLUENT Codice commerciale con licenza parallelo ad alto accoppiamento, il numero di licenze è limitato ma sufficienti ad una sperimentazione. CPMD Codice OpenSource parallelo per la modellazione di materiali. L’ INTEROPERABILITA’ delle prime applicazioni esportabili dei progetti Avviso 1575 Applicazioni CRESCO

18 18 Applicazioni computazionali chimiche Gaussian 03 (codice di riferimento per i calcoli quantistici) sfrutta l’architettura SMP, mentre AMBER e GROMACS (codici di dinamica molecolare classica) lavorano efficacemente su architettura cluster. Applicazioni di Imaging medico (MedIGrid) 1) Effettuare la ricostruzione 3D di immagini SPECT mediante l’utilizzo di una libreria di software parallelo basata su MPI. 2) Effettuare denoising di sequenze ecocardiografiche mediante l’utilizzo di una libreria di software parallelo basata su PETSc. Applicazioni di Elettromagnetismo e Telecomunicazioni Previsione e il monitoraggio del campo elettromagnetico in centri urbani; pianificazione di reti wireless, una volta note le sorgenti di campo (antenne da installare, o già operanti, per le comunicazioni GSM), le condizioni iniziali e al contorno. Applicazioni di Fisica subnucleare e di astrofisica Studio delle interazioni protone-protone ad altissima energia presso l'acceleratore LHC (Large Hadron Collider) del CERN (esperimento ATLAS). Ricerca di onde gravitazionali (esperimento VIRGO). Astrofisica di Survey Fisica delle nanostrutture - Pacchetto Quantum-ESPRESSO (codice di riferimento per i calcoli quantistici basati su basi estese), sfrutta l'architettura cluster con rete di interconnessione ad alte prestazioni. - Codice tight-binding sviluppato localmente, per calcoli delle proprieta' ottiche ed elettroniche di sistemi costituiti da molti atomi Applicazioni SCoPE

19 19 Le Applicazioni del Progetto PI2S2 L’archivio digitale completo è disponibile alla pagina: 93 –www.pi2s2.it/applications (93 “entries” al 23 Maggio 2008!)www.pi2s2.it/applications Un volume edito da COMETA è disponibile al link: –indico.ct.infn.it/materialDisplay.py?materialId=12&confId=24indico.ct.infn.it/materialDisplay.py?materialId=12&confId=24

20 20 Chimica Mdynamix è un codice parallelo scalabile di simulazione di dinamiche molecolari di sistemi molecolari di varia natura. Meteorologia MOLOCH viene utilizzato per scopi di ricerca per la simulazione, ad alta risoluzione spaziale e a breve scadenza temporale, dello sviluppo di temporali, di flussi sopra orografie complesse e di processi fisici responsabili di precipitazioni intense. Idrologia CODESA-3D è un modello matematico-numerico che descrive il flusso di acqua sotterranea e il trasporto di inquinanti in essa disciolti nel suolo e sottosuolo. Astrofisica codice per simulazioni TD-DFT di molecole in tempo e spazio reale  Ingegneria strutturale ed industriale simulazione e modellistica nell'ingegneria di processo e della produzione e la pianifcazione territoriale ed ambientale Fisica delle alte energie Esperimento ALICE (A Large Ion Collider Experiment) del CERN di Ginevra Fisica della Materia CMPTool (Caspur Model Potentials Tool), applicazione multi piattaforma sviluppata per simulazioni di dinamica molecolare Biofisica ORAC e' un codice di dinamica molecolare classica per simulare sistemi e processi con applicazioni nel campo biologico/medico alla scala microscopica Applicazioni CYBERSAR

21 21 L’ IMPLEMENTAZIONE TECNICA DELL’INTEROPERABILITA’ 1. TAG DI RUNTIME 2. JOB QUEUE 3. SERVIZI COLLECTIVE CENTRALI E DISTRIBUITI 4. SERVIZI DI MONITORAGGIO 5. ISTALLAZIONE SOFTWARE APPLICATIVO 6. INTERFACCE E PROTOCOLLI PER LO STORAGE 7. ACCOUNTING 8. GESTIONE DOWNTIME E SISTEMA DI TICKET 9. SERVICE LEVEL AGREEMENT 10. ABILITAZIONE DELLE VO COMUNI 11. INTEROPERABILITA’ CON ALTRE INFRASTRUTTURE

22 22 TAGSPECIFICA MIDDLEWARE LCG-X_Y_ZSupporta versione del middleware LCG-X_Y_Z GLITE-X_Y_ZSupporta versione del middleware GLITE-X_Y_Z ANAGRAFICA CITTA’ (XXXX)Città dove è situato il sito PROJECT-NAME (XXXX)Nome del progetto SITE-NAME (XXXX)Nome del sito LIBRERIE E SOFTWARE MPICHLibreria MPICH MPICH2Libreria MPICH versione 2 MPI_HOME_SHAREDArchitettura MPI con directory Shared tra i worker node MPI_HOME_NOTSHAREDArchitettura MPI con directory NON Shared tra i worker node IDL-X.YSupporto per IDL versione X.Y ABAQUS-X.YSupporto per ABAQUS versione X.Y Sono stati definiti i TAG che descrivono - secondo gli standard europei che si è deciso di adottare - le caratteristiche delle risorse hardware e software. TAG DI RUNTIME

23 23 Nome CodaTIPOCPUTIME (minuti)WALLTIME (minuti)PRIORITY jobmanager- -poncert Coda di Certificazione28804320Prioritaria jobmanager- -crescocert Coda di Certificazione28804320Prioritaria jobmanager- -cybrcert Coda di Certificazione28804320Prioritaria jobmanager- -pi2s2cert Coda di Certificazione28804320Prioritaria jobmanager- -scopecert Coda di Certificazione28804320Prioritaria jobmanager- -cresco_short Coda Job Cresco15120Alta jobmanager- -cresco_long Coda Job Cresco7201440Media jobmanager- -cresco_infinite Coda Job Cresco28804320Bassa jobmanager- -cybr_short Coda Job Crybersar15120Alta jobmanager- -cybr_long Coda Job Crybersar7201440Media jobmanager- -cybr_infinite Coda Job Crybersar28804320Bassa jobmanager- -pi2s2_short Coda Job PI2S215120Alta jobmanager- -pi2s2_long Coda Job PI2S27201440Media jobmanager- -pi2s2_infinite Coda Job PI2S228804320Bassa Tutti i progetti implementano tre code job per ogni progetto, short, long e infinite più la coda poncert (per la certificazione dei sw) con differenti policies di CPUTIME e WALLTIME e differenti priorità. JOB QUEUE

24 24 E’ stata adottata la seguente organizzazione: Servizi distribuiti: VOMS, BDII, RB/WMS, CE, SE, WN, UI LFC, Ticketing Servizi centralizzati: Monitoring, Accounting SERVIZI “COLLECTIVE” CENTRALI E DISTRIBUITI

25 25 I servizi di monitoraggio sono stati implementati in maniera centrale e suddivisi tra i progetti in modo da avere molti tools attivi ma senza una eccessiva ridondanza che produrrebbe un eccessivo traffico di interrogazioni. Web LDAP Browser (in ogni sito) GridICE (centralizzato presso SCoPE) GStat (centralizzato presso il server goc.grid.sinica.edu.tw ) SAM +VO poncert (centralizzato presso CYBERSAR) Real-Time Monitoring (centralizzato presso PI2S2) SERVIZI DI MONITORAGGIO

26 26 Monitoraggio SAM – CYBERSAR https://sam-cybr.ca.infn.it/sam/sam.py DOWN-TIME - PI2S2 http://trigrid-advices.trigrid.it/support/calendar/ GRIDICE – SCoPE http://gridice.scope.unina.it

27 27 Soluzione tecnica:  Realizzare tool-kit di applicazione  Pubblicare nella variabile di RUNTIME  Installare il software tramite utenti SGM (Software Grid Manager ) E’ in corso la definizione delle applicazioni comuni e dei relativi tool-kit ISTALLAZIONE SOFTWARE APPLICATIVO

28 28 Protocolli di trasferimento Per mantenere il sistema di autenticazione basato sui certificati, i progetti abiliterà il protocollo di trasferimento griftp per il trasferimento dati. Interfacce SRM (Storage Resource Manager) e configurazioni Per garantire piena compatibilità ed interoperabilità con le altre strutture internazionali gli Storage Element impiegati per l’interoperabilità dai progetti utilizzeranno interfaccia SRM supportando srmv1.1 e srmv2.2. Ogni progetto abiliteranno sugli storage element impegnati nell’interoperabilità una quantità di spazio disco da definire creando le seguenti aree logiche: /home/cresco, /home/cyersar, /home/pi2s2, /home/scope INTERFACCE E PROTOCOLLI PER LO STORAGE

29 29 DGAS (Distributed Grid Accounting System ) Si utilizzerà per le informazioni di accounting il sistema DGAS (ref. http://www.to.infn.it/grid/accounting/main.html) installando il sensore DGAS Gianduia sui Computing Element.http://www.to.infn.it/grid/accounting/main.html HLR (Home Location Register ) Ogni sito installerà un HLR_RESOURCE ed un HLR_USER Server sul quale verranno registrate tutte le risorse disponibili per l’interoperabilità, in termini di code job. Sarà possibile individuare un HLR di secondo livello per raccogliere le informazioni dei differenti progetti in un unico punto, utilizzando il tool grafico HLR MON. ACCOUNTING

30 30  Ogni progetto utilizzerà il proprio sistema di ticketing locale.  Per la gestione dei ticket interprogetto, se un utente del progetto X riscontra problemi sul sito del progetto Y, può aprire una segnalazione direttamente sul sistema di ticketing del progetto Y.  I sistemi di ticketing devono prevedere almeno 3 aree per la suddivisione dei ticket:  SITE – per i problemi tecnici di installazione  VO – per le questioni relative alla singola virtual organization, certificazioni ecc.  APPLICATION – per il supporto delle applicazioni. GESTIONE DOWNTIME E SISTEMA DI TICKET

31 31 SCOPE TICKET TICKET PI2S2 TICKET-CYBERSAR TICKET CRESCO

32 32 Basato sull’esperienza del Regional Operation Center (ROC) italiano di EGEE SERVICE LEVEL AGREEMENT  DURATA DELL’AGREEMENT  RESPONSABILITA’  SUPPORTO DI SECONDO LIVELLO  HARDWARE E CRITERI DI CONNETTIVITA’  DESCRIZIONE DEI SERVIZI MINIMI OFFERTI (Numero di CPU e di spazio disco)  SERVICE HOURS  DOWNTIME  SUPPORTO ALLE APPLICAZIONI

33 33 SUPPORTO ALLE APPLICAZIONI AREA UTENTI

34 34

35 35 Alcuni esempi… (http://www.pi2s2.it/applications)

36 36

37 37 E’ attualmente in corso un’indagine per individuare aree applicative di interesse comune ai 4 progetti con l’obiettivo di creare VO tematiche trasversali. Tali VO costituiranno un valore aggiunto per l’integrazione e la coesione tra le infrastrutture nascenti ed avranno, tra le altre attività, l’obiettivo di individuare e manutenere il software applicativo di interesse specifico. Le soluzioni tecniche fin ora adottate sono adeguate per realizzare l’e-infrastruttura dell’Italia meridionale e per l’integrazione nell’ e-infrastruttura Grid italiana ed europea. ABILITAZIONE DELLE VO COMUNI INTEROPERABILITA’ CON ALTRE INFRASTRUTTURE

38 38 L’attività di interoperabilità proseguirà al termine dei progetti dell’Avviso 1575 nell’ambito di una struttura organizzativa denominata GRISU’ (Griglie del Sud). PROSPETTIVE dell’INTEROPERABILITA’ Protocollo di Intesa stipulato tra i soggetti attuatori dei quattro progetti (ENEA, UniNA Federico II, Cons. COSMOLAB, Cons. COMETA) e il Cons. SPACI (già fruitore del progetto omonimo cofinanziato tramite l’Avviso 68 della programmazione 2000-2006).  Ricerca, Sviluppo e Innovazione  Cooperazione con le Imprese Coordinatore: R. Barbera

39 39 La “Rete” di GRISÙ

40 40 OBIETTIVI STRATEGICI FUTURI ’ Reti e network di cooperazione fra Ricerca e Imprese ’ CONTINUITA’ DELLA PROGRAMMAZIONE 2000-2006 Nuova sfida: SUPPORTO ALLA COMPETITIVITA’ DELLE IMPRESE ATTRAZIONE DEL MONDO PRODUTTIVO A) Potenziamento di reti tra strutture di ricerca e completamento dell’ e-infrastruttura meridionale B) Servizi di computing basati su Grid D) Nuovi sistemi di calcolo ad alte prestazioni C) Applicazioni general purpose, nuovi frameworks applicativi, nuove modalità di accesso a archivi digitali POTENZIAMENTO DOMANDA /OFFERTA SUL TERRITORIO

41 41 A)Potenziare le reti tra strutture di ricerca, completare l’e-infrastruttura meridionale e integrazione nell’e-infrastruttura Grid nazionale. In particolare, si propone di fare evolvere le principali strutture computazionali e di rete in un sistema computazionale federato in cui centri computazionali di varie dimensioni siano interconnessi da reti ottiche dedicate in grado di fornire dinamicamente multiple connessioni a larghissima banda tra di essi e tra essi ed il resto della rete Nazionale ed Europea. B) Stimolare l’assorbimento di innovazione nei sistemi produttivi sviluppando – secondo una logica di trasferimento tecnologico -opportuni Problem Solving Environment (a partire dai risultati resi disponibili dalla ricerca) per l’attivazione di Servizi di computing basati su Grid ed altre tecnologie emergenti come il Cloud Computing rivolti alle piccole e medie imprese dell’area Convergenza e, più in generale, verso il mondo produttivo e la Pubblica Amministrazione delle otto regioni delle aree sotto-utilizzate. Gli obiettivi strategici vanno considerati fortemente correlati fra loro e necessitano anche del potenziamento e dello sviluppo di approcci computazionali innovativi che li integrino e li completino a vicenda.

42 42 C)Sviluppare applicazioni scientifiche general purpose, nuovi frameworks applicativi di e-Science e di e-Learning, nuove modalità di accesso ed analisi di archivi digitali..In particolare, si propone di rafforzare ed espandere le attività di ricerca, sviluppo e trasferimento tecnologico su metodologie di calcolo adatte alle emergenti tecnologie multi-core e computazionali ibride basate su acceleratori GPU e FPGA, soprattutto in vista del loro uso per applicazioni caratterizzate da grandissime quantità di dati, come, ad esempio, l’analisi di archivi digitali di dataset provenienti da metodiche biomediche ad altissima processività, la visualizzazione tridimensionale di modelli ad altissima risoluzione di statue ed altri manufatti, il processamento e la visualizzazione di acquisizioni di terreno ad altissima risoluzione. D) Potenziare e/o sviluppare nuovi sistemi di calcolo ad alte prestazioni al fine di consentire alle Industrie Italiane e alla ricerca nazionale l’accesso a strumenti che consentano di produrre risultati industriali e scientifici non ottenibili senza la disponibilità di tali strumenti. Settori quali la fluidodinamica industriale, le simulazioni di impatto ambientale, lo sviluppo nuovi materiali costituiscono ad esempio alcuni degli ambiti in cui la competitività nazionale è assicurata solo dalla disponibilità di infrastrutture confrontabili con quelle disponibili alle industrie e ricercatori degli altri paesi.

43 43 TEMI DI INTERESSE COMUNE Sono stati individuati ed approfonditi alcuni temi di interesse comune, molti dei quali hanno avuto riscontri positivi da parte di aziende ed imprese, piccole e grandi (ad es.: Networking Day - Napoli, 15/4/08, Incontro con le Imprese - Napoli, 16/4/08, Industry Day - Catania, 14/5/08).  Reti a larga banda  “Cloud computing” e applicazioni  Applicazioni scientifiche e industriali in ambiente di High Performance Computing e Grid Computing di High Performance Computing e Grid Computing  Data Mining  Influenza dei “multicore” sullo sviluppo delle applicazioni scientifiche applicazioni scientifiche  Tecnologie Grid per le Imprese

44 44 Reti a banda larga Obiettivi  Interconnettere i poli di calcolo delle regioni meridionali fra di loro e con l’infrastruttura nazionale tramite connessioni in fibra ottiche dedicate che garantiranno connessione a larghissima banda tra i nodi con link ottici multipli della capacità di 10 o 40 Gbit/s con gestione dinamica dei cammini ottici configurabili dinamicamente in funzione delle applicazioni.  Risolvere problemi computazionali a grande scala e specializzati per rispondere in maniera ottimale alle esigenze di importanti classi di applicazioni.  Mettere in opera una ‘Lambda-Grid’ su scala geografica nazionale.  Sperimentare tecnologie abilitanti per la gestione di metacomputer fotonici e sistemi high throughput per l’accesso e la gestione di grandi moli di dati su larga scala.

45 45 “Cloud computing” e applicazioni Obiettivi  Determinare il modo in cui utilizzare e far evolvere i servizi Grid in modo da rendere sempre più attraente e fruibile da parte di enti di ricerca, imprese ICT, società di servizi ed enti publici in generale le infrastrutture Grid.  Sviluppare un business model che possa essere realisticamente proposto per l’erogazione di servizi basati su Grid, con l’inclusione degli aspetti di service providing che rientrano nel così detto Cloud Computing.  Determinare la gamma di applicabilità in ambienti scientifici, commerciali, medici ed industriali, degli approcci tipici dei cloud-service e dei web-service per la costruzione della griglia computazionale, per aggiungere funzionalità che non siano ancora previste.  Sperimentare metodologie e tecnologie per la creazione e la gestione dinamica di cluster virtuali.

46 46 Applicazioni scientifiche e industriali in ambiente di High Performance Computing e Grid Computing Obiettivi  Portare applicazioni scientifiche, tecniche ed industriali in ambiente di HPC e Grid computing.  Sviluppare applicazioni attraverso progetti pilota realizzati in collaborazione con partner industriali. Il risultato consisterà in applicazioni general-purpose che sono di interesse anche per l'industria e sono in grado di ottenere prestazioni e capacità molto più elevate, perché fatte girare su piattaforme HPC e di Grid computing.

47 47 Data Mining Obiettivi  Sviluppare modelli e algoritmi in grado di affrontare problemi complessi e comuni sia alle applicazioni scientifiche, sia alle applicazioni economiche e sociali quali l’analisi sociale, il monitoraggio del territorio e dell’ambiente, la gestione di processi complessi, la finanza, il marketing, ecc. in cui si deve analizzare l’informazione contenuta in basi dati massicce e di alta dimensionalità ed in cui occorre correlare dati con le previsioni di modelli teorici (sia analitici che numerici). Influenza dei “multicore” sullo sviluppo delle applicazioni scientifiche Obiettivi  Caratterizzare i modelli di prestazione e gli algoritmi per architetture di calcolo basate su chip multi-core con particolare attenzione alle architetture per le applicazioni di calcolo scientifico e industriale, comprese quelle che necessitano di grandi quantità di dati e di calcolo.

48 48 Tecnologie Grid per le Imprese Obiettivi Mettere a punto tecnologie e metodologie Grid fruibili da parte del sistema produttivo meridionale e nazionale. Mettere a disposizione dell’utenza strutture di servizio che siano in grado di accompagnarla nell’accesso e nell’utilizzo di strumenti sofisticati per l’acquisizione di informazioni, di applicazioni e sistemi di calcolo per elaborarle, di modelli e strumenti innovativi di rappresentazione dei risultati.

49 49 CONSIDERAZIONI CONCLUSIVE Affinché gli obiettivi strategici possano essere realizzati pienamente entro la conclusione del programma 2007-2013 i progetti dell’Avviso 1575 si auspicano di poter concorrere al più presto a dotarsi degli strumenti organizzativi e delle risorse finanziarie necessarie. I progetti dell’Avviso 1575/2004 ritengono essenziale valorizzare gli interventi della programmazione 2000-2006, concentrando lo sforzo sulle comunità e sui siti già operanti piuttosto che frammentare e disperdere risorse e competenze. Ciò non toglie che interventi regionali e interregionali con Enti pubblici e privati possano, anzi debbano, complementare gli interventi nazionali, tramite azioni tese alla capillarizzazione e alla diffusione sul territorio ed all’interazione con le Imprese. In tale visione si propongono di dare continuità, alla conclusione dei presenti progetti, alle realizzazioni effettuate, preoccupandosi di non perdere né disperdere le competenze della comunità di giovani ricercatori, tecnologi e tecnici che hanno usufruito di contratti a tempo determinato, di vario genere e varia durata.


Scaricare ppt "1 Conferenza Nazionale - Italian e-Science 2008 Napoli, 27 maggio 2008 - L. Merola INTEROPERABILITA’ DEI PROGETTI DELL’AVVISO 1575/2004."

Presentazioni simili


Annunci Google