Test Storage Resource Manager per SC4 Giacinto Donvito Vincenzo Spinoso.

Slides:



Advertisements
Presentazioni simili
EGEE is a project funded by the European Union under contract IST Test di performance su dCache G.Donvito,V.Spinoso INFN Bari
Advertisements

E835 & Hera-B Concezio Pisa, 21/12/2004. E835 (aka Jet-FNAL) timeline dell'esperimento –Presa dati conclusa nel Alcune analisi tuttora in corso.
23/01/01Alberto Masoni – GR1 - Roma1 I MODELLI DI CENTRI REGIONALI POSIZIONE DI ALICE ITALIA CENTRO ITALIANO: CPU 450 KSI95, DISCO 400 TB (INSIEME TIER-1.
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
Proposta di integrazione e consolidamento delle risorse presenti nellinfrastruttura Grid dellItalia Meridionale (L. Merola, )
Aspetti critici rete LAN e WAN per i Tier-2
Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
La facility nazionale Egrid: stato dell'arte Egrid-Team Trieste, 9 ottobre 2004.
Istituto Nazionale di Fisica Nucleare Roma,12 febbraio 2001 Netgroup meeting Situazione attuale e attivita futura - R.Gomezel 1 Netgroup meeting Situazione.
Gruppo Directory Services Rapporto dell'attivita' svolta - Marzo 2000.
1 Riunione Testbed - 17 gennaio Agenda - stato del testbed di INFN-GRID (L. Gaido) - le risorse del CNAF (A. Italiano) - report sullo stress test.
Il Tutorial INFN-GRID/EDG di Torino Testbed INFN-GRID.
INFN-GRID WP1 11 gennaio 2001 GridFTP: stato dellarte Luciano Gaido 1 Progetto INFN-GRID GridFTP: stato dellarte Riunione WP1 (GLOBUS) Cnaf, 11 gennaio.
LNL M.Biasotto, Bologna, 13 dicembre Installazione automatica Massimo Biasotto – INFN LNL.
INFN-GRID WP1 20 novembre 2000 Sperimentazione GridFTP Luciano Gaido 1 Progetto INFN-GRID Sperimentazione GridFTP Riunione WP1 (GLOBUS) Cnaf, 20 novembre.
Execution benchmarks Obiettivi Test dettagliati e ben caratterizzati Esecuzione di benchmark standard Test di applicazioni dell'esperimento ALICE 20 Novembre.
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
Servizi Grid ed agenti mobili : un ambiente di sviluppo e delivering
Riunione CCR 20/10/2005 Gruppo Storage Relazione attivita primo semestre 2005 e pianificazione 2006 Alessandro Brunengo.
EGEE is a project funded by the European Union under contract IST Using SRM: DPM and dCache G.Donvito,V.Spinoso INFN Bari
Alessia Tricomi Università & INFN Catania
Sommario: il testbed CMS/LCG0 e la configurazione della farm di Bari sviluppo software/tool di produzione per CMS e GRID. eventi in produzione per il.
C. Aiftimiei 1, S. Andreozzi 2, S. Dal Pra 1, G. Donvito 3, S. Fantinel 4, E. Fattibene 2, G. Cuscela 3, G. P. Maggi 3, G. Misurelli 2, A. Pierro 3 1 INFN-Padova.
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
LNL GM, CNAF, 18 ottobre INFN-Farm Management Toolkit 1.Fabric Management per DataGrid e INFNGrid 2.Definizione dei requisiti degli esperimenti.
Analysis unibo una proposta. Work flow di una tipica analisi 1.Simulazione di piccoli campioni di eventi per studio segnale 2.Generazione in grande.
CNAF 18/11/2004 Federica Fanzago INFN Padova a/grape... BAT... BATMAN...o? M.Corvo, F.Fanzago, N.Smirnov (INFN Padova) + tutte le persone che fanno i test.
CCR 14-15/03/2006 Status Report Gruppo Storage CCR.
10 azioni per lo scheduling su Grid Uno scheduler per Grid deve selezionare le risorse in un ambiente dove non ha il controllo diretto delle risorse locali,
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
Condor standard. Sistema Batch. Tool di installazione D. Bortolotti,P.Mazzanti,F.Semeria Workshop Calcolo Paestum 9-12 Giugno 2003.
Attivita' Grid in BaBar Workshop sulle Problematiche di Calcolo e Reti nell'INFN Maggio 2004.
L. Servoli - CCR Roma 15 marzo Il progetto High Availability D. Salomoni - CNAF L. Servoli - INFN Perugia.
SnippetSearch Database di snippet bilanciato e replicato di Gianluigi Salvi Reti di calcolatori LS – Prof. A.Corradi.
Workshop CCR Otranto - giugno 2006 Gruppo storage CCR Status Report Alessandro Brunengo.
Alessandro Tirel - Sezione di Trieste Storage Area Network Riunione gruppo Storage Padova, 5 ottobre 2005.
CMS 1 M. Biasotto – Bologna 20/01/2005 Infrastruttura di calcolo per CMS-Italia M.Biasotto – INFN Legnaro e i gestori dei centri CMS Italia.
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
Storage (ieri, oggi e domani) Luca dell’Agnello INFN-CNAF.
BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015.
Report R.Gomezel CCR dicembre 2006 Roma.
Corso linux RiminiLUG presenta Rete a bassissimo budget per il piccolo ufficio architettura di rete LTSP in contesti professionali corso linux 2008.
Roberto Covati – Roberto Alfieri INFN di Parma. Incontri di lavoro CCR dicembre Sommario VmWare Server (in produzione dal 2004) VmWare ESX.
Atlas Italia - Milano, 17/11/2009 G. Carlino – News dal Computing 1 1 News dal computing Gianpaolo Carlino INFN Napoli Atlas Italia, Milano, 17/11/09 Nuovo.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
6/1/2016ATLAS Milano1 Agenda :. 6/1/2016ATLAS Milano2 Agenda : A)AGGIORNAMENTO SITUAZIONE RELIABILITY SITO -potrebbe essere utile discutere le nostre.
Utilizzo della VO di theophys per il calcolo lattice QCD G. Andronico M. Serra L. Giusti S. Petrarca B. Taglienti.
Worker node on demand: le soluzioni Andrea Chierici INFN-CNAF CCR 2009.
19 Ottobre 2012ATLAS Milano1 Stato delle risorse locali di calcolo L. Carminati, L. Perini, D. Rebatto, L. Vaccarossa.
IV Corso di formazione INFN per amministratori di siti GRID Tutorial di amministrazione DGAS Giuseppe Patania.
Progetto iSCSI Report alla CCR 12-13/12/2006 Alessandro Tirel – Sezione di Trieste.
Uso della rete geografica e richieste di upgrade CCR 31/3/2015 (Roma) S.Zani.
1 ALICE I ITER2 DI ALICE IN ITALIA Bologna, 6 marzo 2007 M. Masera
Stato e previsione rete nelle sedi INFN Survey ed ipotesi di sviluppo fino al 2018 CCR 8-10 Settembre 2018 (Roma) 1 S.Zani (Netgroup)
Attività Gruppo Virtualizzazione Andrea Chierici CNAF CCR
Sistema di Monitoraggio Integrato Paolo Mastroserio, Gennaro Tortone, Silvio Pardi Presenta per il gruppo Silvio Pardi.
G. Maggi 24/1/2006 Il Progetto del TIER2 di Bari Giorgio Maggi.
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
ATLAS Italia – Sestri Levante, 15 Giugno 2010 G. Carlino – Richieste Run Efficiency = time for physics / total time LHC Efficiency = time with colliding.
ALICE Computing Readiness Workshop Tier-2 CNAF Jan 17-18, ALICE Computing Readiness 1) ALICE Italia: Persone & organizzazione 2) Test & commisioning.
CCR - Roma 15 marzo 2007 Gruppo storage CCR Report sulle attivita’ Alessandro Brunengo.
Alessandro Tirel - Sezione di Trieste Storage servers & TCP Tuning Proposta di studio delle problematiche connesse alla fornitura di servizi di storage.
1 Le macchine di questo pool fanno parte di una lan privata (la 125 illustrata a pag.2), di cui t2cmcondor è il gateway. Sono presenti 3 macchine su rete.
Attività Gruppo Virtualizzazione Andrea Chierici CNAF Riunione CCR
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Status Report Gruppo Storage CCR CCR 14-15/03/2006.
Transcript della presentazione:

Test Storage Resource Manager per SC4 Giacinto Donvito Vincenzo Spinoso

Introduzione È importante cercare di capire se le funzioni necessarie per SC4 e per il lavoro di esperimento sono supportate e con che livello di affidabilità È importante cercare di capire se le funzioni necessarie per SC4 e per il lavoro di esperimento sono supportate e con che livello di affidabilità Il goal primario è quello di aiutare i tier2 ma alcuni parametri potrebbero essere utili anche al tier1 Il goal primario è quello di aiutare i tier2 ma alcuni parametri potrebbero essere utili anche al tier1 È importante prendere in considerazione tutti gli aspetti dei software (da ordinare in funzione della priorità che si vuole dare): È importante prendere in considerazione tutti gli aspetti dei software (da ordinare in funzione della priorità che si vuole dare): Funzionalità baseFunzionalità base PerformancePerformance Stabilità operativaStabilità operativa SupportoSupporto Possibilità di sviluppi futuriPossibilità di sviluppi futuri Funzionalità avanzateFunzionalità avanzate La valutazione dei sistemi deve tenere in considerazione ognuno di questi aspetti La valutazione dei sistemi deve tenere in considerazione ognuno di questi aspetti

Modalità di test Primo livello di test, da farsi in qualsiasi sito (tier2): Primo livello di test, da farsi in qualsiasi sito (tier2): Sono importanti test di installazione (per valutarne la facilità)Sono importanti test di installazione (per valutarne la facilità) Vanno fatti test per coprire le funzionalità di baseVanno fatti test per coprire le funzionalità di base Alcuni test sulla stabilità operative in caso di failure simulateAlcuni test sulla stabilità operative in caso di failure simulate Secondo livello di test, da farsi nel testbed al CNAF: Secondo livello di test, da farsi nel testbed al CNAF: Test di performance alla scala di un futuro Tier2Test di performance alla scala di un futuro Tier2 Sia con programmi contruiti ad arte per “stressare il sistema”, sia con applicazioni reali dei 4 esperimenti Sia con programmi contruiti ad arte per “stressare il sistema”, sia con applicazioni reali dei 4 esperimenti Test di failure in condizioni di elevato “stress”Test di failure in condizioni di elevato “stress” Test di funzionalità avanzateTest di funzionalità avanzate Terzo livello di test, esperienze di SC3 Terzo livello di test, esperienze di SC3 Problemi nell’uso quotidianoProblemi nell’uso quotidiano Performance e feedbackPerformance e feedback

Test di primo livello Sarebbe necessario procedere in parallelo su più sedi ai test sui vari sistemi: DPM, dCache, StoRM(??), DRM (??) Installare il software con le indicazioni fornite (guide ufficiali più note sul WIKI) Installare il software con le indicazioni fornite (guide ufficiali più note sul WIKI) Fornire feedback e/o ulteriori suggerimenti per rendere il più semplice possibile il lavoro dei tier2 durante SC4Fornire feedback e/o ulteriori suggerimenti per rendere il più semplice possibile il lavoro dei tier2 durante SC4 Effettuare test di fuzionalità di base per verificare l’installazione Effettuare test di fuzionalità di base per verificare l’installazione Verrà fornito uno script con pochi test di base da runnare su una UI LCGVerrà fornito uno script con pochi test di base da runnare su una UI LCG Effettuare i test di funzionalità richieste da SC4 Effettuare i test di funzionalità richieste da SC4 Verrà fornito uno script per rendere quando più automatica possibile la proceduraVerrà fornito uno script per rendere quando più automatica possibile la procedura Effettuare test di performance e di stress Effettuare test di performance e di stress Verrà usato un client in C scritto ad hoc da eseguire sui WN per evideziare eventuali problemi di scala della configurazione hardware/softwareVerrà usato un client in C scritto ad hoc da eseguire sui WN per evideziare eventuali problemi di scala della configurazione hardware/software Effettuare test con applicativi reali? Effettuare test con applicativi reali? Secondo noi questo step andrebbe approntato solo al CNAFSecondo noi questo step andrebbe approntato solo al CNAF Effettuare dei test di integrazione con il DBII di sito Effettuare dei test di integrazione con il DBII di sito

Test di secondo livello Concentrare i test sulle performance e sull’affidabilità per failure o per “stress” operativo. Alcuni test su funzionalità avanzate che possono risultare utili in un grosso Tier2 o al Tier1 Motivi: Scalare di un ordine di grandezza la quantità di storage gestito Scalare di un ordine di grandezza la quantità di storage gestito Raggiungere configurazioni hardware (rete e numero di WN) difficilmente raggiungibili in un attuale Tier2 Raggiungere configurazioni hardware (rete e numero di WN) difficilmente raggiungibili in un attuale Tier2Metodi: Usare il programma di benchmark costruito ad-hoc Usare il programma di benchmark costruito ad-hoc Usare software e job di esperimento per simulare l’uso reale Usare software e job di esperimento per simulare l’uso reale Simulare l’accesso via SRM (per provare che il sistema può essere in grado di gestire la mole di lavoro necessaria a fornire i 20 MB/sec per ogni tier2 necessari per SC4) Simulare l’accesso via SRM (per provare che il sistema può essere in grado di gestire la mole di lavoro necessaria a fornire i 20 MB/sec per ogni tier2 necessari per SC4)

Test di secondo livello (2) Configurazione Hardware necessaria: Server: 2 o 3 disc-server con circa 6-8 terabyte 2 o 3 disc-server con circa 6-8 terabyte 1 admin node (no spazio disco, CPU >1GHz e RAM >1GB) 1 admin node (no spazio disco, CPU >1GHz e RAM >1GB) Interfacce di rete gigabit ethernet Interfacce di rete gigabit ethernetClient: Almeno 30 client Almeno 30 client Interfaccia 100Mbit Interfaccia 100Mbit Nessun requirement particolare per CPU e RAM Nessun requirement particolare per CPU e RAM

Test di secondo livello Concentrare i test sulle performance e sull’affidabilità per failure o per “stress” operativo. Alcuni test su funzionalità avanzate che possono risultare utili in un grosso Tier2 o al Tier1 Motivi: Scalare di un ordine di grandezza la quantità di storage gestito Scalare di un ordine di grandezza la quantità di storage gestito Raggiungere configurazioni hardware (rete e numero di WN) difficilmente raggiungibili in un attuale Tier2 Raggiungere configurazioni hardware (rete e numero di WN) difficilmente raggiungibili in un attuale Tier2Metodi: Usare il programma di benchmark costruito ad-hoc Usare il programma di benchmark costruito ad-hoc Usare software e job di esperimento per simulare l’uso reale Usare software e job di esperimento per simulare l’uso reale Simulare l’accesso via SRM (per provare che il sistema può essere in grado di gestire la mole di lavoro necessaria a fornire i 20 MB/sec per ogni tier2 necessari per SC4) Simulare l’accesso via SRM (per provare che il sistema può essere in grado di gestire la mole di lavoro necessaria a fornire i 20 MB/sec per ogni tier2 necessari per SC4)

Test di secondo livello Concentrare i test sulle performance e sull’affidabilità per failure o per “stress” operativo. Alcuni test su funzionalità avanzate che possono risultare utili in un grosso Tier2 o al Tier1 Motivi: Scalare di un ordine di grandezza la quantità di storage gestito Scalare di un ordine di grandezza la quantità di storage gestito Raggiungere configurazioni hardware (rete e numero di WN) difficilmente raggiungibili in un attuale Tier2 Raggiungere configurazioni hardware (rete e numero di WN) difficilmente raggiungibili in un attuale Tier2Metodi: Usare il programma di benchmark costruito ad-hoc Usare il programma di benchmark costruito ad-hoc Usare software e job di esperimento per simulare l’uso reale Usare software e job di esperimento per simulare l’uso reale Simulare l’accesso via SRM (per provare che il sistema può essere in grado di gestire la mole di lavoro necessaria a fornire i 20 MB/sec per ogni tier2 necessari per SC4) Simulare l’accesso via SRM (per provare che il sistema può essere in grado di gestire la mole di lavoro necessaria a fornire i 20 MB/sec per ogni tier2 necessari per SC4)

Test di terzo livello In Italia pochi siti hanno fatto esperienza con i sistemi di SRM in produzione. Questa esperienza è fondamentale e va raccolta. Casi Noti: Bari: SC3 CMS Bari: SC3 CMS Usato dCache come sistema di produzione (File trasferiti, job girati)Usato dCache come sistema di produzione (File trasferiti, job girati) LNL: SC3 CMS LNL: SC3 CMS Usato DPM in produzione (molti problemi incontrati)Usato DPM in produzione (molti problemi incontrati) Torino: SC3 ALICE Torino: SC3 ALICE Usato dCache (NO NEWS)Usato dCache (NO NEWS) Milano: SC3 Atlas Milano: SC3 Atlas Usato DPM (NO NEWS)Usato DPM (NO NEWS) …

Alcuni dettagli DPM Esperienza precedente: Promette di essere un buon compromesso fra facilità di uso e funzionalità Promette di essere un buon compromesso fra facilità di uso e funzionalità Pensato espressamente per i Tier2 Pensato espressamente per i Tier2 Stabilità operativa non sempre a “production level” Stabilità operativa non sempre a “production level” Buon supporto Buon supporto Ancora problemi nell’uso in produzione Ancora problemi nell’uso in produzione Previsti ottimi sviluppi Previsti ottimi sviluppi Elevata velocità ed “efficienza” sull’accesso locale Elevata velocità ed “efficienza” sull’accesso locale Scalabilità da verificare Scalabilità da verificare Attualmente poche funzionalità avanzate Attualmente poche funzionalità avanzate Piani chiari per il supporto a SC4 Piani chiari per il supporto a SC4

Alcuni dettagli (2) dCache Esperienza precedente: Non semplice da gestire Non semplice da gestire Supporto non sempre puntuale Supporto non sempre puntuale Piani non chiari per il supporto a SC4 Piani non chiari per il supporto a SC4 Ottima scalabilità Ottima scalabilità Bassa efficienza per accesso locale Bassa efficienza per accesso locale Stabilità operativa ben provata Stabilità operativa ben provata Funzionalità avanzate utili per i siti più grandi Funzionalità avanzate utili per i siti più grandi …

Alcuni dettagli (3) DPM TO DO: Testing della release Testing della release Funzionalità di baseFunzionalità di base Stabilità Stabilità Funzionalità di SRMv2.1 per SC4Funzionalità di SRMv2.1 per SC4 Quelle più importanti sono dichiarate implementate Quelle più importanti sono dichiarate implementate Accesso localeAccesso locale con Bench con Bench con job reali con job reali ScalabilitàScalabilità Potrà gestire 100 Tb ?? Potrà gestire 100 Tb ?? Interoperabilità con altri SRM e altri servizi di GRID/SC4Interoperabilità con altri SRM e altri servizi di GRID/SC4 FTS FTS …

Alcuni dettagli (4) dCache TO DO: Testing della release Testing della release Funzionalità di baseFunzionalità di base Fix di alcuni problemi evidenziati in SC3 Fix di alcuni problemi evidenziati in SC3 Funzionalità di SRMv2.1 per SC4 ??Funzionalità di SRMv2.1 per SC4 ?? Non è ufficialmente supportato SRMv2.1 Non è ufficialmente supportato SRMv2.1 Non ci è stata comunicata la possibilità di testare versioni di sviluppo (anche se sembrano esistere) Non ci è stata comunicata la possibilità di testare versioni di sviluppo (anche se sembrano esistere) Accesso locale (con Bench e con job reali)Accesso locale (con Bench e con job reali) Sembra che anche a FNAL l’efficienza di CPU non vada oltre il 50% Sembra che anche a FNAL l’efficienza di CPU non vada oltre il 50% ScalabilitàScalabilità Potrebbe essere una scelta per il tier1?? Potrebbe essere una scelta per il tier1?? Interoperabilità con altri SRM e altri servizi di GRID/SC4Interoperabilità con altri SRM e altri servizi di GRID/SC4 FTS FTS …

Alcuni dettagli (5) StoRM TO DO: Testing della prima release Testing della prima release Funzionalità di baseFunzionalità di base Quali sono già implementate? Quali sono già implementate? Quanto sono stabili? Quanto sono stabili? Funzionalità di SRMv2.1 per SC4 ??Funzionalità di SRMv2.1 per SC4 ?? Dovrebbe supportare SRMv2.1 quindi non ci dovrebbero essere problemi Dovrebbe supportare SRMv2.1 quindi non ci dovrebbero essere problemi Accesso locale (con Bench e con job reali)Accesso locale (con Bench e con job reali) Dovrebbero essere il linea con quelle di GPFS Dovrebbero essere il linea con quelle di GPFS ScalabilitàScalabilità Potrebbe essere una scelta per il tier1? Potrebbe essere una scelta per il tier1? Interoperabilità con altri SRM e altri servizi di GRID/SC4Interoperabilità con altri SRM e altri servizi di GRID/SC4 FTS FTS …

Alcuni dettagli (6) DRMOverview: Interfaccia SRM verso un file-system standard Interfaccia SRM verso un file-system standard Fully compliance con SRMv2.1 Fully compliance con SRMv2.1 Può essere una scelta per i siti con piccole esigenze di storage (per sostituire i classicSE) Può essere una scelta per i siti con piccole esigenze di storage (per sostituire i classicSE) Molto utile per testare gli altri SRM Molto utile per testare gli altri SRM Non sono necessari test specifici e intensivi Non sono necessari test specifici e intensivi

Test Pianificati rage/TestSuite.html rage/TestSuite.html rage/TestSuite.html rage/TestSuite.html

Advanced Test dCache Replica temporanea dei file in base al costo di accesso Replica temporanea dei file in base al costo di accesso Uso dei WN per bilanciare il carico Uso dei WN per bilanciare il carico vacating formatting and reusing a pool vacating formatting and reusing a pool Use a very large file-limit (for dcap local access) Use a very large file-limit (for dcap local access) use a very large login limit (in the gridftp/dcap-door) use a very large login limit (in the gridftp/dcap-door) "Hybrid" dCache replicaManger "Hybrid" dCache replicaManger

Conclusioni Molto lavoro da fare in poco tempo Molto lavoro da fare in poco tempo Scadenza stretta anche per gli stessi sviluppatori del software Scadenza stretta anche per gli stessi sviluppatori del software Fondamentale il supporto del tier1 Fondamentale il supporto del tier1 Importante la partecipazione di altri Tier2 Importante la partecipazione di altri Tier2 E’ necessaria una partecipazione degli esperimenti per avere il software che poi verrà usato in SC4 e uno schema del modello di computing che verrà usato E’ necessaria una partecipazione degli esperimenti per avere il software che poi verrà usato in SC4 e uno schema del modello di computing che verrà usato