Il Tier2 di CMS Roma Francesco Safai Tehrani INFN Roma

Slides:



Advertisements
Presentazioni simili
E835 & Hera-B Concezio Pisa, 21/12/2004. E835 (aka Jet-FNAL) timeline dell'esperimento –Presa dati conclusa nel Alcune analisi tuttora in corso.
Advertisements

Progetto Speciale Prototipo Tier1 F. Ruggieri INFN – CNAF I Workshop CMS Italia del SW e Computing Roma 22 Novembre 2001.
Aspetti critici rete LAN e WAN per i Tier-2
Riunione CRESCO Infrastruttura HPC Cresco Analisi Preliminare.
La facility nazionale Egrid: stato dell'arte Egrid-Team Trieste, 9 ottobre 2004.
Michele Michelotto INFN-Padova
1 M. Biasotto – Legnaro, 22 Dicembre 2005 Prototipo Tier 2 di Legnaro-Padova INFN Legnaro.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
Case study Maiora srl.
Benvenuti a Un incontro informativo di grande valore ed alto contenuto sulla Virtualizzazione e sistemi ad alta disponibiltà per le PMI.
Prima cerano i calcolatori (costosi e per pochi) Poi vennero i terminali (una sola applicazione per tanti) Poi arrivarono i PC (un calcolatore per tutti)
Architettura di storage ad alta affidabilita e bilanciamento di carico per volumi centrali e di esperimento A.Brunengo, M.Corosu INFN Sezione di Genova.
Dischi in RAID  Redundant Array of Independent Disk Configurazione che permette di combinare più dischi secondo obiettivi di performance e ridondanza.
Works in progress.  Semplificazione e maggiore efficienza della gestione  Risparmio (nel medio periodo)  Riallocazione delle risorse (hardware e timesheet)
CCR 14-15/03/2006 Status Report Gruppo Storage CCR.
Tipi e topologie di LAN Lezione 2.
Test Storage Resource Manager per SC4 Giacinto Donvito Vincenzo Spinoso.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
Attivita' Grid in BaBar Workshop sulle Problematiche di Calcolo e Reti nell'INFN Maggio 2004.
Federico Ruggieri Riunione CSN1 PISA 22 Giugno 2004 Il Progetto TIER1 Status Update.
CSN1 21 Giugno 2004 P. Morettini 1 Commissione Calcolo e Reti Ruolo e composizione della commissione I working groups I workshops Geant 4 Reti e potenziamento.
Confronto soluzioni di connettività 23/04/2015 Estensori: L.Cazzani (Referente interna Rete Istituto), F. Fusili (Responsabile esterno Rete Istituto);
Tier-2 Tier-2 ATLAS (Osservazioni sulla proposta dei referee del calcolo LHC) Lamberto Luminari CSN1 – Roma, 3 Aprile 2006.
Workshop CCR Otranto - giugno 2006 Gruppo storage CCR Status Report Alessandro Brunengo.
Alessandro Tirel - Sezione di Trieste Storage Area Network Riunione gruppo Storage Padova, 5 ottobre 2005.
Gruppo di referaggio: Forti (chair), Bossi, Ferrari, Menasce, Morandin, Simone, Taiuti, Zoccoli TIER2: Update F. Bossi, CSN1 Trieste 7/7/05.
Tier-2 ATLAS Tier-2 Lamberto Luminari CSN1 – Roma, 10 Ottobre 2005.
Federico Ruggieri INFN-CNAF Commissione Scientifica Nazionale I Lecce 24 Settembre 2003 Il Progetto TIER1 Status Update.
La Farm di Alice a Torino Workshop sulle problematiche di calcolo e reti Isola d’Elba 6-9 maggio 2002 Mario Sitta (Università del Piemonte Orientale e.
STATO DEI PROGETTI TIER2 F. Bossi CCR, Roma, 20 Ottobre 2005 ( per il gruppo di referaggio)
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
Presentazione Servizi. Di Cosa Ci Occupiamo Hera02 cura per le Aziende i seguenti tre assetti: 1 – I servizi di Telecomunicazioni: Connessione Dati verso.
Riunione Servizi Servizio Calcolo e Reti 13 settembre 2004 Silvia Arezzini.
SERVER FARM. Server Farm 800 mq di spazio suddiviso in 10 locali tecnici Sala di controllo per il monitoraggio delle reti e dei sistemi Sale tecniche.
Risorse per Meccanica e Simulazione dell'ITk D. Giugni INFN-MI D. Giugni Risorse per Meccanica e Simulazione dell'ITk
“Lezioni imparate dall’ultimo spegnimento del TIER1” Michele Onofri, Stefano Zani, Andrea Chierici CCR 2014 LNS.
Report R.Gomezel CCR dicembre 2006 Roma.
Roberto Covati – Roberto Alfieri INFN di Parma. Incontri di lavoro CCR dicembre Sommario VmWare Server (in produzione dal 2004) VmWare ESX.
Tier-2 Legnaro-Padova Massimo Sgaravatto (INFN Padova) On behalf of the Legnaro-Padova T2 team Tier-2 Legnaro-Padova 1.
26 Giugno 2007CSN1 - Frascati1 Temi di attualità nella CCR Accanto alla tradizionale attività di controllo dei finanziamenti per le infrastrutture di calcolo.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
Centralizzazione del servizio di posta elettronica per l’INFN ─ INTEGRAZIONE ─ Ombretta Pinazza Per il Gruppo Mailing CCR, Marzo 2008.
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
FESR Consorzio COMETA - Progetto PI2S2 Il Tier-2 di ALICE a Catania Roberto Barbera Università di Catania e INFN Visita Referee.
Referaggio sigla CALCOLO D. Bonacorsi, G. Carlino, P. Morettini CCR – Roma 9 Settembre 2014.
17 GennaioTier2 Milano G. Costa 1 17-Gennaio-2006.
19 Ottobre 2012ATLAS Milano1 Stato delle risorse locali di calcolo L. Carminati, L. Perini, D. Rebatto, L. Vaccarossa.
Sistema di monitoraggio integrato Introduzione a cura di P. Mastroserio Servizio Calcolo & Reti Infn-Napoli P. Mastroserio Workshop CCR - INFN Grid Acireale.
Attività e servizi di calcolo a Roma Tor Vergata R. Kwatera, R. Lulli, R. Sparvoli Roma Tor Vergata.
Progetto iSCSI Report alla CCR 12-13/12/2006 Alessandro Tirel – Sezione di Trieste.
Server & Storage Urgenze e anticipazioni seconde priorità CCR Marzo 2009 AG MM LC.
Aggiornamento sui lavori di ampliamento degli impianti infrastrutturali del TIER1 e stato delle risorse Cristina Vistoli – Massimiliano Fiore INFN-CNAF.
1 ALICE I ITER2 DI ALICE IN ITALIA Bologna, 6 marzo 2007 M. Masera
Martedi 8 novembre 2005 Consorzio COMETA “Progetto PI2S2” UNIONE EUROPEA Accesso all’infrastruttura Grid del Consorzio COMETA Grid Open Day alla Facoltà.
19/4/2013 D. Menasce, M. Serra - Referaggio Progetti INFRA e WLCG 1.
Referaggio TIER2 di Pisa 30 giugno 2006 Silvia Arezzini (Servizio Calcolo e Reti)
TIER-2: Risorse e tabella di marcia M.L. Ferrer. 5/12/2005 M.L. Ferrer Referaggio TIER-2 LNF 2 Presenti Calcolo: Massimo Pistoni Claudio Soprano Dael.
Attività Gruppo Virtualizzazione Andrea Chierici CNAF CCR
Impianti Elettrici per Tier LNF Ing. Ruggero Ricci Resp. Servizio Impianti Elettrici DTSG - LNF 20 giugno 2011.
Test di storage a 10 Gbps proposta. Storage server a 10Gbps Si vuole vedere quali prestazioni si possano ottenere da server connessi a 10 GE –capacita’
G. Maggi 24/1/2006 Il Progetto del TIER2 di Bari Giorgio Maggi.
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
The INFN Tier-1: progetto di ampliamento Cristina Vistoli – INFN CNAF Referee Meeting Sep
Silvia Arezzini 2 luglio 2014 Consiglio di Sezione per Preventivi.
Sinica Taipei R.Gomezel CCR marzo 2009 Roma.
CCR - Roma 15 marzo 2007 Gruppo storage CCR Report sulle attivita’ Alessandro Brunengo.
Il calcolo per l’esperimento GERDA Luciano Pandola INFN, Laboratori del Gran Sasso Riunione della CSN2, LNF Frascati, 29 Novembre 2011.
1 Le macchine di questo pool fanno parte di una lan privata (la 125 illustrata a pag.2), di cui t2cmcondor è il gateway. Sono presenti 3 macchine su rete.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Transcript della presentazione:

Il Tier2 di CMS Roma Francesco Safai Tehrani INFN Roma

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani2 Il progetto di un Tier2: Richieste dell’esperimento: Potenza di calcolo + storage Servizi erogati Affidabilità? Necessità logistiche: Infrastrutture & impianti sala macchine Hardware (CPU, dischi, network, …) Personale

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani3 Alcune informazioni: Il Tier2 che descriverò è quello proposto da CMS Roma Roma conta di ospitare due Tier2 ATLAS Roma ha richieste simili (  20%) Le infrastrutture e la sala macchina saranno in comune Per ospitare il T2 verrà costruita una nuova sala macchine

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani4 Il T2 di CMS Roma Tre compiti principali: Produzione MC Analisi (per RM/MI/TO/TS) Calibrazioni ECAL Nel 2010 (a regime): 1500 kSI2k 550TB di storage Nota: kSI2K dovrebbero essere rimpiazzati da specFPrate o specINTrate nel prossimo futuro

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani5 Profilo di crescita ( ): Dal 2006 al 2010: crescita secondo programma. Dal 2010 in poi, mantenimento ed upgrade delle macchine piu vecchie con tecnologie più moderne.

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani6 Logistica: Il T2 di Roma richiede uno spazio adeguato (interno ed esterno): Lo spazio “interno” esiste (sotto l’Ed. Fermi) Deve essere trasformato in una “sala macchine” Lo spazio “esterno” esiste ma richiede interazione con l’Università Necessità infrastrutturali: Elettricità Condizionamento Servizi addizionali

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani7 Elettricità (1) : Contratto per potenza “adeguata” con il fornitore pubblico ACEA a Roma per l’Università Si tratta di ~135KW/h a regime per CMS ~300KW/h per l’intero T2 (basato su stime “safe”: probabilmente un po’ meno…) Qualità della rete elettrica: (da uno studio di Chloride Silectron): Fluttuazioni veloci: MTBF ~500h Interruzioni “lunghe”: MTBF ~9000h

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani8 Elettricità (2): L’uso di un UPS e’ necessario per minimizzare le conseguenze di: cadute di tensione <=O(60s) L’alimentazione alle macchine viene fornita dall’UPS stesso cadute di tensione >O(60s) E’ possibile far spegnere le macchine in maniera ordinata e pulita minimizzando potenziali rotture hardware e software. O far intervenire un gruppo elettrogeno… (I tempi sono stime “ragionevoli” viste le dimensioni del T2 in oggetto, per un UPS “standard” che fornisce O(10m) di alimentazione alle macchine)

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani9 Elettricità (3): L’uso di un UPS ha numerosi vantaggi: Qualità di servizio per la corrente elettrica Filtraggio di armoniche superiori, monitoring, … Punto di disaccoppiamento per il servizio “layer di astrazione” (more on this later) …ma richiede una progettazione “specifica” Modularità: Come suddivido il carico? Un singolo modulo da 100kW? 4 moduli da 25kW? Evitare il single point of failure Ridondanza: N+1

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani10 Elettricità (4): UPS come layer di astrazione: disaccoppia il fornitore di energia dalla rete di distribuzione elettrica interna Vantaggi: Possibilità di aggiungere e togliere sistemi di generazione energetica dinamicamente Possibilità di commutare dinamicamente Ad esempio tra la rete elettrica ed un gruppo elettrogeno Punto centrale di monitoring per la qualità dell’alimentazione elettrica

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani11 Courtesy of Chloride Silectron

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani12 Elettricità (5): Gruppo elettrogeno? Problema aperto ma vediamo cosa succede in termini di servizio: …accettabile? Una interruzione di un minuto (p.e. venerdì pomeriggio) può causare un outage >2gg (o peggio…) …altro problema: il condizionamento non viene messo sotto UPS… una grossa sala macchine si scalda molto in fretta… Sarebbe utile avere un gruppo elettrogeno… Blackout:1 secondo1 minuto1 ora1 giorno1 settimana No GEUPSUPS->offoff GEUPSUPS->GEGE

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani13 Elettricità (6): Spazi necessari: (caso T2 Roma, CMS+ATLAS) ~10mq per quadri elettrici (interno) ~15mq per l’UPS (interno) varia da soluzione a soluzione ~45mq per il gruppo elettrogeno (esterno) Molti produttori di UPS offrono sistemi di monitoring ready-made, ma è anche possibile l’integrazione in infrastrutture di controllo più complesse.

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani14 Condizionamento (1): Carico termico dovuto a CMS: ~135KW Per l’intero T2 ~300KW (lo stesso caveat sulle stime vale qui) Due soluzioni possibili: Condizionamento “ambientale” Condizionamento “rack-level” “Closed Loop Rack Cooling”

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani15 Condizionamento “ambientale” L ’ aria fredda viene spinta nel sottopavimento dagli HVAC esce da griglie nel pavimento viene aspirata dalle macchine spinta fuori calda aspirata dagli HVAC che la raffreddano nuovamente

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani16 Condizionamento “rack-level”: Aria calda Aria fredda Unit à raffreddante chiller Acqua fredda Acqua calda rack

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani17 Condizionamento (2): Ambientale tradizionale: Fino a 3KW/mq Forzato puntuale: rack fino ad 8KW Esistono altre soluzioni che dichiarano potenze superiori Closed Loop Rack Cooling: Fino a 22KW/rack - altamente modulari Varie configurazioni possibili: Chiller + scambiatore di calore + stazione di pompaggio Alti (~2.40), pesanti (~1ton/rack).

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani18 Condizionamento (3): Per il T2 di Roma, sistemi Closed Loop Rack Cooling: struttura più semplice per la sala macchine maggiore modularità fondamentale dato il profilo di crescita condizionamento dove serve struttura più granulare diminuisce il rischio di downtime site-wide combinata con partizionamento/ridondanza N+1 per il chiller monitoring ambientale a livello di rack sistema antincendio a livello di rack

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani19 Il T2 di CMS in numeri: 1 WN = 1U, 1disk server = 5U (24dsk) 1 rack = 42U (19” … standard) +1 rack per servizi assortiti (centro stella, UI, monitoring…) WN Disk server Spazio (U) Spazio (tot) Rack

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani20 Infrastruttura di rete (1): Topologia a stella: Tecnologia 10Gbit/s Ethernet Centro stella in grado di supportare connessioni full duplex punto-punto a 10Gbit/s Uplink verso la WAN: 1Gbit/s con 200Mbit/s di banda garantita Upgradabile! Anyway, “la rete non è un problema”…

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani21 Infrastruttura di rete (2): Disk server Centro stella Switch WN 1 Gbit/s 10 Gbit/s

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani22 Worker Node Macchina 1U, dual CPU: AMD Opteron Dual Core 275 (2.2GHz per core) tra il 60% e l’80% più veloce di uno Xeon 3.6GHz sono appena usciti i 280 (2.4GHz per core) 4GB RAM GB HD (SO + file locali) ~6kSI2K per macchina (ma specFPrate molto meglio per valutare performance di una macchina multiprocessore/multicore) Ottimo supporto: SLC (kernel 2.6 NUMA…) Potenza dissipata (stima!): 0.5KW/h Gara a CT: dichiarati <300W

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani23 Disk server: Macchina 5U, dual CPU: CPU 64bit (AMD Opteron 252 o 254) 24 dischi SATA o SATA2 (>500GB/disk) Controller 3Ware-like di ultima generazione 2 controller x 12 dischi 1 controller x 24 dischi Configurazioni RAID0,1,5,6 Spare disk/redundancy (RAID6) Interfaccia Ethernet 10Gbit/s Potenza dissipata (stima!): 1.5KW/h

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani24 Rack di calcolo (1): 1U - switch da 48 porte 1Gbit/s + uplink 10Gbit/s modulare, espandibile a 4 porte da 10Gbit/s 40U - 40 nodi di calcolo connessi allo switch via GigabitEthernet 1U - KVM-over-IP (48 porte) esporta la console dei nodi di calcolo su una connessione IP l’uplink attraverso lo switch oppure out-of-band Sistema di monitoring del rack (over IP) sempre attraverso lo switch oppure out-of-band Presiera servoassistita (over IP) permette di accendere/spegnere le macchine da remoto costoso… ma importante! (qui l’economia di scala conta)

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani25 Rack di calcolo (2): Minimizza il numero di cavi entranti/uscenti 1 cavo di rete Fino a 4, in caso di upgrade N cavi elettrici (1 ogni 16A) Richiede un adeguato sistema di gestione dei cavi all’interno del rack ~42x3 cavi (rete, KVM, alimentazione) = 126 cavi Può causare problemi di raffreddamento 1 rack di calcolo genera ~20KW/h di calore

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani26 Infrastruttura di rete (3): Banda passante per WN: 10Gbit/s ~= 1.25GB/s 1.25GB/s / 40WN ~= 32MB/s per WN Caso pessimo, accesso concorrente Stiamo trascurando gli overhead! Che possiamo (pessimisticamente!) stimare in un 10% Per CMS non dovrebbe essere un problema Nel caso: upgrade! 2 uplink a 10Gbit/s ~= 64MB/s per WN 4 uplink a 10Gbit/s ~= 128MB/s per WN

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani27 Rack di storage (1): 40U - 8 disk server Ogni disk server ha un uplink verso il centro stella da 10Gbit/s 1 KVM-over-IP da 8 porte connesso o direttamente al centro stella o ad uno switch “di servizio” da 24/48 porte che si connette al centro stella

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani28 Rack di storage (2) Cavi entranti/uscenti: 8 cavi di rete 10Gbit/s Verso il centro-stella 3 cavi di rete 10/100/1000Gbit/s Verso lo switch di servizio da 24/48 porte KVM-over-IP, controllo ambientale, presiera N cavi di alimentazione (1 ogni 16A)

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani29 Infrastruttura di rete (4): Ogni disco ha a disposizione una banda passante di 1.25GB/s teorici ampiamente oltre la capacità di trasferimento di un array di dischi “contemporaneo” la matrice del centro-stella garantisce questa velocità per tutte le connessioni punto-punto Che sistema useremo per accedere ai dischi? NFS, rfio NAS puro (hw o sw) NAS + GPFS Lustre …?

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani30 Servizi centralizzati: Monitoring: Macchine, dischi, ambientale (rack, UPS, gruppo elettrogeno, circolazione dell’acqua di raffreddamento, …), rete Eventuale realizzazione di tool ad-hoc per automatizzare condizioni di allarme Macchine di servizio: User Interface per l’utenza

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani31 Personale: 1 FTE/esperimento per la gestione dei Tier2 1 per CMS, 1 per ATLAS Gestione tecnica e pratica Interventi di manutenzione, coordinamento delle nuove installazioni, contatti con i fornitori… FTE “sistemistici” per esperimento Con copertura nei periodi “festivi” In accordo con le richieste di affidabilità Per la cronaca questo significa ALMENO 3 persone… N FTE dagli esperimenti per gestire le varie attività Produzione MC, calibrazioni,...

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani32 Il T2 di CMS Roma a regime: ~9 rack autocondizionati contenenti 108 WN, 34 disk server 1 centro stella dotato di ~40porte 10Gbit/s + N uplink 1Gbit/s 135KW/h di potenza assorbita (per CMS) ~3FTE completamente dedicati (per CMS) Spazio per servizi GRID (O(2rack)) 34mq per CMS + (altrettanti±20%) per ATLAS 22mq all’interno per UPS e quadri elettrici e 96 mq all’esterno per gruppo elettrogeno e chiller In comune

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani33 Il lavoro da fare: Tanto! R&D su reti a 10Gbit/s filesystem avanzati (GPFS, NAS, LUSTRE…) topologie di rete dedicate/specializzate … Sistemi di distribuzione elettrica: Capire i dettagli del problema per poi contattare esperti È necessario un gruppo elettrogeno? Cosa implica? Manutenzione? Sicurezza? I colleghi del Tier1 sicuramente possono aiutare…

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani34 Altro lavoro da fare: I rack autocondizionati? I gestori di GridKA a Karlsruhe hanno avuto un’ottima esperienza in proposito e sono stati prodighi di informazioni e consigli. …e lo saranno ancora in futuro (speriamo :) ) Expertise INFN? Problemi comuni: È possibile trovare delle soluzioni “generali” (=che soddisfino tutti i T2) a problemi specifici? Quali sono i punti in comune a tutti i progetti T2? Mauro Morandin ha proposto la formazione di un gruppo di lavoro sui T2 per evidenziare problematiche comuni…

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani35 Ancora lavoro…: Coordinamento di tutte le attività relative alla preparazione degli impianti e delle infrastrutture Il tempo c’è ma… Non è esattamente sovrabbondante… Particolarmente quando ci sono N giocatori (INFN, Università, ditte … ) Per quanto ci riguarda, siamo in attesa che ci venga ufficialmente assegnato lo spazio (entro fine anno) per cominciare ad organizzare i passi successivi.

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani36 Conclusioni: La realizzazione di un T2 implica un lavoro considerevole (o forse enorme) ma NON impossibile Lo spazio e l’esperienza ci sono i soldi… speriamo (ma questo sta a voi :) ) Il T2 di Roma non può e non deve essere avulso dall’attività della comunità dei T2 INFN condividere conoscenze ed esperienze è e sarà fondamentale per il successo di questi progetti.

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani37 Slide addizionali

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani38

10 Ottobre 2005Riunione CSN1 - F. Safai Tehrani39