1 Attività della Sezione INFN Napoli per il Calcolo distribuito e Grid L. Merola – 02/11/2005 1985 :Connettività in rete LAN Ethernet e rete WAN INFNET.

Slides:



Advertisements
Presentazioni simili
23/01/01Alberto Masoni – GR1 - Roma1 I MODELLI DI CENTRI REGIONALI POSIZIONE DI ALICE ITALIA CENTRO ITALIANO: CPU 450 KSI95, DISCO 400 TB (INSIEME TIER-1.
Advertisements

Progetto Speciale Prototipo Tier1 F. Ruggieri INFN – CNAF I Workshop CMS Italia del SW e Computing Roma 22 Novembre 2001.
Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
Proposta di integrazione e consolidamento delle risorse presenti nellinfrastruttura Grid dellItalia Meridionale (L. Merola, )
Aspetti critici rete LAN e WAN per i Tier-2
1 Riunione del 29 Marzo 2007 IL PROGETTO SCoPE Prof. Giuseppe Marrucci LAvviso 1575/2004 ed i quattro progetti vincitori Lo stato dellarte del progetto.
1 Riunione del 29 Marzo 2007 IL PROGETTO SCoPE Prof. Guido Russo I lavori Le apparecchiature Il portale.
PON SCoPE Riunione PON SCoPE - 29 marzo 2007 Lesperienza dellINFN per linfrastruttura GRID nazionale ed europea nazionale ed europea Lorganizzazione del.
Incontro CRESCO – ENEA PORTICI – 23 ottobre 2006 ITALIAN NATIONAL AGENCY FOR NEW TECNOLOGY, ENERGY AND THE ENVIRONMENT.
La facility nazionale Egrid: stato dell'arte Egrid-Team Trieste, 9 ottobre 2004.
Grid Computing Sergio Andreozzi. Chi è interessato ad analizzare i dati generati da LHC? Circa 5,000 scienziati –distribuiti nel mondo –appartenenti ad.
Istituto Nazionale di Fisica Nucleare Roma,12 febbraio 2001 Netgroup meeting Situazione attuale e attivita futura - R.Gomezel 1 Netgroup meeting Situazione.
Michele Michelotto INFN-Padova
1 Riunione Testbed - 17 gennaio Agenda - stato del testbed di INFN-GRID (L. Gaido) - le risorse del CNAF (A. Italiano) - report sullo stress test.
25 ottobre 2002infn1 FIRB-Grid WP3,5 Grid deployment.
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
1 M. Biasotto – Legnaro, 22 Dicembre 2005 Prototipo Tier 2 di Legnaro-Padova INFN Legnaro.
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
Analysis unibo una proposta. Work flow di una tipica analisi 1.Simulazione di piccoli campioni di eventi per studio segnale 2.Generazione in grande.
AFS Working Group R.Gomezel CCRWS Verso la sfida di LHC Otranto (Lecce), 6-9 Giugno 2006.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
LNF Farm E. V. 9/8/2006. Hardware CE, LCFG, HLR, 3 WN: DL 360 1U; SE: DL 380 2U 5 WN: BL 25 P In totale 25 jobs general purpuse (coda Atlas) + una coda.
Attivita' Grid in BaBar Workshop sulle Problematiche di Calcolo e Reti nell'INFN Maggio 2004.
Federico Ruggieri Riunione CSN1 PISA 22 Giugno 2004 Il Progetto TIER1 Status Update.
Installation and evaluation of the Globus toolkit Massimo Sgaravatto INFN Padova.
1 G. Marrucci Il progetto SCoPE: Sistema cooperativo distribuito ad alte prestazioni per elaborazioni scientifiche multidisciplinari UNIONE EUROPEA.
CSN1-Assisi L.Perini1 BaBar Calcolo L. Perini per i referees: L.Perini,A.Staiano…
Calcolo esperimenti LHC 2004 F. Ferroni, P. Lubrano, A. Martin, M. Morandin, M. Sozzi.
Tier-2 ATLAS Tier-2 Lamberto Luminari CSN1 – Roma, 10 Ottobre 2005.
Report HEPiX Spring meeting 2002 Workshop sulle problematiche di calcolo e reti nell'INFN 6-9 Maggio 2002 La Biodola - Isola d'Elba Silvia Arezzini.
Federico Ruggieri INFN-CNAF Commissione Scientifica Nazionale I Lecce 24 Settembre 2003 Il Progetto TIER1 Status Update.
La Farm di Alice a Torino Workshop sulle problematiche di calcolo e reti Isola d’Elba 6-9 maggio 2002 Mario Sitta (Università del Piemonte Orientale e.
Riunione Servizi Servizio Calcolo e Reti 13 settembre 2004 Silvia Arezzini.
ATLAS Computing Model Lamberto Luminari CSN Gennaio, 2005.
Ing. Giovanni B. Barone Convegno PON RECAS - Napoli, 16 dicembre 2014 ReCaS Napoli.
Progetto "ReCaS" Rete di Calcolo per SuperB e altre applicazioni PON R&C Avviso 254/Ric 1 Workshop CCR/GARR – Napoli, 16 maggio 2012 L. Merola.
D IREZIONE A FFARI C ONTRATTUALI - V ALERIA D E N ICOLA 1.
Il Servizio Calcolo e Reti e le attività grid della Sezione INFN di Torino Luciano Gaido.
Gaetano Maron, Presentazione T2 LNL-Padova, Legnaro 22 dicembre Il Servizio Tecnologie Informatiche ed Elettroniche dei LNL Gaetano Maron.
26 Giugno 2007CSN1 - Frascati1 Temi di attualità nella CCR Accanto alla tradizionale attività di controllo dei finanziamenti per le infrastrutture di calcolo.
D. Martello Dip. Fisica - Lecce Sintesi piani esperimenti CSN2 CNAF 7-marzo-2007.
1 Progetto Sistema Cooperativo Distribuito ad alte Prestazioni per Elaborazioni Scientifiche Multidisciplinari (S.Co.P.E.) Programma Operativo Nazionale.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Lecce 30 Settembre 2015.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
17-18 Dicembre 2014 Second Belle II italian collaboration meeting – Dicembre 2014 Networking e calcolo di Belle II a Napoli - Recas Silvio Pardi.
PON a3_00052 "ReCaS" Rete di Calcolo per SuperB e altre applicazioni L. Merola riunione di gruppo I Napoli 21/12/2012 Sito e dominio web del progetto:
Aggiornamento su ReCaS e Tier-2 Atlas Leonardo Merola Riunione Gr. 1 Napoli – 7 gennaio Riunione Gr. 1 Napoli – 7 gennaio 2015 – L. Merola.
FESR Consorzio COMETA - Progetto PI2S2 Il Tier-2 di ALICE a Catania Roberto Barbera Università di Catania e INFN Visita Referee.
Referaggio sigla CALCOLO D. Bonacorsi, G. Carlino, P. Morettini CCR – Roma 9 Settembre 2014.
17 GennaioTier2 Milano G. Costa 1 17-Gennaio-2006.
11 Richieste di banda Anno 2010 T.Ferrari, M.Morandin CCR, Roma, 30 settembre 2009.
Progetto ReCaS status update Giuseppe Andronico WS CCR, Catania 28 Maggio 2014.
1 ALICE I ITER2 DI ALICE IN ITALIA Bologna, 6 marzo 2007 M. Masera
17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 1 Il tier2 a Milano e le attività locali di sw e calcolo ATLAS e Grid I gruppi ATLAS di Milano Le.
1 PROGETTO SCoPE Incontro dei Progetti PON Avviso 1575 con il ROC di INFN Grid Catania 04/07/2008 Silvio Pardi.
Stato e previsione rete nelle sedi INFN Survey ed ipotesi di sviluppo fino al 2018 CCR 8-10 Settembre 2018 (Roma) 1 S.Zani (Netgroup)
Progetti CCR Referaggio progetti della Commissione Calcolo e RetiReferaggio progetti della Commissione Calcolo e Reti Referees: Tommaso Boccali, Alessandro.
SCOPE: stato e piano di integrazione Phd. Silvio Pardi CNAF
G. Maggi 24/1/2006 Il Progetto del TIER2 di Bari Giorgio Maggi.
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
Aggiornamento potenziamento collegamenti e stato del Progetto GARR-X Claudia Battista CCR-INFN - 3 marzo 2008.
The INFN Tier-1: progetto di ampliamento Cristina Vistoli – INFN CNAF Referee Meeting Sep
Silvia Arezzini 2 luglio 2014 Consiglio di Sezione per Preventivi.
Aggiornamento Netgroup R.Gomezel Commissione Calcolo e Reti LNF 29/09/ /10/2009.
Il calcolo per l’esperimento GERDA Luciano Pandola INFN, Laboratori del Gran Sasso Riunione della CSN2, LNF Frascati, 29 Novembre 2011.
L’infrastruttura del progetto ReCaS Paolo Lo Re on behalf of ReCaS collaboration.
L.Perini Milano: 10 Gennaio Ex-ATLAS-Grid (Tier2 incluso) l Ruolo dei Tiers in ATLAS e grid l Le persone di Milano e le attività l Le infrastrutture.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Transcript della presentazione:

1 Attività della Sezione INFN Napoli per il Calcolo distribuito e Grid L. Merola – 02/11/ :Connettività in rete LAN Ethernet e rete WAN INFNET : Costituzione del polo GARR di Napoli : Realizzazione del primo sito WEB ufficiale dell’Italia meridionale :Messa in opera del Nodo dell’infrastruttura INFN-GRID. Un pò di storia …

: Centro di produzioni MC esp. L3 (Farm Apollo, HP) Feb.1997 : Primo workshop INFN su Software e Calcolo moderno > : Condor Pool, AFS > : INFN-GRID > :UE (V PQ): Data Grid, DataTag UE (VI PQ): EGEE1-2 LCG – Tier2 esp.ATLAS > MIUR Firb “Grid.it” (CNR, INFN et al.) apr > Prog. Locale “Campus Grid” (Enti di ricerca + Unina) ott > PON Campus Grid (INFN) ott > PON S.CO.PE (UNINA) Attività e progetti :

3 WP4: Fabric Linux Farms, Mosix, etc. (A.Doria, R. Esposito) WP6: Testbed (F. Taurino) Network Management and Monitoring WP7: Network Management and Monitoring e.g. Grid-ftp, etc. (P. Lo Re, P. Mastroserio, G. Tortone) WP8: HEP Applications e.g. ATLAS, CMS, VIRGO, PAMELA, ecc. (L. Merola et al.) WP4: Network Management and Monitoring (G. Tortone) e.g. Nagios package, ecc.(G. Tortone) FirbGrid.it WP3,5: Grid deployment and operation for the scientific community e.g. HEP Applications (L. Merola), Information service, monitoring, ecc. (P. Mastroserio; N. De Bortoli, R. Esposito, F. Taurino, G. Tortone) Alcuni contributi specifici di Napoli LCG: Atlas Tier2 VO production and support (L. Merola, G.P. Carlino, A. Doria, G. Tortone, F. Taurino) SA1: Infrastructure operation and support e.g. Production, monitoring, ecc. (N. De Bortoli, G. Tortone) LCG

4 L'INFN, con un suo progetto partito nel 1997, ha provato la funzionalità del sistema CONDOR (1985, Un. Wisconsin) su rete geografica. Non basato su standards riconosciuti a livello internazionale. GARR-B 155 Mbps ATM based Network access points (PoP) main transport nodes Default CKPT Cnaf CKPT domain # hosts Oltre 300 macchine INFNCONDORPool TORINO PADOVA BARI PALERMO FIRENZE PAVIA MILANO GENOVA NAPOLI CAGLIARI TRIESTE ROMA PISA L’AQUILA CATANIA BOLOGNA UDINE TRENTO PERUGIA LNF LNGS SASSARI LECCE LNS LNL USA 155Mbps T3 SALERNO COSENZA S.Piero FERRARA PARMA CNAF Central Manager ROMA INFNCONDORPool Il progetto pilota CONDOR pool

5 LECCE ASI Applications of Earth Observation PISA NAPOLI COSENZA PERUGIA PADOVA GENOVA MILANO PALERMO ROMA TORINO MATERA BARI BOLOGNA CAGLIARI CNIT Technologies for high-performance communication, Optical technologies, … L’AQUILA INFN, University Grid (INFN-Grid, DataGrid, DataTag), e-science applications, … VENEZIA CNR, University HPC, Grid, Platforms, Programming environments, Knowledge Discovery in Data Bases, Tools, Libraries, Applications, … Ma settori scientifici hanno aderito grazie anche a fondi specifici MIUR (e.g. progetto SPACI: UniNA, UniLE, UniCS) Il progetto MIUR Firb Grid.it PIATTAFORME ABILITANTI PER GRIGLIE COMPUTAZIONALI A ELEVATE PRESTAZIONI ORIENTATE A ORGANIZZAZIONI VIRTUALI SCALABILI.

6 Mappa dei siti italiani Grid.it e INFNGrid (in continuo aggiornamento)

7 STRUTTURA DI CALCOLO AVANZATO PER LA RICERCA E L’INNOVAZIONE TECNOLOGICA BASATA SU GRIGLIE COMPUTAZIONALI Campus Grid - Finalità e Partners - DSF – Dipartimento di Scienze Fisiche INFN-Napoli – Istituto Nazionale di Fisica Nucleare INFM-Napoli – Istituto Nazionale di Fisica della Materia DICHI – Dipartimento di Chimica INSTM-Napoli – Consorzio Interuniversitario Nazionale per la Scienza e Tecnologia dei Materiali DMA – Dipartimento di Matematica e Applicazioni CNR-SPACI – Consiglio Nazionale delle Ricerche Coordinamento scientifico: Dip. Scienze Fisiche Coordinamento tecnico-tecnologico: Sezione INFN

8 DSF: Locale 1G01 (sede infrastruttura principale del Campus Grid) DSF : Locale 1M16 DMA Campus Grid - Locali e LAN, WAN - DiChi DSF C.S.I. GARR Collegamento con CSI ok Collegamenti in fibra fra DSF, Chim. e Mat. in corso.

9 INFN-GRID (e FIRB) –13 biprocessori Xeon 2,4 GHz, RAM 1 GB (12 WN e 1 CE) –6 biprocessori Xeon 2,8 GHz, RAM 2 GB TIER-2 ATLAS Prototipo TIER-2 ATLAS –7 biprocessori Xeon 2,8 GHz, RAM 2 GB (6 WN e 1 CE) -2 TB disco in comune (1 SE) Software Esperimento ATLAS (LHC-CERN) in produzione  Studio e simulazione degli algoritmi del trigger muonico di I livello e analisi delle relative prestazioni  Ricostruzione di tracce di muoni  Test prestazioni software del Data Challenge Campus Grid - INFN-GRID e Tier-2 ATLAS -

10 INFN-GRID.ITINTEL19 bi-proc2.81 TBRH7.3 SciLinux PBS GT2 LCG INFN-ATLASINTEL7 bi-proc + 16 in arrivo 2.82 TB INFN-AstroParticleINTEL8 bi-proc2.8 INFN-BABAR-CMSINTEL1 bi-proc + 9 in arrivo 2.8 ASTROAMD9 bi-proc TBGentoo SciLinux PBS AMRAAMD99 bi-proc TBSlackware SciLinux PBS DSF-INFMAlphaEV716 bi-proc1,2140 GBTrue-64 LSF DiChi-BioteknetAlphaEV6810 quad-proc1,41 TBTrue-64 LSF DiChi-LSDMAlphaDS204 bi-proc INSTMOpteron12 bi-proc2,4 CNR-SPACIItanium268 bi-proc1,51.2 TBLinux-HP LSF ProgettoProc.N. proc.GHzStorageS.O. s/w m/w grid Campus Grid - Hardware installato luglio Localizzato tutto a Fisica tranne hw DiChi e INSTM

11 (303 kEuro = 260 MIUR + 43 Sezione INFN) Realizzazione di un Campus Grid per la ricerca scientifica fisica, chimica e matematica nel Complesso Universitario di Monte Sant’Angelo in Napoli 1.Progettazione, direzione e collaudo lavori 2.Lavori di edilizia, impianti elettrici e impianti di condizionamento 3.Infrastruttura di rete (dorsale di Campus e collegamento al Garr) 4.Realizzazione “Sala dell’infrastruttura principale del Campus GRID” 5.Nodi bi-processori per i servizi di Grid e sistema di back-up FaseDescrizione Approfondimento del progetto 2Procedure di appalto 3Installazione hardware 4Installazione software 5Test di funzionamento struttura 6 Presentazione e formazione del Campus Grid 7Messa in esercizio e produzione Progetto PON INFN “Campus Grid” (Resp. L. Merola)

12 Progetto PON Univ. Napoli “Sistema Cooperativo Distribuito ad alte Prestazioni per Elaborazioni Scientifiche Multidisciplinari (S.CO.P.E.)” € (6,75 MIUR, 2,25 Univ. Napoli) Attrezzature 3.6 ME, Assegni e contratti biennali 1.6 ME Obiettivo finale del progetto è la realizzazione di un Sistema di Calcolo ad Alte Prestazioni, orientato ad applicazioni scientifiche multidisciplinari, che operi anche secondo il paradigma GRID, dedicato alla modellistica computazionale ed alla gestione di grosse banche dati, per ricerche nelle aree applicative (workpackages) di interesse del progetto, ovvero: Scienze del Microcosmo e del Macrocosmo, Scienze della Vita, Scienze dei Materiali e dell’Ambiente. + workpackage tecnologico: Middleware

13 Prof MARRUCCI GiuseppeResponsabile Scientifico Progetto Prof MEROLA LeonardoResp. Area Scienze del Microcosmo e del Macrocosmo Prof SALVATORE FrancescoResp. Area Scienze della Vita Prof FRANCESCHETTI GiorgioResp. Area Scienze dei Materiali e dell’Ambiente Prof MURLI AlmericoResp. Area Middleware Prof VENTRE GiorgioResp. Area Middleware Comitato Direttivo Prof RUSSO GuidoResponsabile Tecnico Progetto Prof. MAZZOCCA NicolaResponsabile Operativo Progetto Nota: SottoArea Microcosmo (resp. L. Merola) Esp. ATLAS all’LHC (resp. L. Merola) SottoArea Macrocosmo (resp. G. Longo) VLT Survey Telescope - Onde gravitazionali (resp. G. Longo)

14 Sala infrastruttura Principale Campus Grid Sala Tier-2 ATLAS Campus Grid FIS CHIM MAT

15 32/64 70/200

16 RAW DATA – Size: 1.6 MB – Dati in uscita dall’Event Filter (terzo livello di trigger) in fomato “byte-stream” (come sono forniti dai rivelatori). Output rate: 200 Hz. Archiviati nel Tier0 e nei Tier1 ESD DATA – Size: 400 kB – Dati prodotti dalla ricostruzione in formato OO. Tutte le versioni sono replicate e risiedono in almeno 2 Tier1 e, in campioni, nei Tier2. AOD DATA – Size: 100 kB – Rappresentazione ridotta degli ESD per l’analisi. Replicati in ogni Tier1 e in frazioni, in base agli stream inclusivi ed esclusivi, nei Tier2 TAG DATA – Size: 1 kB – Formato dei dati con informazione esclusiva della lista di eventi appartenenti ad un particolare stream per una veloce selezione. Archiviati in database relazionali. Replicati in tutti i Tier1 e Tier2 DPD DATA – Formato ntuple-like per l’analisi dei dati batch e interattiva. Repliche nei Tier1, 2 e 3 SIM DATA – Eventi Simulati a vari livelli: generatore, hit, digi Parametri vari: Tempo per la ricostruzione: 15 kSI2k-sec per evento CPU richiesta per la ricostruzione: 3000 kSI2k ( 15 kSI2k-sec/evento per 200 eventi/sec) Tempo per la simulazione: 100 kSI2k-sec per evento Tempo per l’analisi: 0.5 kSI2k-sec per evento Link di input all’EF: (10 x) 10 GB/s Link di output dall’EF (al Tier0): 320 MB/s Tempi di processamento dei dati (dall’on-line (EF) all’off-off-line (Tier0)): 50% in 8 ore e 90% in 24 ore Eventi raccolti al giorno: 10 7 Eventi per anno (dal 2008): 2  10 9 Eventi per anno, Size: O (10 PB) ATLAS Computing Model – Struttura Dati

17 Necessità di calcolo (HW) e Costi fino al 2010 (totale dei 4 Tier-2 di ATLAS) Tier2 INFN Tot. K€ CPU (kSI2K) (new) 200 (tot) K€ Dischi (TB) (new) 50 (tot) K€ Tot. K€

CPU kSI2k/box CPU €/kSI2k Disk TB/disk Disk €/GB , Profilo Capacità e Costi di CPU e Storage fin al 2010

19 NOTA: La potenza elettrica è calcolata stimando un consumo costante di 0.5 kW per box e di 1.5 kW per server di disco (unità 5U con 24 dischi). Nel 2010 si prevede di ospitare circa 4-5 rack per le CPU e 4-5 rack per i dischi CPU (tot) kSI2k Box CPU (new) kSI2k Box Dischi (tot) TB Server Dischi (new) TB Server Potenza (kW) Profilo acquisizione HW calcolo e potenza elettrica (solo Tier-2 ATLAS Napoli)

20 Progetto INFN di Centro Tier-2 ATLAS Napoli Gruppo di lavoro: ATLASSCRSTG G.P. Carlino, L. Merola (ATLAS), A. Doria, P. Lo Re, P. Mastroserio (SCR), G. Passeggio (STG) 1.Sede: Ex deposito SCR – 40 mq -, espandibile in locali adiacenti SCR. 2.Funzionalità: - Calibrazioni RPC, Calibrazioni Trigger muonico, Studi di performance su identificazione e ricostruzione dei muoni, Analisi dati, Ricerca Supersimmetria, Simulazioni connesse a quanto sopra. - Storage di 1/3 AOD, tutti i TAG, i DPD, campioni di RAW e ESD. Centro di riferimento per i Tier-3 del Centro-Sud. - 8 h/day, 5 gg./settimana attended (Fisici di Atlas + SCR), il resto unattended. 3.Infrastruttura di rete: WAN: GARR 1 Gbps nel 2007 (ora 64 Mbps). LAN: Campus Grid in fibra ottica 10 Gbps nel 2007 (ora 1 Gbps). 4.Impianti 4.Impianti (si tratta di potenziamento/modifiche di impianti già esistenti): Potenza elettrica: 120 kW nel UPS + Gruppo elettrogeno. Sistema di raffreddamento: 40 kW per i gruppi frigoriferi nel Sistema antincendio, incluso sistema di allarme.

21 5.Risorse umane: - Responsabilità tecniche generali: P. Mastroserio (I Tecnol. INFN - SCR), G. Passeggio (CTER INFN - STG). - Responsabilità connettività in rete: P. Lo Re (I Tecnol. INFN - SCR). - Responsabilità gestionale e di coordinamento Tier-2: G.P. Carlino (Ric. INFN - resp. calcolo e analisi gruppo Atlas). - Responsabilità operative Tier-2: A. Doria (Tecnol. INFN -Atlas e SCR), 1 FTE - Personale tecnico: 1.5 FTE (supporto del SCR staff: G.Tortone (CTER INFN – SCR), F.M.Taurino (CTER INFM), R.Esposito (CTER INFN – SCR), CTER INFN (ex M. D’Amico, concorso in stand-by) - Contratti t.d.: N. De Bortoli (a.2222 Firb), O. Laurino (CoCoCo DSF), E.Cacopardo (borsa INFN)) 6.Personale in formazione: - 2 assegni ricerca e 1 contratto tecnico biennali (da deliberare su PON S.CO.PE) - Laureandi in Informatica (2 nell’ultimo anno + 2 in corso) - Dottorandi in Scienze Computazionali (2 in corso) 7. Help Desk: Gara in corso di espletamento: ca. 4 h/day

22 8. Milestones: -09/2006: completamento locali e impianti (elettrico, condizionamento, antincendio). (entro fine 2005 la maggior parte degli ordini). -11/ /2006: installazione dei rack e di WN, DS 2006 previsti in Tabella -12/ /2006: verifica di operatività: produzioni MC e accesso ai dati da parte delle Sezioni afferenti -01/ /2007: avvio delle procedure di gara per l’acquisizione dell’HW /2007: installazione dell’HW /2007: Tier-2 operativo per il Pilot Run -01/2008: avvio delle procedure di gara per l’acquisizione dell’HW /2008: installazione dell’HW 2008 e piena operatività del Tier-2

23 9. Piano finanziario ( ) e sorgenti di finanziamento: 1.HW calcolo (CPU, dischi): ca 1 MEuro INFN (per Tier-2 Atlas), PON SCOPE UNINA (per VO Campus Grid e Ateneo Fed II). 2. Infrastruttura rete WAN: INFN - Commissione Calcolo Nazionale. 3.Infrastruttura rete locale e servizi Grid: 120 kEuro PON INFN Campus Grid. 4. Impianti elettrici (inclusi potenziamento cabina, UPS,gruppo elettrogeno): 150 kEuro PON INFN Campus Grid (90), Sezione INFN (60 nel ). 5. Impianto di condizionamento: 50 kEuro Enti Campus Grid, Dip. Scienze Fisiche. 6.Impianto antincendio e sistema di allarme: 15 kEuro : PON INFN Campus Grid, Dip. Scienze Fisiche.