Aggiornamento su ReCaS e Tier-2 Atlas Leonardo Merola Riunione Gr. 1 Napoli – 7 gennaio 2015 1 Riunione Gr. 1 Napoli – 7 gennaio 2015 – L. Merola.

Slides:



Advertisements
Presentazioni simili
AVVISO START - UP (D.D n. 436 del 13 marzo 2013)
Advertisements

Unione Europea e Fondi Strutturali
LA POLITICA SPAZIALE EUROPEA: POSIZIONE ITALIANA Ancona, 20 maggio 2005 Ing. Augusto Cramarossa ASI - Unità Strategie e Rapporti Nazionali e Internazionali.
Progetto Speciale Prototipo Tier1 F. Ruggieri INFN – CNAF I Workshop CMS Italia del SW e Computing Roma 22 Novembre 2001.
Comitato Tecnico sullInteroperabilità MUR, L. Merola.
Proposta di integrazione e consolidamento delle risorse presenti nellinfrastruttura Grid dellItalia Meridionale (L. Merola, )
Aspetti critici rete LAN e WAN per i Tier-2
1 Riunione del 29 Marzo 2007 IL PROGETTO SCoPE Prof. Giuseppe Marrucci LAvviso 1575/2004 ed i quattro progetti vincitori Lo stato dellarte del progetto.
1 Riunione del 29 Marzo 2007 IL PROGETTO SCoPE Prof. Guido Russo I lavori Le apparecchiature Il portale.
Grid Computing Sergio Andreozzi (INFN-CNAF). A chi interessano i dati prodotti da LHC? Circa 5,000 scienziati –sparsi nel mondo –appartenenti ad istituzioni/università
Grid Computing Sergio Andreozzi. Chi è interessato ad analizzare i dati generati da LHC? Circa 5,000 scienziati –distribuiti nel mondo –appartenenti ad.
Rete di Calcolo per SuperB e altre applicazioni
3 Aprile CSN1 P. Capiluppi Tier2 CMS Italia.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
CSN Maggio 2005 P. Capiluppi Il Computing Model (LHC) nella realta’ italiana u I Computing models degli esperimenti LHC gia’ presentati a Gennaio.
1 G. Marrucci Il progetto SCoPE: Sistema cooperativo distribuito ad alte prestazioni per elaborazioni scientifiche multidisciplinari UNIONE EUROPEA.
Tier-2 ATLAS Tier-2 Lamberto Luminari CSN1 – Roma, 10 Ottobre 2005.
STATO DEI PROGETTI TIER2 F. Bossi CCR, Roma, 20 Ottobre 2005 ( per il gruppo di referaggio)
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
Ing. Giovanni B. Barone Convegno PON RECAS - Napoli, 16 dicembre 2014 ReCaS Napoli.
Review dei Tier-2 degli esperimenti LHC S.Pirrone INFN-Sezione di Catania per il gruppo dei referee CNS Giugno 2014 LNGS.
Progetto "ReCaS" Rete di Calcolo per SuperB e altre applicazioni PON R&C Avviso 254/Ric 1 Workshop CCR/GARR – Napoli, 16 maggio 2012 L. Merola.
BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015.
GARR-X Progress Modello dell’evoluzione di rete nazionale Riunione CCR - Roma, Presidenza INFN - Roma - 8/settembre/2014
Il Datacenter ReCaS di Bari Le risorse computazionali Giorgio Pietro Maggi Politecnico di Bari Dipartimento Interateneo di Fisica e Sezione INFN di Bari.
Report dalla CSN Settembre Sala dei Mappamondi - Torino Gianpaolo Carlino – Consiglio di Sezione, 5 Novembre 2012.
26 Giugno 2007CSN1 - Frascati1 Temi di attualità nella CCR Accanto alla tradizionale attività di controllo dei finanziamenti per le infrastrutture di calcolo.
Riunione PRIN STOA - Bologna - 18 Giugno 2014 Testbed del T2 distribuito Napoli-Roma Dr. Silvio Pardi INFN-Napoli Riunione PRIN STOA – Bologna 18 Giugno.
D. Martello Dip. Fisica - Lecce Sintesi piani esperimenti CSN2 CNAF 7-marzo-2007.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Lecce 30 Settembre 2015.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
17-18 Dicembre 2014 Second Belle II italian collaboration meeting – Dicembre 2014 Networking e calcolo di Belle II a Napoli - Recas Silvio Pardi.
Stato di GARR-X Claudia Battista Workshop CCR INFN - Isola d’Elba 17 maggio 2011.
Claudio Grandi Workshop CCR 2015 Claudio Grandi INFN Bologna.
PON a3_00052 "ReCaS" Rete di Calcolo per SuperB e altre applicazioni G. Andronico 24/10/
PON a3_00052 "ReCaS" Rete di Calcolo per SuperB e altre applicazioni L. Merola riunione di gruppo I Napoli 21/12/2012 Sito e dominio web del progetto:
FESR Consorzio COMETA - Progetto PI2S2 Il Tier-2 di ALICE a Catania Roberto Barbera Università di Catania e INFN Visita Referee.
Referaggio sigla CALCOLO D. Bonacorsi, G. Carlino, P. Morettini CCR – Roma 9 Settembre 2014.
ATLAS e CMS Relazione dei referees A. Cardini, M. Grassi, G. Passaleva, A. Passeri, V.Vagnoni.
17 GennaioTier2 Milano G. Costa 1 17-Gennaio-2006.
Database della ricerca: Introduzione e obiettivi meeting INFN CNR INAF 7 ottobre
Uso della rete geografica e richieste di upgrade CCR 31/3/2015 (Roma) S.Zani.
Progetto ReCaS status update Giuseppe Andronico WS CCR, Catania 28 Maggio 2014.
1 ALICE I ITER2 DI ALICE IN ITALIA Bologna, 6 marzo 2007 M. Masera
19/4/2013 D. Menasce, M. Serra - Referaggio Progetti INFRA e WLCG 1.
Stato e previsione rete nelle sedi INFN Survey ed ipotesi di sviluppo fino al 2018 CCR 8-10 Settembre 2018 (Roma) 1 S.Zani (Netgroup)
Referaggio TIER2 di Pisa 30 giugno 2006 Silvia Arezzini (Servizio Calcolo e Reti)
Riunione CSN1, Roma, Gennaio 2012F. Bedeschi, INFN-Pisa 1 Riunione CSN1  Comunicazioni  Comunicazioni varie  Riunioni future  Similfellows  Regole.
Referaggio Calcolo ATLAS II Gianpaolo Carlino INFN Napoli Catania, 12 Settembre 2012 Risorse e Richieste 2013 nei preventivi Aggiornamento in seguito all’allungamento.
G. Maggi 24/1/2006 Il Progetto del TIER2 di Bari Giorgio Maggi.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Catania 1 Ottobre 2014.
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
F.Murtas 12 Febbraio DB per l'identity management INFN Anagrafica Scientifica Articolazione Strutture e Ruoli DataWeb.
Aggiornamento potenziamento collegamenti e stato del Progetto GARR-X Claudia Battista CCR-INFN - 3 marzo 2008.
Domenico Elia1CdG Tier1-Tier2 / CNAF ALICE Tier2 sites Domenico Elia CdG Tier1-Tier2 Bologna, 15 Aprile 2015  Infrastruttura e risorse, coordinamento.
The INFN Tier-1: progetto di ampliamento Cristina Vistoli – INFN CNAF Referee Meeting Sep
10 Ottobre CSN1 P. Capiluppi Tier2 CMS Italia 3Bari  In comune con Alice 3Legnaro  In comune con Alice 3Pisa 3Roma1  In comune con Atlas Sedi.
LaBiodoloa Attività di sperimentazione RECAS - Catania G. Andronico
Silvia Arezzini 2 luglio 2014 Consiglio di Sezione per Preventivi.
ALICE Computing Readiness Workshop Tier-2 CNAF Jan 17-18, ALICE Computing Readiness 1) ALICE Italia: Persone & organizzazione 2) Test & commisioning.
Cluster Tecnologico Nazionale Fabbrica Intelligente Imprese, università, organismi di ricerca,
L’infrastruttura del progetto ReCaS Paolo Lo Re on behalf of ReCaS collaboration.
Referaggio Calcolo ATLAS Gianpaolo Carlino INFN Napoli CNAF, 11 Maggio 2012 Attività di Computing ATLAS Attività di Computing in Italia Risorse e Richieste.
L.Perini Milano: 10 Gennaio Ex-ATLAS-Grid (Tier2 incluso) l Ruolo dei Tiers in ATLAS e grid l Le persone di Milano e le attività l Le infrastrutture.
PROGETTO Infra infn-grid Maria Cristina Vistoli INFN – CNAF.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Rete di Calcolo per SuperB e altre applicazioni
Richieste preliminari calcolo non LHC
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
Transcript della presentazione:

Aggiornamento su ReCaS e Tier-2 Atlas Leonardo Merola Riunione Gr. 1 Napoli – 7 gennaio Riunione Gr. 1 Napoli – 7 gennaio 2015 – L. Merola

2 Obiettivi della politica di coesione europea 2007/2013 L’obiettivo Convergenza riguarda gli Stati membri e le regioni il cui PIL pro capite è inferiore al 75% della media comunitaria ed è volto ad accelerare la convergenza degli Stati membri e delle regioni in ritardo di sviluppo. Il Programma Operativo Nazionale "Ricerca e Competitività" (PON "R&C") è lo strumento attraverso il quale l'Italia contribuisce allo sviluppo della Politica di Coesione della Unione europea a favore delle proprie aree territoriali più svantaggiate.ReCaS Riunione Gr. 1 Napoli – 7 gennaio 2015 – L. Merola PRISMA

3 Finanziamento totale ReCaS: 13.7 Meuro (Decreto Direttoriale n.957/Ric. dell'11 novembre 2011) (10% Formazione, 90 % Potenziamento infrastrutturale) INFN (sedi di NA, BA, CT, CS) Università di Napoli Federico II Università di Bari Aldo Moro (Budget in ME: 6.9 INFN, 2.1 UniNA, 4.7 UniBA ) + sinergie operative con Univ. Catania, Univ. Calabria e PoliBA Durata del Progetto: 1 ottobre 2011 – 31 dicembre 2014 Durata del Progetto: 1 ottobre 2011 – 31 dicembre 2014 (prorogato al 30 aprile 2015) (prorogato al 30 aprile 2015) Convegno finale: Napoli 16 dicembre 2014 Convegno finale: Napoli 16 dicembre 2014 Rete di Calcolo per SuperB e altre applicazioni 35 % Opere edili e Impianti 40 % Attezzature 10 % Reti di collegamento 12 % Personale 3 % Altro (Pubblicizz., ecc.) Riunione Gr. 1 Napoli – 7 gennaio 2015 – L. Merola

4 UniNA dip. Co.co.co UniBA dip. Co.co.co INFN-BA dip. INFN-NA INFN-CT INFN-CS + Tassi (Univ. CS), Maggi (Poli. BA), Barbera (Univ. CT) (*) contrattisti a tempo determinato  Circa ore rendicontate  24 giovani contrattisti Personale impegnato nella rendicontazione **** ********** * ************ ********** * ******** Riunione Gr. 1 Napoli – 7 gennaio 2015 – L. Merola

5 Obiettivi generali del progetto Realizzazione e potenziamento di una infrastruttura distribuita di calcolo e storage in ottica Grid e Cloud distribuita nelle quattro regioni convergenza: Calabria, Campania, Puglia e Sicilia a supporto:  della comunità scientifica delle collaborazione e degli esperimenti di Fisica delle Alte Energie al Large Hadron Collider (LHC) del CERN: Esp. ATLAS, CMS, ALICE, LHCb  di altre comunità scientifiche e applicative, con particolare riguardo agli altri settori della Fisica, all’Ingegneria, alle Scienze, alla Medicina, alle Biotecnologie, ai Beni culturali, all‘Ambiente, al Territorio.  della competitività delle Imprese nel contesto dell’Italian Grid Infrastructure e dell’ European Grid Infrastructure e con attenzione verso i Paesi del bacino del Mediterraneo. Riunione Gr. 1 Napoli – 7 gennaio 2015 – L. Merola

6 Contestualizzazione Nazionale ed Europea Il progetto è contestualizzato nelle roadmap Europee e Nazionali delle infrastrutture, quindi nei piani ESFRI, e-IRG. L’infrastruttura ReCaS ha richiesto di essere inserita nel novero della Infrastrutture per la Ricerca nel PNR e nel PNIR. ReCaS fornisce servizi basati su standard aperti che permettono l’interoperabilità tra infrastrutture di calcolo e di dati basati su architetture e modelli diversi e può implementare tutti gli elementi del modello di piattaforma per il trattamento dei Big Data che e' stato di recente definito dalla Commissione Europea. Riunione Gr. 1 Napoli – 7 gennaio 2015 – L. Merola

7 Data Center SCoPE UniNA Sito di Napoli TIER 2 ATLAS Control room remota ATLAS / CMS 9 rack già istallati Spazio per altri 3 rack di espansione Riunione Gr. 1 Napoli – 7 gennaio 2015 – L. Merola Tier-2 ATLAS: originariamente ospitato solo nei locali del SCR INFN (3 rack) Ora: 8 rack dedicati nel CED SCoPE e 7 nel CED INFN/RECAS PRISMA

8 DISPOSIZIONE RACK in SALA 1G01 R01R03R05R07 4f R02R04R06R08R10 3f R09R11 2f 1f SCR ATLAS Belle II km3net in gara Gen. Purp. PRISMA Legenda Fondi Reg. Campania ReCaS INFN + UniNA Tier2 ATLAS PRISMA Serv. Calc. Reti Riunione Gr. 1 Napoli – 7 gennaio 2015 – L. Merola R01 Rete

9 Fibre a 10 Gbps tra le due sale. Link dedicato a 10 Gbps con GARR-X (su cui viene veicolato il link IP general-purpose ed il link alla rete LHCONE). INFN NAPOLI UNINA 2x1 Gbit 1 Gbit 2x1 Gbit TIER2 2x10 Gbit POP GARR-X M.S. Angelo TIER2 1 Gbit 2x1 Gbit 10 Gbit SCOPE

10 Velocità programmata della rete: fino a 40Gbps Potenza di calcolo: 128 server, 8192 core, cluster HPC di 20 nodi con GPU per complessivi ulteriori 800 core Capacità di memorizzazione: 3552 TB su disco e 2500 TB su nastro (Tape library) Datacenter di Bari Velocità programmata della rete: fino a 40Gbps Potenza di calcolo: 132 server, 4956 core core pre-esistenti (Datacenter SCoPE) Capacità di memorizzazione: 4957 TB TB pre-esistenti (Datacenter SCoPE) Datacenter di Napoli Datacenter di Catania Velocità programmata della rete: fino a 40Gbps Potenza di calcolo: 54 server, 2562 core core pre-esistenti Capacità di memorizzazione: 1000 TB TB pre-esistenti Datacenter di Cosenza Velocità programmatadella rete: fino a 40Gbps Potenza di calcolo: 90 server, 3500 core Capacità di memorizzazione: 900 TB Risorse attuali “core”; 11 PB su disco, 2.5 PB su nastro (fattore 5 rispetto al progetto) Riunione Gr. 1 Napoli – 7 gennaio 2015 – L. Merola

11 Convegno PON RECAS – Napoli, 16 dicembre 2014 – L. Merola UTENTI RECAS - Oltre 40 Gruppi di Utenti

12 Convegno PON RECAS – Napoli, 16 dicembre 2014 – L. Merola Virtual Organization già supportate sull'infrastruttura ReCaS e sulle risorse preesistenti (Tier2s, NA/SCoPE, BA/BC2S/,CT/PI2S2) Il quadro delle VO supportate è in continuo aggiornamento

13 Progetto di Formazione CASAP (CAlcolo Scientifico ad Alte Prestazioni) (  talk di R. Bellotti) La parte Formazione del progetto PON è costituita principalmente da: un Master di I livello di durata annuale (60 CFU) in "Tecnologie per il Calcolo Scientifico ad Alte Prestazioni" Univ. di Napoli Federico II in collaborazione con INFN un Master di II livello di durata annuale (60 CFU) in "Sviluppo e Gestione di Sistemi di Calcolo (Data Center) per il Calcolo Scientifico ad Alte Prestazioni" Univ. di Bari Aldo Moro in collaborazione con INFN altre attività di formazione (stage post master per gli studenti migliori presso le sedi INFN + scuole estive su Science Gateways, Cloud Computing, Open Stack) Riunione Gr. 1 Napoli – 7 gennaio 2015 – L. Merola

14 Attività di comunicazione Seguiteci su Twitter e su Facebook Riunione Gr. 1 Napoli – 7 gennaio 2015 – L. Merola

15

16 ESITI GARA GE-9855 PER LHC Lotti 1 e 2 BARICATANIANAPOLICOSENZA HepSpec19,418,111,426,875,7 servers CPU-cores € ,91 € ,32 € ,43 € ,10 € ,76 TB € ,26 € ,23 € ,01 1 box=384 TB7350 euro/50 TB 4500 euro/server (64 cores) 545 HepSpec= 1 server

17 Nel locale 1G01 (Data Center ReCaS c/o INFN) : Fondi UniNA + INFN n.21 server SuperMicro da 64 core, 0.56 kHepSpec ciascuno, 11.8 KHS totali, euro cad. IVA inclusa (totale 124 KE) n.2 sistemi da 384 TB ciascuno, 0,6 PB netti, euro cad. IVA inclusa (totale 130 KE) n.4 armadi rack e relativi impianti (quota-parte chiller, quadro elettrico, cavo di potenza da UPS a 1G01 etc)), euro cad. IVA inclusa (totale 260 KE) n.1 switch centrale (quota-parte) e altri apparati di rete (ottiche etc), euro IVA inclusa (totale 200 KE) n.1 UPS, euro cad. IVA inclusa (totale 40 KE)

18 Il Tier2, anche grazie alle risorse acquisite con RECAS, ha raggiunto dimensioni comparabili ai più grandi Tier2 di ATLAS, in particolare americani I Tier2 di ATLAS contribuiscono tutti alle attività di produzione e analisi di ATLAS in maniera indifferenziata CPU e storage pledged a disposizione di tutti gli utenti ATLAS risorse per gli utenti italiani non pledged L’unica differenziazione è determinata dalle aree di storage di gruppo che contengono dati di particolare interesse per le attività italiane Aree di storage a Napoli: HIGGS e MUONI Attività specifiche a Napoli – RPC e LVL1 Muon Trigger calibrazione e performance – Higgs (gruppo HSG2: H  ZZ)

19 Uso della CPU nei Tier2 Italiani Uso della CPU nei Tier2 di ATLAS Sono incluse le risorse fornite da ReCaS al Tier-2 Atlas ATLAS-NA 30.6 % ATLAS-NA 2.9 % CNAF LNF MI RM1

ReCaS per Belle II Il MoU INFN-KEK-altri è stato firmato a febbraio Esso prevede un Tier1 (CNAF) essenzialmente per i dati ed una «Tier2 federation» (LNF, NA, PI, TO). Nel complesso, si deve garantire: a)il 10% del computing; b) il 10% dello storage, per tutto l’esperimento. Dall’inizio 2014 sono partire le MC (Montecarlo Campaign), due mesi sì e due mesi no. Non ben definita l’esigenza in kHS. RECAS ha fornito (dedicati): in 1G01 – n.2 rack completi di impianti (quota-parte) (130 KE), n.5 server per 4 kHS (30 KE), n.1 storage da 384 TB (65 KE) In SCoPE – n.5 server per 4 kHS (35 KE), n.2 storage da 320 TB (120 KE)

ReCaS fornisce risorse in fair share per le MC di Belle II (10 kHS). A novembre sono state determinanti per raggiungere e superare la quota italiana del 10% Fermo monitoring al KEK per upgrade + irraggiungibilità nodi (ma funzionavano) 25 k Ultima MC production per Belle II in Italia

9 k 4 k 25 k 3 k Confronto con gli altri siti italiani

ReCaS per km3NeT Km3NeT a Napoli/Salerno (P. Migliozzi, C. Bozza) ha iniziato il computing a fine 2013 con n.1 server (16 core) e n.1 NAS (8 TB), usati per un database RDBMS (Oracle). Il DB è usato per il book-keeping dei dati dei detector, dei dati di calibrazione e di management, ed è una replica di quanto c’è a Lyon al CCIN2P3 computing centre. L’accesso al DB avviene attraverso un Application Web server, che fungerà anche da bridge verso Cloud e/o Grid. ReCaS ha dapprima potenziato il server (10 TB) e poi ha messo a disposizione un armadio rack completo (con la quota-parte degli impianti, 65 KE) e la rete locale 10 GbE (per quota-parte, 15 KE). Km3NeT ha ora acquisito con fondi propri uno storage (384 TB, 65 KE).

25 Il futuro di ReCaS L’Infrastruttura per il Calcolo Scientifico ad Alte Prestazioni ReCaS già allo stato attuale costituisce una infrastruttura di calcolo di riferimento a livello nazionale. Oltre all’utilizzo per la ricerca fondamentale sarà aperta, nei limiti delle finalità del progetto, anche alle Imprese e alla PA. Apertura a nuovi utenti: Scienze umane e sociali, Scuola. E’ strategica la sinergia con altri progetti ed iniziative già in svolgimento, fra cui, tra i principali, il PON PRISMA e GARR-X PROGRESS e in futuro le iniziative connesse a H2020. La sfida per ReCaS e per le Regioni della Convergenza sarà assicurarne la sostenibilità e lo sviluppo a lungo termine. A tale scopo occorrerà rinnovare l’Accordo tra i tre enti (INFN, UniNA, UniBA) ed eventualmente estenderlo ad altri partner (ad es. altri enti di ricerca e istituzioni pubbliche o private) in coerenza con le strategie a livello regionale e nazionale. Riunione Gr. 1 Napoli – 7 gennaio 2015 – L. Merola