COMMENTI SU RICHIESTA ESIGENZE DI RETE 2015-2018(-20) IN CSN3 Rosario Turrisi Riunione CCR, Roma, 8 settembre 2014.

Slides:



Advertisements
Presentazioni simili
E835 & Hera-B Concezio Pisa, 21/12/2004. E835 (aka Jet-FNAL) timeline dell'esperimento –Presa dati conclusa nel Alcune analisi tuttora in corso.
Advertisements

Run I Distribuzione inclusive di Min Bias (Mult. Carica, Pt). Correlazioni dello stato finale ( -Mult) + mini-jet (soft hard physics). Campioni utilizzati:
23/01/01Alberto Masoni – GR1 - Roma1 I MODELLI DI CENTRI REGIONALI POSIZIONE DI ALICE ITALIA CENTRO ITALIANO: CPU 450 KSI95, DISCO 400 TB (INSIEME TIER-1.
Computing: Attività 2011 Limitate produzioni di MC e skim E il dataset finale (rel24/26) Grosso sforzo per il Long Term Data Access project: cluster di.
Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
Silvia Arcelli 1 Metodi di Ricostruzione in fisica Subnucleare Corso di Metodologie Informatiche Per la Fisica Nucleare e Subnucleare A.A. 2009/2010 I.
Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
Tier1 - cpu KSI2k days ATLAS KSI2k days CMS. Tier1 - storage CASTOR disk space CMS requires: T1D0, T0D1 ATLAS requires: T1D0, T0D1 and T1D1.
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
Come fanno i ricercatori a vedere le particelle?
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
CSN1 – 7 febbraio 2006 Francesco Forti, INFN-Pisa per il gruppo di referaggio.
L. Perini Riunione CSN1, Frascati Il Calcolo di CDF: Relazione dei referees Fabrizio Gagliardi, Laura Perini e Valerio Vercesi.
Ricostruzione dei muoni: Stato e piani futuri. Roma, 13 settembre 2001 Gruppo Moore Gruppo 1 Premesse Nel panorama della ricostruzione dei muoni il package.
3 Aprile CSN1 P. Capiluppi Tier2 CMS Italia.
6 Febbraio 2006CSN1 - Roma1 MEG : relazione dei referees P. Cenci R. Contri P. Morettini M. Sozzi.
News da LHC… *** Discussion title: CMS Commissioning Notes from 09:00 meeting Current fill (1182) has now been in stable beams for >12 hours. Delivered.
1 CSN1 - Lecce 22/09/2003 Babar Relazione e proposte finanziarie Referee: M. de Palma, P. Lubrano, C. Luci, L. Perini,A. Staiano.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
G. Martellotti Roma RRB 16 Aprile Presentazione M&O cat A (per LHCb i M&O cat B sono gestiti autonomamente e non sono scrutinati fino al 2005/2006)
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
CSN Maggio 2005 P. Capiluppi Il Computing Model (LHC) nella realta’ italiana u I Computing models degli esperimenti LHC gia’ presentati a Gennaio.
1 LHCb Computing Angelo Carbone, INFN-CNAF CSN1, 21/9/06 Aggiornamento richieste Tier Richiesta Tier-2 al CNAF Stato e risultati DC06.
1 Silvia DALLA TORRE CSN I, Roma 17-18/5/2004 STATO DEL RICH-1 ED IDEE FUTURE  la regione centrale del RICH-1  le prestazioni attuali del RICH-1  idee.
27/05/2004C.Bigongiari & M.Pieraccini INFN Workshop Castiadas (CA) 1 Stato e Prospettive del Calcolo di MAGIC M ajor A tmospheric G amma I maging C herenkov.
18 Set 2008 JLab12.0 JLab e CEBAF JLab12 Prima Riunione Plenaria 18 Settembre m 5 Recirculation Arcs 0.6 GeV Linac Extraction element End Stations.
CSN1-Assisi L.Perini1 BaBar Calcolo L. Perini per i referees: L.Perini,A.Staiano…
Tier-2 Tier-2 ATLAS (Osservazioni sulla proposta dei referee del calcolo LHC) Lamberto Luminari CSN1 – Roma, 3 Aprile 2006.
Calcolo esperimenti LHC 2004 F. Ferroni, P. Lubrano, A. Martin, M. Morandin, M. Sozzi.
15/05/2007CSN1 Roma Presidenza1 KLOE: referee* KLOE Calcolo (referee calcolo) KLOE2 Tabelle con proposte di assegnazione * M. Livan, P. Paolucci, P.C.
1 Calcolo e software G. Bagliesi 23/3/01 Riassunto riunione calcolo Bologna 19/3/01 B/tau : futuri miniworkshop.
L. Carminati - P. GovoniIII Workshop sull fisica di ATLAS-CMS1 sessione di discussione uno spunto: la calibrazione in situ dei rivelatori CALORIMETRI ELETROMAGNETICI:
CDF I referee Roma, 16 Maggio Tevatron OK Fisica Stanno pubblicando –Bene Nostre principali preoccupazioni su B s -mixing –Sulla base dei loro.
ATLAS Computing Model Lamberto Luminari CSN Gennaio, 2005.
D. Martello Dip. Fisica - Lecce Sintesi piani esperimenti CSN2 CNAF 7-marzo-2007.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Lecce 30 Settembre 2015.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
Referees di ATLAS-CMS: commenti sulle attività di upgrade M.Grassi S.Miscetti A.Passeri D.Pinci V.Vagnoni Sulla base di quanto presentato nell’incontro.
MasterClass: monitoraggio dei telescopi 2.0 D. De Gruttola Centro Fermi Roma.
Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 1 ATLAS Attività di TeV Attività di computing Attività di computing.
Referaggio sigla CALCOLO D. Bonacorsi, G. Carlino, P. Morettini CCR – Roma 9 Settembre 2014.
MEG (Torino 25 settembre 2012: A.Baldini) Stato dell’esperimento e generalita’ sull’upgrade.
Domenico Elia1 Calcolo ALICE: stato e richieste 2014 Domenico Elia Riunione CSN III / Torino, Commissione Scientifica III Torino, 17 Settembre.
CSN3: RELAZIONE SULLA RIUNIONE DI BILANCIO 2015 (E QUALCHE CONSIDERAZIONE) Rosario Turrisi.
Uso della rete geografica e richieste di upgrade CCR 31/3/2015 (Roma) S.Zani.
MODELLI DI CALCOLO IN CSN3 Rosario Turrisi WS CCR, Genova, 30 maggio 2013.
Il Calcolo non LHC in CSN1 G. Carlino, INFN Napoli CSN1 – Roma 17 Luglio 2014.
Stato e previsione rete nelle sedi INFN Survey ed ipotesi di sviluppo fino al 2018 CCR 8-10 Settembre 2018 (Roma) 1 S.Zani (Netgroup)
Referaggio Calcolo ATLAS II Gianpaolo Carlino INFN Napoli Catania, 12 Settembre 2012 Risorse e Richieste 2013 nei preventivi Aggiornamento in seguito all’allungamento.
P. Morettini. Organizzazione della CCR Le principali attività della CCR consistono da un lato nell’assegnazione di fondi per le infrastrutture di rete.
Lina, Paolo, Tonino, Riccardo.   An assessment of the need for a photo-production facility and its design  The neutron part should not exceed 20 pages.
KLOE - Referee Paolo Checchia, Luca Lista, Ezio Menichetti, Pierluigi Paolucci con l’aiuto sostanziale di Luca dell’Agnello, Mauro Morandin CSN1.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Catania 1 Ottobre 2014.
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
The INFN Tier-1: progetto di ampliamento Cristina Vistoli – INFN CNAF Referee Meeting Sep
1 OUTLINE CSN I, Roma 19-20/1/2015 RICH&THGEMSilvia DALLA TORRE Impegni per costruzioni – bilancio 2014 Read-out rivelatori ibridi ottobre 2014 – gennaio.
Silvia Arezzini 2 luglio 2014 Consiglio di Sezione per Preventivi.
Referee ALICE C.Agodi, D.Calvo, A.Di Ciaccio, P.Iaselli, S.Pirrone CSN3 – Torino, 17 - settembre 2013.
ATLAS Italia – Sestri Levante, 15 Giugno 2010 G. Carlino – Richieste Run Efficiency = time for physics / total time LHC Efficiency = time with colliding.
Il calcolo per l’esperimento GERDA Luciano Pandola INFN, Laboratori del Gran Sasso Riunione della CSN2, LNF Frascati, 29 Novembre 2011.
CSN1 Apr Relazione Referee KLOE Paolo Checchia Riccardo Fantechi Pierluigi Paolucci Luca Lista Ezio Menichetti.
Calcolo ALICE1 Calcolo ALICE: stato e richieste Domenico Elia e Massimo Masera Referee Calcolo LHC / Pisa, Riunione con Referee Calcolo LHC Pisa,
L’infrastruttura del progetto ReCaS Paolo Lo Re on behalf of ReCaS collaboration.
Referaggio Calcolo ATLAS Gianpaolo Carlino INFN Napoli CNAF, 11 Maggio 2012 Attività di Computing ATLAS Attività di Computing in Italia Risorse e Richieste.
TOTEM review a LHCC C. Cecchi CSN1, Parma 24/09/2010 CSN1, Parma 23/09/10C. Cecchi  STATO DELL’ESPERIMENTO & PHYSICS PLAN 2010/2011  INSTALLAZIONE DI.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Domenico Elia1 Calcolo ALICE: stato e richieste finanziarie (aggiornamenti) Domenico Elia Riunione Referee Calcolo LHC / Bologna, Riunione con.
From 8 to 80 boxes. From FBSNG to Condor CPU Satura !
Transcript della presentazione:

COMMENTI SU RICHIESTA ESIGENZE DI RETE (-20) IN CSN3 Rosario Turrisi Riunione CCR, Roma, 8 settembre 2014

ESPERIMENTI IN CSN ric/tec (+tecnici), FTE (0.75 FTE/pers) ALICE Studio della produzione del QGP in collisioni tra ioni pesanti ultrarelativistici EXOCHIM Collisioni tra Ioni pesanti stabili ed esotici alle energie del tandem ed intermedie Struttura iperfine dell’idrogeno muonico e raggio e.m. del protone FAM-RD 8/9/2014ROSARIO TURRISI 2

ALCUNE OSSERVAZIONI  FTE: 478/211 TOT/GRID  Finanziamento 2013 (k€): ALICE: 330, altri: ~108, tra cui PANDA AGATA/GAMMA JLAB12 EXOCHIM =21±29…  Gruppi di varie dimensioni: dai 2.3 FTE di ULYSSES ai 142 di ALICE  …inseriti in collaborazioni di varie dimensioni (da alcune unità alle 1330 di ALICE)!  La dimensione della collaborazione non è un indice della strategia di calcolo  Spesso I piccoli gruppi collaborano mettendo a comune idee, risorse umane, hardware  Quadro frammentato, diversi linguaggi, paradigmi, filosofie di storage… …ma funziona (quasi) tutto molto bene! 8/9/2014ROSARIO TURRISI 3

ESIGENZE DI RETE DI ESPERIMENTI DI PICCOLA/MEDIA TAGLIA  Piccola/media taglia ≅ 20 FTE – la maggior parte delle sigle  Tipico workflow dell’esperimento:  progetto (tempi variabili)  eventuale costruzione/upgrade/adattamento/commissioning del rivelatore (da qualche mese a qualche anno)  misure (1-2 settimane ciascuna, ~5-6 per anno)  copia dati su supporti di backup vari (tipicamente dischi esterni)  da ~0.1 ~1 TB per misura (raw data)  trasferimento dei raw data e/o dati ridotti tra le sedi partecipanti alla misura (~5 sedi tipicamente)  Nessuno ha presentato richieste particolari, se non riguardanti:  la possibilità di accedere ai dati da remoto (copia)  la possibilità di fare analisi/grafica (realtime) da remoto  la possibilità di utilizzare il sistema x col software y in maniera ‘’stabile’’ 8/9/2014ROSARIO TURRISI 4

ESIGENZE DI RETE PER ESPEIRMENTI CON CALCOLO A IMPATTO PIÙ ELEVATO  ALICE: assimilato agli altri esp. LHC, v. presentazione G. Carlino  GAMMA/AGATA  JLAB12  PANDA 8/9/2014ROSARIO TURRISI 5

AGATA ADVANCED GAMMA TRACKING ARRAY 180 hexagonal crystals3 shapes 60 triple-clusters all equal Inner radius (Ge) 23.5 cm Amount of germanium 362 kg Solid angle coverage 82 % 36-fold segmentation 6480 segments Singles rate ~50 kHz Efficiency: 43% (M  =1) 28% (M  =30) Peak/Total:58% (M  =1) 49% (M  =30) 6660 high-resolution digital electronics channels Detectors operated in position-sensitive mode  Digital EDAQ + Pulse Shape Analysis +  -ray Tracking Coupling to ancillary detectors for added selectivity 8/9/2014ROSARIO TURRISI 6 Stesso gruppo italiano di GAMMA/GALILEO, esperimenti in fase di presa dati e/o upgrade

Event Builder Tracking Physical Analysis Merge Data Readout FE Electronics Ancillary Detector(s) Preprocessing PSA FEE Readout Preprocessing PSA FEE Readout Det#1Det#2Det#N············Det#3 ············ * ~ 95 % of CPU time spent in the PSA * * Disk Write Rates * Raw ~100 MB/s (total) * PSA ~5 MB/s (total) * Tracked ~10 MB/s Each box represents one task managed by the ADA distributed computing system NARVAL (or by off-line C++ emulators) Data processing implemented in C++ and loaded as shared libraries in the NARVAL environment Data formatting and flow managed by the adf C++ library STRUCTURE OF COMPUTING SYSTEM Local Level (detectors don’t know of each other) Global Level 8/9/2014ROSARIO TURRISI 7

8/9/2014ROSARIO TURRISI 8

AGATA: ESIGENZE DI STORAGE/RETE  Le esigenze di calcolo di AGATA sono legate all'analisi della forma dei segnali prodotti dai rivelatori al germanio (Pulse Shape Analysis, PSA)  un'analisi abbastanza pesante in termine di CPU  effettuata in tempo reale dalla farm di acquisizione (a Legnaro/GSI/GANIL), composta da ~30 macchine per un totale di 250 (LNL) o 500 (GSI) cores  Se la PSA in tempo reale è stata effettuata correttamente, le necessità di calcolo successive sono abbastanza modeste  Maggior impegno attuale: gestione dei 150 TB/y (dati raw)  Soluzione attuale: storage su GRID (VO AGATA): 350 Lione, 150 CNAF  La singola misura produce ≤ 30 TB raw data, previsti ~300 TB in 2.5 y  Trasferimento a Lyon+CNAF  Successivo trasferimento verso LNL, PD, MI, FI  Analisi/display da remoto, accesso dei raw da tutte le sedi  Non dichiarano attualmente particolari problemi, auspicano un’alta reattività dei sistemi alle attività del punto precendente 8/9/2014ROSARIO TURRISI 9

ESIGENZE DI STORAGE/RETE PER ESPEIRMENTI CON CALCOLO A IMPATTO PIÙ ELEVATO  ALICE: assimilato agli altri esp. LHC, v. presentazione G. Carlino  GAMMA/AGATA  JLAB12  PANDA 8/9/2014ROSARIO TURRISI 10

JLAB12: GLI ESPERIMENTI  Upgrade in corso per permettere a CEBAF di raggiungere 12 GeV (2x)  3 sale sperimentali con rivelatori dedicati + una quarta in costruzione  Hall A polarimetro + spettrometri, in programma estensione range cinematico, alta luminosità  Hall B target polarizzato + spettrometro a grande accettanza CLAS  CLAS12 per cm -2 s -1  Hall C misure in coincidenza ad alta risoluzione con 2 spettrometri, HMS+nuovo ad angolo variabile  Hall D misure di brehmsstralung: γ, PID, coincidenza con particelle cariche (nuova sala) 8/9/2014ROSARIO TURRISI 11

JLAB COMPUTING MODEL  Modello attuale, da rivedere per JLAB12  Una analisi: ~400 GB su disco ( + ~ 50% per simulazione)  La simulazione è distribuita al 50% tra JLAB e farm locali  ‘’T0’’ + ‘’T1’’ ad es. a Norfolk  I dati (latency da alcuni anni ad alcuni mesi, JLAB12->15y) sono elaborati a JLAB -> produzione dei ‘’dst’’  3 mesi presa dati -> ~3 mesi ricostruzione  comnservata la possibiltà di upstream (~10% dei dati da riprocessare)  dst= 4-impulsi + banche dei singoli rivelatori  Copia locale dei dst (occupano ~ 1/10 dei raw)  Localmente: ‘’filtratura’’ dei 4-impulsi per l’analisi finale  Attualmente si discute se fare il salto direttamente alla Cloud  Saltare la transizione a Root e ai protocolli GRID o GRID-like  CLOUD, JAVA-based future? 8/9/2014ROSARIO TURRISI 12

JLAB12 – IN SINTESI  Profilo temporale:  inizio presa dati nel 2015, in maniera consistente, prospettiva di 5 anni con aumento 3x nel 2016, 1.1x nel 2017, poi stabile  Modello produzione:  dati conservati e ridotti a JLAB, trasferimento JLAB-Italia (Ge, LNF, LNS) di DST e MC  trasferimento interno modesto  Stima della banda massima, nelle ipotesi di sopra, più:  trasferimento in 6 mesi  nessuna fattore di sicurezza/efficienza  indicato il valore medio 8/9/2014ROSARIO TURRISI 13 AnnoRaw data (TB) DST (TB) Frazione DST trasferiti DST trasferiti (TB) Banda (Mb/s)

ESIGENZE DI STORAGE/RETE PER ESPEIRMENTI CON CALCOLO A IMPATTO PIÙ ELEVATO  ALICE: assimilato agli altri esp. LHC, v. presentazione G. Carlino  GAMMA/AGATA  JLAB12  PANDA 8/9/2014ROSARIO TURRISI 14

PANDA: LA SFIDA DEL RATE… H.Xu, Introduction to PANDA Trigger and Data Acquisition System, TIPP11, Chicago 8/9/2014ROSARIO TURRISI 15

8/9/2014ROSARIO TURRISI 16

Timelines - TDRs Central Tracker, MVD and EMC TDRs are approved Deadline for other detectors: 2015 DAQ and Computing: end 2016

Timelines – Detector Installation No fixed time schedule (order of the civil construction is still under discussion) Currently: Moving in the cave area Mid 2018 Detectors ready for data End 2019

Based on Belle/BaBar experience No real numbers from running LHC (only estimate) Continuous data stream not considered  More realistic Panda software  Experience from running LHC  An updated Computing cost table  FAIR Computing TDR Computing Model? After 6 years we are revising all the numbers and the model. The process has just started. Everything should be approved by PANDA before the FAIR TDR

In One Year at Tier0 Prompt reconstruction (gen0)40kcore for 6 months Offline reconstruction (gen1) 40kcore for 6 months 40k core for each year GEN0 RAW2.8 PB ESD3.9 PB AOD0.9 PB GEN1 AOD0.9 PB GEN0+GEN1 8.5PB (1RAW, 1ESD, 2AOD) GEN0 RAW2.8 PB AOD0.9 PB GEN1 AOD0.9 PB GEN0+GEN1 4.6PB (1RAW, 2AOD) On Disk On Tape 1 RAW copy, 1 AOD copy for each gen Still missing other stuff…

Simulations? Simulation time is x2 complete reconstruction time Simulation disk space is x10 AOD, but I am confident we can shrink to x5 Assuming 1:1 MC data/real 40k cores to simulate 1/2 of real the statistics promptly in 6 months 40k cores to simulate the remaining 1/2 statistics in the other 6 months 2/3 correction (beam duty cycle) -> other 27k cores? SIMULATION MC4.5 PB AOD0.9 PB 1 Generation 5.4PB On Disk On Tape SIMULATION MC4.5 PB AOD0.9 PB Final Generation 5.4PB

PANDA: SITUAZIONE ATTUALE  Per i prossimi 3 anni non ci sarà attività con impatto di rilievo sulle risorse di rete  Per I seguenti 2 anni, dipende da:  come sarà definito il Computing Model (prevista approvazione a fine 2016)  come parteciperà l’Italia (TIER1?) – impegno finanziario iniziale ~150 k€ da impiegare di conseguenza  L’entità dell’impegno dell’INFN in FAIR è ancora in discussione 8/9/2014ROSARIO TURRISI 22

CONCLUSIONI  Richieste di rete in CSN3:  l’esperimento più esigente è ALICE  PANDA ha un computing model simile, su tempi diversi  JLAB12, GAMMA/AGATA vengono subito dopo, con esigenze compatibili con le risorse attualmente disponibili  gli altri esperimenti non hanno manifestato richieste particolari, anche perché non hanno mai incontrato serie limitazioni da questo punto di vista  Commento a latere:  le esigenze di CSN3 non risiedono tanto nella singola richiesta di prestazioni di picco nella banda passante o nello storage quanto nella necessità di uniformare o far convivere una varietà di SO e software di esperimento, con accesso quasi-interattivo a dati (in quantità ragionevoli, anche non locali, su un modello da definire, in modo da far fronte nel miglior (=più efficiente e più economico…) modo possibile, per far fronte (anche) a:  la diminuzione del personale dedicabile al calcolo  l’evoluzione della struttura (anche sociale!) degli esperimenti  Si comincia a sentire l’esigenza di una politica di data preservation 8/9/2014ROSARIO TURRISI 23