Scaricare la presentazione
La presentazione è in caricamento. Aspetta per favore
PubblicatoIrene Fumagalli Modificato 8 anni fa
1
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014
2
Tier2 Esperimenti LHC CCR - 09/09/14 G. Carlino - Esigenze di Rete degli Esperimenti LHC e di Gr1 2 Stato attuale Il Run1 di LHC è terminato nel 2012, l’attività è comunque proseguita nel 2013-14 con analisi di utente di gruppo e di utente e reprocessing vari I Tier2 sono collegati a 10 Gbps –La banda a 1 Gbps avrebbe decisamente penalizzato l’analisi e rallentato le attività centrali Dal 2013 a oggi il traffico medio non ha superato il Gbps (ma non siamo in presa dati) ma i picchi sono importanti
3
Tier2 Esperimenti LHC CCR - 09/09/14 G. Carlino - Esigenze di Rete degli Esperimenti LHC e di Gr1 3 Stato attuale Picchi fino a 7 Gbps nei Tier2 in un mese festivo (agosto!) in un anno di assenza di presa dati. Da recuperare possibilmente dati precedenti al 2013
4
Tier2 Esperimenti LHC CCR - 09/09/14 G. Carlino - Esigenze di Rete degli Esperimenti LHC e di Gr1 4 Stima delle necessità di banda per il Run2 (2015-2018) Gli esperimenti LHC non hanno effettuato studi dettagliati, possiamo quindi avanzare delle stime in base alle differenti condizioni del Run2 e dei nuovi sistemi di analisi basati sull’accesso via WAN Input: Valore di picco osservato 7 Gpbs (in condizioni di non presa dati) Attuale Modello di Calcolo Stima del possibile valore di picco partendo dall’osservato 7 Gbps: Trigger Rate 1 kHz: fattore 2x-3x di eventi raccolti rispetto al Run1 Maggiore Energia e Luminosità: fattore 1.5 nella dimensione degli eventi ~ 20 Gbps di picco
5
Esperimenti LHC CCR - 09/09/14 G. Carlino - Esigenze di Rete degli Esperimenti LHC e di Gr1 5 Stima delle necessità di banda per il Run2 (2015-2018) Gli esperimenti stanno attualmente eseguendo dei test per determinare le performance dell’ analisi basati sull’accesso ai dati via WAN. Solo nel corso della presa dati si ottimizzerà la frazione di job che utilizzerà questa procedura tenendo conto del traffico effettivo e delle performance dei job di analisi (efficienze, rate, etc) Come punto di partenza stimiamo che un 20% dell’analisi (in termini di numero di job) verrà effettuata con questa procedura Input: Dimensioni medie di un Tier2 nel 2017: 20 – 30 kHS / 2000 – 3000 core Ordine di grandezza throughput job di analisi: 1 MB/s 50% core di un Tier2 dedicati all’analisi di cui 20% via WAN Stima del traffico richiesto dall’analisi via WAN: 4 Gbps (considerando un fattore 2 per tenere conto dei picchi) Stima banda passante necessaria a un Tier2 per un singolo esperimento alla fine del Run2: ~25 Gbps Ordine di grandezza valido per ATLAS, CMS e ALICE
6
Tier1 Esperimenti LHC CCR - 09/09/14 G. Carlino - Esigenze di Rete degli Esperimenti LHC e di Gr1 6 Più complicato stimare il traffico del singolo esperimento. Dashboard di esperimento di ATLAS, picchi di circa 10 Gbps Ripetendo lo stesso ragionamento: Nuove condizioni di run (trigger rate, event size …) fattore 3x Risorse ATLAS nel 2017: 62 kHS, 6200 core Percentuale analisi al Tier1: 20% e percentuale analisi su WAN: 20% Ordine di grandezza valido per ATLAS e CMS, da aggiungere gli altri esperimenti al CNAF, per la CNS1: ALICE, LHCb, NA62, KLOE Stima banda passante necessaria al Tier1 per un singolo esperimento alla fine del Run2: ~ 30 Gbps
7
Belle2 CCR - 09/09/14 G. Carlino - Esigenze di Rete degli Esperimenti LHC e di Gr1 7 I siti italiani che partecipano al computing distribuito di Belle2 sono il CNAF (Tier1) e una Federazione di Tier2 composta da Napoli, Pisa e Torino. La composizione delle Federazione verrà discussa nell’attuale GE, la CSN1 ha dato parere positivo. Belle2 sta elaborando il suo Computing Model partendo dall’esperienza LHC. La responsabilità degli studi sulla rete sono italiani (S. Pardi) Presa dati prevista per il 2017, produzione e analisi MC e data challenges nei prossimi 2 anni
8
Belle2 CCR - 09/09/14 G. Carlino - Esigenze di Rete degli Esperimenti LHC e di Gr1 8 CM basato su una gerarchia simile a LHC –Raw Data Centres (Tier1) - raw data (re)-processing and storage (KEK, PNNL, GridKA, CNAF, KISTI) –Regional Data Centres (Tier2) - archivio mDST e MC production sites (Desy, Fed Italiana Tier2, ….) –MC Production sites – produzione MC e analisi Grid sites Cloud sites Cluster sites –Local Resources (Tier3) – user analysis (ntuple) Una copia RAW a KEK e una seconda negli altri RAW Data Centres, suddivisa in base ai PhD (10% in IT) -> 20% al CNAF Una copia di mDST a KEK e tre copie distribuite geograficamente (US, EU, ASIA) Analisi: sottomissione grid ai Regional Data Centres e output (ntuple) ai Local Resource Centres Event Data Model e tempi CPU basati sull’esperienza di Belle, non ottimizzati
9
Belle2 CCR - 09/09/14 G. Carlino - Esigenze di Rete degli Esperimenti LHC e di Gr1 9 Trasferimenti previsti da e verso l’Italia: –Raw Data transfer - da KEK e PNNL al CNAF (dal 2020) –MC e Dati (MDST) – trasferimento produzione italiana (MC e dati reprocessati) in USA e Asia e recupero dati prodotti in USA e Asia –Analisi – traffico interno tra Tier1 e Tier2 italiani per accesso ai MDST e con i siti europei (Germania, Slovenia) Stima del traffico verso i siti italiani determinata considerando i trend di crescita dei siti previsti nell’attuale CM e la suddivisione di risorse in italia: CNAF (40%), ogni Tier2 (20%) Da considerare un fattore di sicurezza (5?) per tenere conto dei picchi e delle ovvie incertezze legate a un modello teorico soprattutto al crescere degli anni Per riassumere, fino al 2018 la banda necessaria non dovrebbe essere superiore al Gbps Valori medi in Gbps.
10
Altri Esperimenti CSN1 CCR - 09/09/14 G. Carlino - Esigenze di Rete degli Esperimenti LHC e di Gr1 10 Non tutti gli altri esperimenti di CSN1 hanno prodotto studi dettagliati sulla banda necessaria nei siti Italiani BES III Il sito coinvolto è Torino, integrato nella infrastruttura cloud sviluppata nella sezione. Computing Model distribuito con configurazione grid on cloud. Stime di rete basate sul l'analisi a posteriori del traffico dell'ultimo semestre : Banda 1 Gbps verso IHEP Quantità di dati trasferiti legati al numero di core disponibili. Attualmente 200 core, in prospettiva 300. Per 300 cores 30 TB/mese medi con possibili picchi di 15 TB/giorno per grossi trasferimenti (~ 1 Gbps) COMPASS Siti coinvolti Torino e Trieste 100 TB/anno distribuiti in maniera fortemente non uniforme
11
Stime totali CCR - 09/09/14 G. Carlino - Esigenze di Rete degli Esperimenti LHC e di Gr1 11 LHC rimante l’utente principale della rete INFN 10 Tier2 di cui 3 ospitano 2 esperimenti: Bari (ALICE, CMS), Legnaro/Padova (ALICE, CMS) e Roma1 (ATLAS, CMS) Banda di picco stimata di un singolo esperimento per il Run2 (fino al 2018) ~ 25 Gbps Siti doppi ragionevolmente ~ 40 Gbps Altri esperimenti possono presentare dei picchi fino a 1 Gbps (Belle2 fino al 2018 e Bes3) Dopo il 2018 Belle2 cresce di un fattore 10
Presentazioni simili
© 2024 SlidePlayer.it Inc.
All rights reserved.