Stato Computing ATLAS Gianpaolo Carlino INFN Napoli

Slides:



Advertisements
Presentazioni simili
1 LHCb Computing Angelo Carbone, INFN-CNAF CSN1, 21/9/06 Aggiornamento richieste Tier Richiesta Tier-2 al CNAF Stato e risultati DC06.
Advertisements

Calcolo a LHC CB 23 maggio 2011 Quadro generale Gare CPU e disco.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Lecce 30 Settembre 2015.
Atlas Italia - Milano, 17/11/2009 G. Carlino – News dal Computing 1 1 News dal computing Gianpaolo Carlino INFN Napoli Atlas Italia, Milano, 17/11/09 Nuovo.
Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 1 ATLAS Attività di TeV Attività di computing Attività di computing.
Il primo anno di presa dati di LHC L’esperienza di calcolo nell’esperimento ATLAS Attività condotte nel 2010 e prospettive future Lorenzo Rinaldi (INFN-CNAF)
Roma, 13 Luglio 2010 G. Carlino – Referaggio Tier2 ATLAS 1 ATLAS Referaggio Tier2 Attività di TeV Attività di TeV Richieste 2011.
Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 1 Referaggio Tier2 ATLAS Attività di Computing 2009 Attività di Computing 2009 Stato dei.
1 Firenze, 6 Settembre 2011 G. Carlino – Relazione Referaggi Computing ATLAS Relezione Riunioni Referaggio Calcolo ATLAS Computing Model News Computing.
ANALISI DISTRIBUITA IN ATLAS L’esperienza degli utenti Attilio Picazio Università di Napoli “Federico II” – INFN Napoli 18/05/11Attilio Picazio - Workshop.
CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 1 ATLAS Referaggio Tier2 Attività di TeV Attività di TeV Richieste.
Referaggio Calcolo ATLAS II Gianpaolo Carlino INFN Napoli Catania, 12 Settembre 2012 Risorse e Richieste 2013 nei preventivi Aggiornamento in seguito all’allungamento.
ATLAS Italia – Sestri Levante, 15 Giugno 2010 G. Carlino – Richieste Run Efficiency = time for physics / total time LHC Efficiency = time with colliding.
1 Bari, 21 Settembre 2011 G. Carlino – ATLAS: il calcolo ATLAS: il Calcolo Attività di Computing nel 2011 Attività di Computing nel 2011 Richieste Tier2.
Referaggio Calcolo ATLAS Gianpaolo Carlino INFN Napoli CNAF, 11 Maggio 2012 Attività di Computing ATLAS Attività di Computing in Italia Risorse e Richieste.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Computing CMS Richieste 2010 M.Paganoni, 22/7/09.
FESR Catania, Trigrid Open Day, Trinacria Grid Virtual Laboratory PROGETTO “ISOSPIN” Supporters : AnnaMaria Muoio, Marcello IaconoManno.
Il Calcolo non LHC in CSN1 G. Carlino, INFN Napoli CSN1 – Firenze 20 Luglio 2015.
CSN1 – Torino, 17 Maggio 2010 G. Carlino – ATLAS: Calcolo ATLAS Calcolo LHC 2011 Attività di TeV Attività di TeV Risorse.
+ Call di Big Data (EINFRA- 1). + La call … + + Cosa abbiamo in mano (come INFN) 1. L’infrastruttura 1 Tier Tier2 O(25000) cores O(20) PB di Disco.
ATLAS computing Roberto Carlin Commissione I Roma 1/7/08 F. Bossi, C.Bozzi, R. Carlin, R. Ferrari, D. Lucchesi, D. Martello, M. Morandin, M. Taiuti.
CSN1, Ferrara 16 Settembre 2009 G. Carlino – ATLAS, Stato del Computing e Richieste ATLAS Stato del Computing & Richieste 2010 Gianpaolo Carlino.
KLOE - Referee Luca Lista, Andrea Perrotta, Vincenzo Vagnoni.
Utilizzo e Richieste infrastrutture di calcolo esperimenti LHC & non LHC G. Carlino, INFN Napoli CSN1 – Roma 7 Luglio 2016.
Alessandro De Salvo Status dei Tier2 di ATLAS Alessandro De Salvo
Domenico Elia1 Calcolo ALICE: stato e richieste finanziarie (aggiornamenti) Domenico Elia Riunione Referee Calcolo LHC / Bologna, Riunione con.
Acquisti TIER T2 team e Pistoni per la consulenza sull’hardware.
Il calcolo ATLAS a Napoli nel 2014/2015
Riunione ALICE Italia - Referee stato e richieste finanziarie
Summary di (quasi) tutti gli utenti non presentati…
CALCOLO CSN B.Bertucci.
I costi del Calcolo LHC un update –
Comput-ER l'infrastruttura di calcolo distribuito in Emilia Romagna
Calcolo LHC e Tier2 Concezio Bozzi, INFN – Ferrara
G. Carlino, D. Lucchesi, V. Vagnoni
Massimo Masera CSNIII Roma, 20 marzo 2012
G. Carlino, D. Lucchesi, V. Vagnoni
2009 LHC Run Computing Gianpaolo Carlino INFN Napoli Highlights from:
HLRmon: visualizzazione di dati di accounting
2009 LHC Run Computing Gianpaolo Carlino INFN Napoli Highlights from:
Commissione Scientifica III stato e richieste finanziarie
Richieste preliminari calcolo non LHC
Assegnazione risorse Stato INFN CNAF,
Lamberto Luminari CSN Maggio 2005
Metriche SE monitoring G.Donvito G.Cuscela INFN Bari
QUADRO CALCOLO IN COMMISSIONE III
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
ATLAS Stato del Computing
ALICE CALCOLO richieste finanziarie e proposte di assegnazione 2017
Richieste di Calcolo 2009: BaBar
Le strategie per l’analisi Workshop CCR e INFN-GRID 2009
Aggiornamento sullo stato del Tier-2 di Catania
Attvità Computing – Inverno 08/09
(Breve) Riassunto del workshop WLCG
Referaggio Calcolo ATLAS
CMS.
Riunione con Referee Calcolo LHC stato e richieste finanziarie
CNAF – Proposte B.Bertucci.
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
Massimo Masera Catania, 20 dicembre 2012
Job Application Monitoring (JAM)
ONEDATA - distributed data caching -
Interfacce SRM: l'utilizzo di STORM - Overview e prospettive (ALICE)
Calcolo “locale” ATLAS-Mi
ATLAS: il calcolo Alessandro De Salvo
PROGETTO “ISOSPIN” Supporters : AnnaMaria Muoio, Marcello IaconoManno
Stima risorse LHC LHC - Tier2 2 periodi
La richiesta si basa sulle seguenti considerazioni:
ATLAS Italia Computing Richieste 2007 (Tier-2 e locali)
Transcript della presentazione:

Stato Computing ATLAS Gianpaolo Carlino INFN Napoli ATLAS Italia – 6 Maggio 2010 Attività di Computing Analisi distribuita Risorse 2011 Roma, 2 Feb 2010 - Atlas Italia

Attività di computing 2010

LHC 2010– primo nb-1

2010 LHC – Data taking Physical Volume Size Dati raccolti e prodotti da ATLAS per il primo nb-1 di luminosità Event size???? Logical Volume Size Logical Data = 650 TB (*3 vs 2009) Physical Data (comprende tutte le repliche distribuite in Grid) = 2.5 PB (*2.5 vs 2009)

Computing Model – Distribuzione dei dati RAW: 1 copy distributed over Tier-1’s ESD: 2 most recent and 1 previous copies distributed over the Tier-1’s AOD: 2 most recent and 1 previous copies distributed over the Tier-1’s DESD: not kept at Tier-1’s only at Tier-2’s Distribution to Tier-1’s is done by “Tier-1 ratio” Il “Tier-1 ratio“ è quello reale, non quello nelle tabelle WLCG: CNAF 5% Sistema di repliche basato su un efficiente sistema di cancellazione i siti devono fornire un buffer per le attività pianificate nei successivi 3 mesi replicazione di tutti i dati nelle cloud come previsto dal CM determinazione dei dati “da custodire” nella cloud non cancellabili riduzione delle repliche in base al principi di popolarità dei dati

2010 LHC – Data Distribution > 3 volte del throughput run 2009 In media i dati sono disponibili ai Tier2 per l’analisi in circa 4 ore

2010 LHC – Data Distribution in IT Distribuzione dei dati in Italia RAW = 1 TB CNAF Down per 2 giorni per migrazione cataloghi Disco del CNAF in blacklist perché completo in attesa di cancellazioni di vecchi dati Scherzi della statistica: del 5% dei dataset nessun MinBias ESD = 50 TB 10% al CNAF (5% custodial + 5% primario) e 10% ai Tier2

2010 LHC – Data Distribution

Uso risorse nella Grid Uso delle CPU nella Grid per “Country” nei Tier1 e Tier2 per la VO ATLAS (EGEE portal) Numero di job running nelle cloud Ottobre 2009 – Marzo 2010 (ATLAS dashboard)

Uso risorse al CNAF

Uso risorse ATLAS IT - produzione

Analisi distribuita in ATLAS

Analisi Distribuita Dati User jobs Scelta del Frontend e del Backend distribuzione organizza centralmente con DDM/DQ2 in base al Computing Model il formato dati utilizzato utilizzato per l’analisi dipende dai gruppi (fisica o locali) User jobs Modello: “i job vanno dove sono i dati”. I siti devono garantire stabilità e affidabilità Scelta del Frontend e del Backend con la reale attività di analisi gli utenti utilizzano gli strumenti che garantiscono la migliore efficienza, velocità, semplicità d’uso e stabilità Roma, 2 Feb 2010 - Atlas Italia

Analisi Distribuita – formato dati

Analisi Distribuita – formato dati

Analisi Distribuita – formato dati

Analisi Distribuita – formato dati Popolarità dei dati Accessi negli ultimi 30 giorni

Analisi Distribuita

Analisi Distribuita Uso significativo della Grid per l’analisi 2.2 milioni di job completati 16.6 miliardi di eventi analizzati 705 utenti (350 runnano più di 1000 job)

Analisi Distribuita Job di Analisi con Panda in Italia non viene riportato l’uso del WMS comunque significativo in Italia Frascati è da poco rientrato tra i siti cui vengono replicati i dati (10%)

Analisi Distribuita – Accesso ai dati

Analisi Distribuita – Accesso ai dati

Analisi Distribuita – Accesso ai dati

Analisi Distribuita – Accesso ai dati

Analisi Distribuita – Accesso ai dati

Analisi – Esperienza acquisita La Griglia sembra funzionare! La distribuzione dei dati è veloce e efficiente e il loro accesso facile Concerns: Formato dei dati e loro distribuzione: i formati su cui va effettuata l’analisi (AOD e dESD) sono al momento poco utilizzati benché replicati ovunque. Spreco di spazio a scapito di formati più popolari (ESD) L’utilizzo di ESD non scala problema temporaneo! Tuning della produzione di dESD (filtri, selezioni degli eventi e riduzione delle informazioni) sistema basato su meccanismi di cancellazioni non testati adeguatamente molti gruppi utilizzano strategie contrarie al Computing Model: produzione centralizzata di ntuple molto grandi come unico formato sui cui fare analisi analisi su dati in formato ROOT poco adatta agli scopi di molti utenti utilizzo minimale della griglia per l’analisi Tool di analisi distribuita: Pathena/Panda sistema più popolare: facilità di utilizzo, efficienza, stabilità Ganga/WMS (sviluppato in EGEE) conserva delle caratteristiche utili e originali ma richiede utenti piuttosto esperti. Poco stabile. contatti con gli sviluppatori per migliorare Ganga Utilizzo dei siti italiani ancora poco utilizzati dagli italiani. Buoni risultati anche grazie a utenti stranieri sforzi per renderli sempre più stabili e efficienti serio problema il ritardo dell’acquisizione delle nuovo risorse

Previsione Risorse 2011

LHC running: 2010 e 2011 C-RRB year Start End Mesi Live sec (pp) *10^6 Events 2009 May ’10 3 2.2 (2.2) 1450 2010 Jun ’10 Mar ‘11 8 5.8 (5.1) 2011 Apr ’11 Mar ’11 1020 2012 Apr ’12 Mar ‘13 Assunzioni Rate 200 Hz Run efficiency 70% LHC efficiency 40% Run Efficiency = time for physics / total time LHC Efficiency = time with colliding beam/ time for physics

Computing Model – Input parameters

Risorse ATLAS – CPU Tier1

Risorse ATLAS – Disco Tier1

Risorse ATLAS – CPU Tier2

Risorse ATLAS – Disco Tier2

Risorse ATLAS

Risorse ATLAS al CNAF 2010 CNAF - 2010 Gare 2009 Gara Opzione base Opzione 1 Opzione 2 CPU (kHS06) 8.7 16 Disco (PBn) 1.3 1.8 E’ importante esercitare il piu’ presto possibile le opzioni delle gare Share CNAF = 8%

Risorse ATLAS 2010 “normalizzate” (TW=0) USA BNL (25%) Netherlands SARA/NIKHEF (15%) France CCIN2P3 (13%) UK RAL Germany FZK (11%) Canada Triumf (5%) NDGF (4%) Spain PIC Italy CNAF (9%) 100%

Risorse ATLAS 2010 “normalizzate” (TW=0) Risorse per i dati (40% dei pledge) Le risorse pledged non sono ancora tutte a disposizione …… … e i dischi non sono vuoti

Previsione Risorse ATLAS al CNAF 2011 2010 2011 CNAF ATLAS CNAF 8% Δ k€ CNAF 10% CPU (kHS06) 16 226 18 2 50 22.6 6.6 165 Disco (PBn) 1.8 25 0.2 120 2.5 0.7 420 CPU = 25 €/HS Disco = 600 €/TBn Le richieste vanno omogeneizzate con quelle degli altri esperimenti per conservare gli share classici al CNAF basati sul numero di autori italiani calcolo degli overlapping e obsolescenza

Risorse 2010 nei Tier2 Variazioni significative per i Tier2 che compensano l’aumento del numero di secondi: CPU: riduzione share simulazione (45%) e riduzione simulation time da 8 kHS a 6 kHS Disco: riduzione frazione RAW 2010 T2 Italia T2 ATLAS T2 It/ATLAS Pledges Uso IT CPU (kHS06) 16 226 7,1% 12 (5%) 25% Disco (PBn) 1.76 24 7,3% 1.0 (4%) 43% I buoni acquisti di disco effettuati nel 2009 ci permetteranno, se le stime degli acquisti 2010 saranno corrette, di avere una disponibilità un po’ superiore a quanto previsto precedentemente. Potrà quindi aumentare lo share “pledged” a circa 1.3 PB, lasciando circa il 25% delle risorse all’uso italiano, in modo da conservare una quantità maggiore di dati ATLAS in Italia

Previsione Risorse 2011 nei Tier2 2010 2011 T2 Italia ATLAS T2 Italia 8% Δ K€ T2 Italia 9% k€ CPU (kHS06) 16 278 22,24 6,24 156 25 9 225 Disco (PBn) 1.76 38 3 1,28 768 3,42 1,66 996 Totale 924 1221 Rete 51 85 Server 92 152 Gran totale 1067 1756 (Bozzi – CSN1 09/09) CPU = 25 €/HS Disco = 600 €/TBn Assunzioni rete e server irrealistiche

Previsione Risorse 2011 nei Tier2 Discussione preventiva con i referee per concordare i costi della rete e dei server Definizione quota da dedicare alle attivita’ locali e quindi dei pledge 2011 in particolare LOCALGROUPDISK, disco locale in GRID, e disco locale non in GRID nei Tier2 attualmente 25% del disco e delle CPU e’ riservato in base alle attivita’ in corso potremo stimare le risorse effettivamente necessarie 25% del disco (ipotesi Tier2 all’8%) corrispnde a 750 TB, probabilmente esagerata Per l’attuale discussione in CSN1 non credo sia necessario entrare in questi dettagli. Non e’ un referaggio!

Analisi – Discussione in Italia