Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 1 Referaggio Tier2 ATLAS Attività di Computing 2009 Attività di Computing 2009 Stato dei.

Slides:



Advertisements
Presentazioni simili
L. Perini CSN1 -Roma 23 Gen Centri Regionali per il calcolo di ATLAS in Italia Tier-1 e Tiers-N : funzioni, localizzazione, necessita di h/w, personale.
Advertisements

Progetto Speciale Prototipo Tier1 F. Ruggieri INFN – CNAF I Workshop CMS Italia del SW e Computing Roma 22 Novembre 2001.
Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
Aspetti critici rete LAN e WAN per i Tier-2
Stato del Tier2 di Atlas a Napoli Il ruolo dei Tier2 in Atlas La Federazione Italiana dei Tier2 Il Tier2 di Napoli Napoli, 21 Dicembre 2006 – A.Doria.
Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
Alessia Tricomi Università & INFN Catania
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
Analysis unibo una proposta. Work flow di una tipica analisi 1.Simulazione di piccoli campioni di eventi per studio segnale 2.Generazione in grande.
CCR 14-15/03/2006 Status Report Gruppo Storage CCR.
16 Maggio CSN1 Computing-Software-Analysis CMS-INFN TEAM Analisi in CMS: stato e prospettive del supporto italiano.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
CSN Maggio 2005 P. Capiluppi Il Computing Model (LHC) nella realta’ italiana u I Computing models degli esperimenti LHC gia’ presentati a Gennaio.
LNF Farm E. V. 9/8/2006. Hardware CE, LCFG, HLR, 3 WN: DL 360 1U; SE: DL 380 2U 5 WN: BL 25 P In totale 25 jobs general purpuse (coda Atlas) + una coda.
Attivita' Grid in BaBar Workshop sulle Problematiche di Calcolo e Reti nell'INFN Maggio 2004.
1 LHCb Computing Angelo Carbone, INFN-CNAF CSN1, 21/9/06 Aggiornamento richieste Tier Richiesta Tier-2 al CNAF Stato e risultati DC06.
Tier-2 ATLAS Tier-2 Lamberto Luminari CSN1 – Roma, 10 Ottobre 2005.
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
Review dei Tier-2 degli esperimenti LHC S.Pirrone INFN-Sezione di Catania per il gruppo dei referee CNS Giugno 2014 LNGS.
Tier-2 Legnaro-Padova Massimo Sgaravatto (INFN Padova) On behalf of the Legnaro-Padova T2 team Tier-2 Legnaro-Padova 1.
26 Giugno 2007CSN1 - Frascati1 Temi di attualità nella CCR Accanto alla tradizionale attività di controllo dei finanziamenti per le infrastrutture di calcolo.
Calcolo a LHC CB 23 maggio 2011 Quadro generale Gare CPU e disco.
D. Martello Dip. Fisica - Lecce Sintesi piani esperimenti CSN2 CNAF 7-marzo-2007.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Lecce 30 Settembre 2015.
Atlas Italia - Milano, 17/11/2009 G. Carlino – News dal Computing 1 1 News dal computing Gianpaolo Carlino INFN Napoli Atlas Italia, Milano, 17/11/09 Nuovo.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
1 referee-BaBar CSN I, LNF giugno 2007 RELAZIONE DEI REFEREE DI BaBar M.De Palma, C.Luci, C.Troncon, B.Gobbo(calcolo) 26 giugno 2007.
Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 1 ATLAS Attività di TeV Attività di computing Attività di computing.
Il primo anno di presa dati di LHC L’esperienza di calcolo nell’esperimento ATLAS Attività condotte nel 2010 e prospettive future Lorenzo Rinaldi (INFN-CNAF)
Roma, 13 Luglio 2010 G. Carlino – Referaggio Tier2 ATLAS 1 ATLAS Referaggio Tier2 Attività di TeV Attività di TeV Richieste 2011.
FESR Consorzio COMETA - Progetto PI2S2 Il Tier-2 di ALICE a Catania Roberto Barbera Università di Catania e INFN Visita Referee.
Referaggio sigla CALCOLO D. Bonacorsi, G. Carlino, P. Morettini CCR – Roma 9 Settembre 2014.
17 GennaioTier2 Milano G. Costa 1 17-Gennaio-2006.
19 Ottobre 2012ATLAS Milano1 Stato delle risorse locali di calcolo L. Carminati, L. Perini, D. Rebatto, L. Vaccarossa.
1 Firenze, 6 Settembre 2011 G. Carlino – Relazione Referaggi Computing ATLAS Relezione Riunioni Referaggio Calcolo ATLAS Computing Model News Computing.
ANALISI DISTRIBUITA IN ATLAS L’esperienza degli utenti Attilio Picazio Università di Napoli “Federico II” – INFN Napoli 18/05/11Attilio Picazio - Workshop.
1 referee-BaBar CSN I, Roma Gennaio 2008 RELAZIONE DEI REFEREE DI BaBar e SuperB M.De Palma, C.Luci, C.Troncon, B.Gobbo(calcolo),D. Pedrini
Uso della rete geografica e richieste di upgrade CCR 31/3/2015 (Roma) S.Zani.
Aggiornamento sui lavori di ampliamento degli impianti infrastrutturali del TIER1 e stato delle risorse Cristina Vistoli – Massimiliano Fiore INFN-CNAF.
1 ALICE I ITER2 DI ALICE IN ITALIA Bologna, 6 marzo 2007 M. Masera
19/4/2013 D. Menasce, M. Serra - Referaggio Progetti INFRA e WLCG 1.
CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 1 ATLAS Referaggio Tier2 Attività di TeV Attività di TeV Richieste.
Referaggio TIER2 di Pisa 30 giugno 2006 Silvia Arezzini (Servizio Calcolo e Reti)
TIER-2: Risorse e tabella di marcia M.L. Ferrer. 5/12/2005 M.L. Ferrer Referaggio TIER-2 LNF 2 Presenti Calcolo: Massimo Pistoni Claudio Soprano Dael.
Il Computing di ATLAS Gianpaolo Carlino Referaggio LHC CNAF, 24 Luglio 2008 Il Computing Challenge I Tier2 I Tier2 Attività e Richieste 2009 Attività e.
Referaggio Calcolo ATLAS II Gianpaolo Carlino INFN Napoli Catania, 12 Settembre 2012 Risorse e Richieste 2013 nei preventivi Aggiornamento in seguito all’allungamento.
Impianti Elettrici per Tier LNF Ing. Ruggero Ricci Resp. Servizio Impianti Elettrici DTSG - LNF 20 giugno 2011.
Test di storage a 10 Gbps proposta. Storage server a 10Gbps Si vuole vedere quali prestazioni si possano ottenere da server connessi a 10 GE –capacita’
G. Maggi 24/1/2006 Il Progetto del TIER2 di Bari Giorgio Maggi.
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
The INFN Tier-1: progetto di ampliamento Cristina Vistoli – INFN CNAF Referee Meeting Sep
Il Computing di ATLAS Gianpaolo Carlino CSN1 Roma, 2 Giugno 2008 Il Computing Challenge I Tier2 I Tier2 Richieste finanziarie 2008 Richieste finanziarie.
ATLAS Italia – Sestri Levante, 15 Giugno 2010 G. Carlino – Richieste Run Efficiency = time for physics / total time LHC Efficiency = time with colliding.
1 Bari, 21 Settembre 2011 G. Carlino – ATLAS: il calcolo ATLAS: il Calcolo Attività di Computing nel 2011 Attività di Computing nel 2011 Richieste Tier2.
CCR - Roma 15 marzo 2007 Gruppo storage CCR Report sulle attivita’ Alessandro Brunengo.
Il calcolo per l’esperimento GERDA Luciano Pandola INFN, Laboratori del Gran Sasso Riunione della CSN2, LNF Frascati, 29 Novembre 2011.
Gianpaolo Carlino Bologna, 6 Marzo 2007 Stato dei Tier-2 Italiani di ATLAS Attività nei Tier-2 Attività della Federazione dei Tier-2 Risorse disponibili.
L’infrastruttura del progetto ReCaS Paolo Lo Re on behalf of ReCaS collaboration.
Referaggio Calcolo ATLAS Gianpaolo Carlino INFN Napoli CNAF, 11 Maggio 2012 Attività di Computing ATLAS Attività di Computing in Italia Risorse e Richieste.
L.Perini Milano: 10 Gennaio Ex-ATLAS-Grid (Tier2 incluso) l Ruolo dei Tiers in ATLAS e grid l Le persone di Milano e le attività l Le infrastrutture.
CNAF. storage Siamo in una fase di tuning con lo storage, che al momento sembra essere un collo di bottiglia 1.~10 giorni fa vista saturazione GPFS.
ATLAS: il calcolo Alessandro De Salvo A. De Salvo – 25 maggio 2015.
ATLAS: il calcolo A. De Salvo A. De Salvo – 1 settembre 2015.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
CSN1 – Torino, 17 Maggio 2010 G. Carlino – ATLAS: Calcolo ATLAS Calcolo LHC 2011 Attività di TeV Attività di TeV Risorse.
Tier 2 dell’esperimento Atlas ai LNF
Stato Computing ATLAS Gianpaolo Carlino INFN Napoli
Transcript della presentazione:

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 1 Referaggio Tier2 ATLAS Attività di Computing 2009 Attività di Computing 2009 Stato dei Tier2 e uso delle risorse Stato dei Tier2 e uso delle risorse Risorse 2010 Risorse 2010 Gianpaolo Carlino INFN Napoli 17 Marzo 2010

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 2 Attività di computing ATLAS fine 2009 inizio 2010

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier LHC Run – Data Taking LHC data 2009 TB 23/11 – 16/12: LHC Data Taking Open trigger (low threshold) Event rate molto basso, rate istantaneo fino a 800 MBps  RAW data grandi e ESD piccoli Event size: 5 MB  full calorimenter read-out for commissiong Real Time processing al Tier0 o Accumulati 220 TB o 1 PB circa considerando le repliche distribuite in Grid projectRAW (TB*)ESD (TB)AOD (TB)DESD (TB)NTUP (TB)TAG (TB) 1beam GeV TeV Total (TB) dettaglio dati fino al 16 dicembre

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier LHC Run – Data Distribution MB/s per day Total data throughput through the Grid (Tier0, Tier-1s, Tier-2s) Beam splashes First collisions Nov.Dec. Cosmics End of data taking MB/s

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier LHC Run – Data Distribution Calibration Tier-2s Tiers Of ATLAS CERN (TAPE,DISK,TZERO,DAQ) 10 Tier-1s : Calibration Tier-2s + UniGe + BNL 50 Tier-2s 1-11 Tiers per cloud RAW data transferred to tape RAW data transferred to disk derived data transferred to disk Tier-0 T1 cT2 T2 CERN RAW data i Tier1 ricevono i RAW data dal Tier0 (disco e tape) in base al proprio share 3 Tier1 (BNL, Lyon e SARA) ricevono dagli altri Tier1 i rimanenti RAW (copia completa) Tot: 3.5 repliche su disco (normale e’ la copia su tape in ogni Tier1 in base al proprio share) ESD data replica a tutti i Tier1 e ai Tier2 in base al proprio share (normale 2 copie sui Tier1) AOD e dESD data 1 copia in ogni Tier1 (normale 2 copie sui Tier1) copia nei Tier2 di ogni cloud in base al proprio share (normale 10 copie nei Tier2, not cloud based) 18 copie Distribuzione eccezionale dei dati

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier LHC Run – Data Distribution Distribuzione dei RAW data sbilanciata perché lo share della cloud si applica # di dataset e non al reale volume di dati. Alla lunga si bilancera’. Piccola quantità di RAW arrivati al CNAF Dataset ai T1Dataset ai T2 Efficienza di distribuzione 100%

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier LHC Run – Data Distribution 7G. Carlino

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 8 8 TW : NL : ES : CA : DE : UK : FR : IT : US : ALBERTA ROMA DESY IFAE MWT2 TOKYO ΔΤ[h] = TcompleteReplica - Tsubscription NDGF has unique data distribution model within cloud 2009 LHC Run – Data Distribution Maggior parte dei siti stabili 50 Tier2 su 75 coinvolti Performance simili nei T2 italiani In media i dati sono disponibili ai Tier2 per l’analisi in circa 4 ore

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier LHC Run – Reprocessing 2 Campagne: Dicembre 2009 e Febbraio )Dec 18 - Jan 11 : “fast repro” del 10% dei dati site validation, task submission, reprocessing, merging 3 steps: RAW -> ESD & HIST & NTUP & TAG ESD -> AOD & DESD & DESDM MERGING 2) Feb 11 – Mar 10: site validation, task submission, reprocessing, merging 2 steps: RAW -> ESD & AOD & HIST & NTUP & TAG & DESD & DESDM MERGING Problemi evidenziati al CNAF a causa della grande richiesta di memoria per la ricostruzioni di alcuni eventi (>4GB)

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 10 G. Carlino LHC Run – Reprocessing Dicembre 2009 Febbraio 2010 RAW  ESD ESD  AOD RAW  ESD

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier LHC Run – Reprocessing AOD, dESD e TAG replicati al CERN, ai Tier1 e quindi ai Tier2 NTUP replicate al CERN e ai calibration Tier2 e BNL Vengono distribuiti sono gli AOD, dESD …… mergiati per ottenere file di grandi dimensioni (O (GB)) per ottimizzare i trasferimenti

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 12 G. Carlino Simulazione MC Production jobs running in each cloud 16 Feb 2009 – 15 Feb k TB Simulated data produced 1 Jul 2009 – 15 Feb 2010 Produzione MonteCarlo in background alle altre attivita’ nei Tier1 e Tier2  Produzione MC09: 185 M events (soprattutto MB) a 900 GeV (con differenti opzioni di simulazione) 20 M events (MB) a 2.36 TeV e 55 M events a 10 e 7 TeV (prodotti nella prima parte dell’anno)  Reprocessing (con la stessa release dei dati) in dicembre

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier Simulazione MC Uso delle CPU nella Grid per “Country” nei Tier1 e Tier2 per la VO ATLAS (EGEE portal) Numero di job running nelle cloud Ottobre 2009 – Marzo 2010 (ATLAS dashboard)

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier LHC Run – Distributed Analysis Dati distribuzione organizza centralmente con DDM/DQ2 in base al Computing Model Athena distribution kits installazione organizzata centralmente in EGEE, OSG e NG User jobs Modello: “i job vanno dove sono i dati” User output registrati sullo SCRATCHDISK del sito o trasferiti sul LOCALGROUPDISK del proprio Tier2/Tier3 recupero con i dq2 tools sul proprio Tier3/desktop

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier LHC Run – Distributed Analysis I dati sono stati analizzati in Grid dall’inizio del data taking: formati più analizzati RAW e ESD per studi di performance dei detector gli AOD e i dESD saranno i formati più popolari nel prossimo futuro per l’analisi dei dati Analisi effettuata soprattutto ai Tier2 e in qualche Tier1. Spesso anche in locale poiché il limitato volume di dati ha permesso agli utenti di copiarli con i tool di dq2 Distribuzione delle richieste di accesso ai dataset con Grid per sito. 68 siti coinvolti

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier LHC Run – Distributed Analysis Ganga/WMS (Nov 09 – Gen 10) Panda è il principale sistema di sottomissione dei job in ATLAS e viene richiesto di fornire un ampio share nei sistemi batch di tutti i siti Nei Tier2: 50% produzione – 50% analisi (40% panda – 10% wms) Alcune cloud (IT e DE) usano prevalentemente Ganga/WMS e il rapporto si inverte In media circa 10k job con WMS e 30k job Panda (che però ha un diverso sistema di job splitting) e 350 utenti WMS e 900 Panda I primi dati raccolti da LHC non hanno consentito di saturare le risorse dei Tier2 con le attività di analisi. Però ci hanno permesso di valutare criticamente il funzionamento dei tool e evidenziare gli aspetti migliorabili

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 17 Group Analysis Attività di skimming e slimming dei gruppi di Fisica e Performance di ATLAS Selezione dei siti (faticosa) in base alle performance determinate dai test periodici di analisi (Hammer Cloud), all’affidabilità e alla disponibilità di spazio disco. Milano, Napoli e Roma hanno superato senza problemi la selezione. Frascati supera le metriche di performance e affidabilità ma non ha lo spazio disco necessario. Faremo richiesta dopo le installazioni in corso

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 18 Attivita’ italiane La Federazione dei Tier2 gestisce i Tier2 italiani, fornisce supporto al Tier1 e coordina le attività di computing di Atlas in italia Inoltre: responsabilità nel management della VO responsabilità nella distribuzione del software di ATLAS nella Grid gestione di una pilot factory per la sottomissione di job di produzione attraverso il WMS contributo allo sviluppo di Ganga e all’user-support di analisi distribuita contributo alle attività dell’ADC shift in control room e in remoto (ADCOS) D. Barberis Computing Coordinator dal 03/2003 al 02/2010 e attualmente Database Coordinator

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 19 Uso delle risorse in Italia e stato dei Tier2

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 20 Uso risorse al CNAF

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 21 Uso risorse al CNAF Plot WLCG - VO ATLAS

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 22 G. Carlino Uso risorse al CNAF Monitor CNAF Risorse disponibili Pledge 2008: 960 kSI2k

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 23 Uso risorse nei Tier2 - CPU L’accounting dalla fine del 2009 ad oggi mostra correttamente l’uso delle risorse con il giusto rapporto dovuto alle risorse effettivamente in produzione nei Tier2 di ATLAS

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 24 Uso risorse nei Tier2 - CPU L’accounting del GOCDB nei mesi precedenti è sbagliato perché non ha tenuto conto del cambio di nome del Tier2 di Milano dopo il passaggio a STORM. I dati del vecchio sito si sono persi.

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 25 Uso risorse nei Tier2 - CPU HLRMON conserva i dati di entrambi i siti milanesi pre- e post-STORM

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 26 Uso risorse nei Tier2 - CPU L’accounting dalla fine del 2009 ad oggi mostra il corretto rapporto dovuto alle risorse effettivamente in produzione nei Tier2 di ATLAS

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 27 Uso risorse nei Tier2 - disco

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 28 Reliability & Availability Availability = time_site_is_available/total_time Reliability = time_site_is_available/ (total_time-time_site_is_sched_down)

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 29 Reliability & Availability

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 30 Infrastrutture l Si sono realizzate fra fine 2009 e inizio 2010 o migliorie al sistema di canalizzazione aria o Potenziamento del sistema di distribuzione potenza elettrica: i lavori sono avvenuti in gennaio e quindi la sostituzione dischi dei nuovi WN e la loro messa in produzione hanno dovuto essere rimandati o Potenziamento del sistema rilevazione temperatura (visibile anche da remoto) per migliore controllo sul funzionamento condizionatore l Si sta esplorando la possibilità di sostituire almeno uno dei chiller (in funzione da 5 anni, nell’ultimo anno la manutenzione e’ stata troppo costosa, con troppi interventi necessari) Tier2 Milano

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 31 STORM e funzionamento in produzione l La messa in produzione di STORM si e’ rilevata molto più lenta del previsto, le difficoltà tecniche sono state su GPFS, non STORM, e molto tempo e’ andato nel setting up di un nuovo sito, anche dal lato del sistema di produzione di ATLAS o In marzo 2009 il sistema era funzionante per le funzionalità di base (vedi CHEP09), e un nuovo sito per test con STORM e le macchine CNAF per 391 HEPspec e’ stato creato in GOC o In maggio si e’ eseguita con successo una lunga produzione ATLAS in grid ma con sottomissione locale, il pieno inserimento nel sistema di produzione ATLAS e’ stato ottenuto solo nella seconda metà di luglio, quando ha iniziato anche a funzionare l’accounting del nuovo sito, il ritorno ad un unico sito in ottobre ha comportato ulteriori (minori) problemi l I punti critici con GPFS sono stati la configurazione dei clusters e page-pools, la configurazione accessi e soprattutto l’area sw; un paio di malfunzionamenti hw di rete hanno complicato la situazione, facendo risorgere sospetti sulla configurazione dopo che era già buona e stabile (in novembre-dicembre). Tier2 Milano

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 32 l Con tutto ciò Milano ha comunque mantenuto una reliability/availability media sull’anno 2009 come rilevata da LCG di 89% e 86%, ha partecipato sempre con onore a tutte le attività ATLAS (vedi anche il profilo in accounting, del tutto simile agli altri Tier2-ATLAS_Italia), e ha soddisfatto le esigenze di una vivace comunità di utenti (ospita GROUPDISK per 2 gruppi di fisica e sta svolgendo una delle prime produzioni per il gruppo e-gamma). Solo l’ uso delle risorse (per altro “anziane” ed allocate esplicitamente anche per scopi di test) e’ stato un po’ meno efficiente che negli altri siti, e si e’ richiesto un grosso sforzo alle persone di supporto del Tier2 (abbiamo “bruciato” l’esperto STORM-GPFS di Milano, che ci lascia a fine aprile) o da notare che da febbraio 2010 è diventato impossibile usare in produzione per ATLAS le macchine CNAF ancora in linea (233 HS) dato che la maggioranza delle releases sono incompatibili con SL4 e PANDA è incapace di scegliere la coda/CE SL4 solo per le releases compatibili Futuro: LA PRODUZIONE l Per il futuro questo profilo del sito, come mix fra produzione e test su larga scala, sarebbe insostenibile e fuori tempo. l Milano si concentrerà sul funzionamento in produzione, con attività di testing ridotte, motivate solo dalle esigenze utenti e che potranno contare solo su una frazione molto limitata delle risorse Tier2 Milano

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 33 Tier2 Milano – accounting risorse

CNAF, 12 Giugno 2009 G. Carlino – ATLAS – Referaggio Tier2 34 INFN NAPOLI UNINA SCOPE 2x1 Gbps 1 Gbps 2x1 Gbps TIER2 10 Gbps 2x10 Gbps POP GARR M.S. Angelo TIER2 1 Gbit Network connection tra SCoPE, INFN e il POP GARR: 10 fibre a 10 Gbps the i 10 rack SCoPE ATLAS e la sala INFN Tier2 Napoli Tier2 doppio sito: INFN (4 rack) e SCoPE (10 rack) 1 Gbps 10 Gbps Possibilità di utilizzo di un set di nodi di SCoPE per la produzione (in condivisione con le altre VO del progetto), serviti da un CE secondario pubblicato dal sito INFN-NAPOLI-ATLAS (Tier2)

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 35 Tier2 Napoli Collegamento diretto al Garr, in attesa del GarrX. Back-up link verso la sezione

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 36 Tier2 Napoli Nuovo chiller per la sala INFN installato in febbraio 2010 Potenza 160 kW, dimensionato per 10 rack (utilizzabile quindi anche per il centro di calcolo e altri progetti della sezione) Ridondanza: macchina frigorifera composta di 2 banchi con 2 compressori ognuno. 2 pompe gemellate che lavorano in alternanza per il trasporto dell’acqua ai rack

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 37 Tier2 Napoli – accounting risorse

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 INFN Roma Tier2 Center INFN Roma Tier2 Center GARR RM-1 GARR RM-2 2 Gbps 1 Gbps 10 Gbps CX4 10 Gbps Fibra 1 Gbps 3COM 4500G Cisco 3750 Range di indirizzamento – Tutti indirizzi in rete pubblica Range di indirizzamento – Tutti indirizzi in rete pubblica 1 Gbps 3COM 4500G ATLASATLASCMSCMSVIRGOVIRGO D-link DGS1248T Tier2 Roma INFN Roma Network

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 39 Tier2 Roma – accounting risorse

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 40 o Alberto Annovi è il nuovo responsabile del proto-Tier2 di ATLAS a Frascati o Si sta procedendo con l’ampliamento della sala calcolo o È partito l’ordine per l’ampliamento fisico della sala macchine o Partiti gli incarichi per la preparazione dei progetti di: adeguamento della potenza elettrica erogabile adeguamento dell’impianto di condizionamento potenza 220kW o Richieste complessive: Energia Elettrica 220 kW Servita tramite UPS (~15 minuti di autonomia) Gruppo Elettrogeno a monte dell’UPS Condizionamento termico (ridondato) per estrarre circa 220 KW Gruppo Elettrogeno a monte del sistema di condizionamento Proto-Tier2 Frascati

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 41 Edificio Calcolo attualmente CalcoloTier 2 Kloe Garr Nastri utenti Altri experim Uffici Proto-Tier2 Frascati

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 42 Calcolo Tier 2 Kloe Garr Nastri utenti Altri experim QE Blindosbarre Fancoils Quadro Elettrico Edificio Calcolo a lavori ultimati Proto-Tier2 Frascati

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 43 UPS Genera- tore Cabina elettrica Linea ENEL Condiz CalcoloTier2 + GARR Srv Fancoil Locale tecnico Calcolo Cavi elettrici Blindosbarre Tubi idraulici Situazione attuale degli impianti Proto-Tier2 Frascati

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 44 Cabina elettrica Linea ENEL Condiz Fancoil CalcoloTier-2 Srv Genera- tore Fancoil Condiz Dafne Fancoil Locale tecnico Calcolo UPS Cavi elettrici Blindosbarre Tubi idraulici Proto-Tier2 Frascati Progetto per le nuove infrastrutture

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 45 Proto-Tier2 Frascati – accounting risorse

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 46 Risorse nei Tier2 46

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 47 CPU Disco (TBn) HS06WNcoreTBnserver LNF Milano Napoli Roma Tot CPU  Installazioni: acquisti 2009 in produzione a Napoli e Roma da gennaio, a Milano da inizio marzo e la settimana prossima a Frascati  Obsolescenza: in tutti i siti sono già state dismesse parte delle risorse obsolete ( ). La maggior parte (p.es. macchine CNAF a Milano) è in corso di dismissione in quanto SL4 non è più supportato  OS: per tutti i WN è stata misurata la potenza di calcolo in HS06 con SL5 Disco  Installazioni: acquisti 2009 verranno installati la prossima settimana  Spazio disco netto reale, riportato dall’srm Risorse disponibili nei Tier2 Risorse disponibili

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 48 Gare Tier CPU Twin biprocessori-quadcore Processore E5520 (stiamo studiano per quali processi possiamo usare l’HyperThreading) circa 100 HS06 per WN 24 GB di RAM 8 Twin Mi, Na, Rm e 3 Twin Lnf Disco 4 disk -server con schede 10 Gbps 4 FC per controller 0.9 GBps throughput Controller Box + 8 JBOD Dischi 2 TB Tot disco sistema completo: 216 TB acquistati: sistemi completi (216 TB) a Mi e Na, 168 TB a Rm, 48 TB a Lnf

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 49 Finanziamenti 2010 Concezio CSN1 Sett. 09

Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 50 CPU (HS06) Disco (TBn) LNF Milano Napoli Roma Tot Previsione risorse 2010 nei Tier2 Le stime 2010 sono ottenuto considerando: i finanziamenti assegnati nel settembre 2010 le nuove stime dei costi: 30 €/HS e 700 €/TBn concordate con gli esperti INFN gli acquisti già effettuati a Mi, Na, Rm per completare i sistemi di storage acquistati nel 2009 (~ 20k€ per sito)

Referaggio, 17 Marzo 2009 G. Carlino – ATLAS – Referaggio Tier2 51 LHC running: 2010 e 2011 Assunzioni Rate200 Hz Run efficiency70% LHC efficiency40% LHC Operations 2010Marzo 2010 – Marzo mesi max 2011Aprile 2011 – Marzo mesi max Run Efficiency = time for physics / total time LHC Efficiency = time with colliding beam/ time for physics LHC parameters 2010 (old)2010 (new)2011 Run (days) Time (Msec) Real Data (M ev)

Referaggio, 17 Marzo 2009 G. Carlino – ATLAS – Referaggio Tier T2 Italia T2 ATLAS (old) T2 ATLAS (new) T2 It/ATLAS Pledgesufficiali Uso IT CPU (kHS06) ,3%12 (5%)25% Disco (PBn) ,7%1.0 (4%)43% Previsione risorse 2010 nei Tier2 Variazioni significative per i Tier2 che compensano l’aumento del numero di secondi: CPU: riduzione share simulazione (45%) e riduzione simulation time da 8 kHS a 6 kHS Disco: riduzione frazione RAW I buoni acquisti di disco effettuati nel 2009 ci permetteranno, se le stime degli acquisti 2010 saranno corrette, di avere una disponibilità un po’ superiore a quanto previsto precedentemente. Potrà quindi aumentare lo share “pledged” a circa 1.3 PB, lasciando circa il 25% delle risorse all’uso italiano, in modo da conservare una quantità maggiore di dati ATLAS in Italia

Referaggio, 17 Marzo 2009 G. Carlino – ATLAS – Referaggio Tier2 53 CNAF Gara Opzione base Gara Opzione 1 Gara Opzione 2 CPU (kHS06) Disco (PBn) Risorse al Tier1 Gare 2009 Opzione base: installazione CPU in corso, installazione disco a fine aprile. Pledges da soddisfare il 1 Giugno E’ auspicabile esercitare il prima possibile le opzioni previste dalle gare