G. Carlino – Referaggio Computing ATLAS 1 Napoli, 5 Luglio 2011 ATLAS Referaggio Tier2 Analisi Analisi Richieste Tier2 2012 Richieste Tier2 2012 Gianpaolo.

Slides:



Advertisements
Presentazioni simili
Fisica Subnucleare – Esperimento ATLAS
Advertisements

E835 & Hera-B Concezio Pisa, 21/12/2004. E835 (aka Jet-FNAL) timeline dell'esperimento –Presa dati conclusa nel Alcune analisi tuttora in corso.
U.Gasparini, Bologna 8/11/06 1 Canali di fisica di interesse… Discussione in seno alla comunita italiana di CMS a Bologna, Giovedi mattina 23 Novembre,
Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
ATLAS Muon Trigger Slice Francesco Conventi per il gruppo sw ATLAS/Napoli Riunione Gruppo1, Napoli 17/12/2007.
Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
La facility nazionale Egrid: stato dell'arte Egrid-Team Trieste, 9 ottobre 2004.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
Alessia Tricomi Università & INFN Catania
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
Analysis unibo una proposta. Work flow di una tipica analisi 1.Simulazione di piccoli campioni di eventi per studio segnale 2.Generazione in grande.
Ricostruzione dei muoni: Stato e piani futuri. Roma, 13 settembre 2001 Gruppo Moore Gruppo 1 Premesse Nel panorama della ricostruzione dei muoni il package.
16 Maggio CSN1 Computing-Software-Analysis CMS-INFN TEAM Analisi in CMS: stato e prospettive del supporto italiano.
6 Febbraio 2006CSN1 - Roma1 MEG : relazione dei referees P. Cenci R. Contri P. Morettini M. Sozzi.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
CSN Maggio 2005 P. Capiluppi Il Computing Model (LHC) nella realta’ italiana u I Computing models degli esperimenti LHC gia’ presentati a Gennaio.
1 LHCb Computing Angelo Carbone, INFN-CNAF CSN1, 21/9/06 Aggiornamento richieste Tier Richiesta Tier-2 al CNAF Stato e risultati DC06.
Calcolo esperimenti LHC 2004 F. Ferroni, P. Lubrano, A. Martin, M. Morandin, M. Sozzi.
Gruppo di referaggio: Forti (chair), Bossi, Ferrari, Menasce, Morandin, Simone, Taiuti, Zoccoli TIER2: Update F. Bossi, CSN1 Trieste 7/7/05.
Stato del calcolo in BaBar e richieste per il 2004, F. Galeazzi, Giugno 2003 Calcolo in BaBar Stato e richieste al CSN1 per il 2004 presentato da F. Galeazzi.
Tier-2 ATLAS Tier-2 Lamberto Luminari CSN1 – Roma, 10 Ottobre 2005.
CDF Relazione dei Referee G. Bruni, P. Giubellino, L. Lista, P. Morettini, L. Moroni, V. Vercesi CSN1 – Maggio 2006.
Halina Bilokon ATLAS Software di fisica DC1 – DC2 DC1 aprile fine 2003 (versioni di software  3.x.x – 7.x.x)  Validation del Software  Aggiornamento.
CDF I referee Roma, 16 Maggio Tevatron OK Fisica Stanno pubblicando –Bene Nostre principali preoccupazioni su B s -mixing –Sulla base dei loro.
CDF Calcolo Another brick in the wall Paolo Morettini CSN1 Lecce Valerio Vercesi Settembre 2003.
ATLAS Computing Model Lamberto Luminari CSN Gennaio, 2005.
ATLAS: il calcolo Alessandro De Salvo A. De Salvo – 3 maggio 2013.
ATLAS PRIN Alessandro De Salvo A. De Salvo – 12 novembre 2015 Cloud Computing Condivisione di risorse tra gruppi EventIndex LHCONE PoD T2D.
BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015.
26 Giugno 2007CSN1 - Frascati1 Temi di attualità nella CCR Accanto alla tradizionale attività di controllo dei finanziamenti per le infrastrutture di calcolo.
Calcolo a LHC CB 23 maggio 2011 Quadro generale Gare CPU e disco.
D. Martello Dip. Fisica - Lecce Sintesi piani esperimenti CSN2 CNAF 7-marzo-2007.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Lecce 30 Settembre 2015.
Atlas Italia - Milano, 17/11/2009 G. Carlino – News dal Computing 1 1 News dal computing Gianpaolo Carlino INFN Napoli Atlas Italia, Milano, 17/11/09 Nuovo.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
1 referee-BaBar CSN I, LNF giugno 2007 RELAZIONE DEI REFEREE DI BaBar M.De Palma, C.Luci, C.Troncon, B.Gobbo(calcolo) 26 giugno 2007.
Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 1 ATLAS Attività di TeV Attività di computing Attività di computing.
Il primo anno di presa dati di LHC L’esperienza di calcolo nell’esperimento ATLAS Attività condotte nel 2010 e prospettive future Lorenzo Rinaldi (INFN-CNAF)
Roma, 13 Luglio 2010 G. Carlino – Referaggio Tier2 ATLAS 1 ATLAS Referaggio Tier2 Attività di TeV Attività di TeV Richieste 2011.
Referaggio sigla CALCOLO D. Bonacorsi, G. Carlino, P. Morettini CCR – Roma 9 Settembre 2014.
ATLAS e CMS Relazione dei referees A. Cardini, M. Grassi, G. Passaleva, A. Passeri, V.Vagnoni.
FESR Trinacria Grid Virtual Laboratory PROGETTO “MAMMO” Sviluppo e ottimizzazione di algoritmi adattativi, specificatamente di Artificial.
19 Ottobre 2012ATLAS Milano1 Stato delle risorse locali di calcolo L. Carminati, L. Perini, D. Rebatto, L. Vaccarossa.
Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 1 Referaggio Tier2 ATLAS Attività di Computing 2009 Attività di Computing 2009 Stato dei.
1 Firenze, 6 Settembre 2011 G. Carlino – Relazione Referaggi Computing ATLAS Relezione Riunioni Referaggio Calcolo ATLAS Computing Model News Computing.
ANALISI DISTRIBUITA IN ATLAS L’esperienza degli utenti Attilio Picazio Università di Napoli “Federico II” – INFN Napoli 18/05/11Attilio Picazio - Workshop.
ATLAS Relazione dei referees A. Cardini, M. Grassi, D. Lucchesi, G. Passaleva, A. Passeri.
Study of coincidences due to 40 K photons between adjacent OMs Paolo Fermani & ROMA group Catania Università di Roma «La Sapienza» – INFN Roma.
CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 1 ATLAS Referaggio Tier2 Attività di TeV Attività di TeV Richieste.
Referaggio Tier2 Frascati INFN - Laboratori Nazionali di Frascati 20/06/2011.
Il Computing di ATLAS Gianpaolo Carlino Referaggio LHC CNAF, 24 Luglio 2008 Il Computing Challenge I Tier2 I Tier2 Attività e Richieste 2009 Attività e.
Atlas TDAQ E. Pasqualucci INFN Roma. Sommario Attivita’ di fine 2008 – inizio 2009 Preparazione per i run con fasci Trigger con luminosita’ iniziali 16/9/20092E.
Referaggio Calcolo ATLAS II Gianpaolo Carlino INFN Napoli Catania, 12 Settembre 2012 Risorse e Richieste 2013 nei preventivi Aggiornamento in seguito all’allungamento.
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
The INFN Tier-1: progetto di ampliamento Cristina Vistoli – INFN CNAF Referee Meeting Sep
ATLAS Distributed Computing e Data Management Alessandro De Salvo Outline 
ATLAS Italia – Sestri Levante, 15 Giugno 2010 G. Carlino – Richieste Run Efficiency = time for physics / total time LHC Efficiency = time with colliding.
1 Bari, 21 Settembre 2011 G. Carlino – ATLAS: il calcolo ATLAS: il Calcolo Attività di Computing nel 2011 Attività di Computing nel 2011 Richieste Tier2.
P. Morettini 19/5/ Paolo Morettini - ATLAS Italia - Napoli.
Il calcolo per l’esperimento GERDA Luciano Pandola INFN, Laboratori del Gran Sasso Riunione della CSN2, LNF Frascati, 29 Novembre 2011.
Gianpaolo Carlino Bologna, 6 Marzo 2007 Stato dei Tier-2 Italiani di ATLAS Attività nei Tier-2 Attività della Federazione dei Tier-2 Risorse disponibili.
L’infrastruttura del progetto ReCaS Paolo Lo Re on behalf of ReCaS collaboration.
Referaggio Calcolo ATLAS Gianpaolo Carlino INFN Napoli CNAF, 11 Maggio 2012 Attività di Computing ATLAS Attività di Computing in Italia Risorse e Richieste.
Report dalla CSN Settembre Sala dei Mappamondi - Torino Gianpaolo Carlino – CCR 25/10/2012.
ATLAS: il calcolo Alessandro De Salvo A. De Salvo – 25 maggio 2015.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Domenico Elia1 Calcolo ALICE: stato e richieste finanziarie (aggiornamenti) Domenico Elia Riunione Referee Calcolo LHC / Bologna, Riunione con.
Stima risorse LHC LHC - Tier2 2 periodi
ATLAS Italia Computing Richieste 2007 (Tier-2 e locali)
Transcript della presentazione:

G. Carlino – Referaggio Computing ATLAS 1 Napoli, 5 Luglio 2011 ATLAS Referaggio Tier2 Analisi Analisi Richieste Tier Richieste Tier Gianpaolo Carlino INFN Napoli Napoli, 5 Luglio 2011

G. Carlino – Referaggio Computing ATLAS 2 Computing Model news

Napoli, 5 Luglio 2011 G. Carlino – Referaggio Computing ATLAS 3 ATLAS Cloud Model Modello gerarchico basato sulla topologia di rete di Monarc Comunicazioni possibili: T0-T1 T1-T1 Intra-cloud T1-T2 Comunicazioni vietate: Inter-cloud T1-T2 Inter-cloud T2-T2 Limitazioni: Impossibile fornire una replica di dati per l’analsi ad ogni cloud Trasferimenti tra le cloud attraverso salti multipli tra I Tier1 User analysis outputs MC confinato nella cloud Tier2 non utilizzabili come repository di dati primari per il PD2P o di gruppo

Napoli, 5 Luglio 2011 G. Carlino – Referaggio Computing ATLAS 4 ATLAS Cloud(less) Model Breaking the Wall La rete attuale permette il superamento del modello Monarc: molti Tier2 sono già ben connessi con molti Tier1 Abilitazione delle connessioni inter cloud Superamento di una gerarchia stretta tra Tier1 e Tier2 Scelta dei Tier2 adatti alcuni Tier2 invece sono mal collegati anche con il proprio Tier1 Non tutti I Tier2 hanno le dimensioni e le performance necessarie

Napoli, 5 Luglio 2011 G. Carlino – Referaggio Computing ATLAS 5 Tier2 Diretti T2D – Tier2 “Directly Connected” Tier2 connessi direttamente tra di loro a tutti i Tier1 Storage per dati primari come i Tier1 Preplacement di una quota di dati Data source per il PD2P Group data Disponibilità di una quota di disco nei Tier1 come cache Requirement molto stretti Metriche di trasferimento con tutti I Tier1 Livello di commitment e relibility adeguato Avg(Byterate)+StD(Byterate) SMALL<0.05MB/s<0.1MB/s≥0.1MB/s MEDIUM<1MB/s<2MB/s≥2MB/s LARGE<10MB/s<15MB/s≥15MB/s T2D approvati: INFN-NAPOLI- ATLAS, INFN-MILANO-ATLASC, INFN-ROMA1 IFIC-LCG2, IFAE, UAM-LCG2 GRIF-LPNHE, GRIF-LAL, TOKYO-LCG2 DESY-HH, DESY-ZN, LRZ-LMU, MPPMU MWT2_UC,WT2, AGLT2,BU_ATLAS_Tier2, SWT2_CPB UKI-LT2-QMUL, UKI-NORTHGRID-LANCS-HEP, UKI-NORTHGRID-MAN-HEP, UKI-SCOTGRID-GLASGOW Siti che faranno parte da subito di LHCOne

Napoli, 5 Luglio 2011 G. Carlino – Referaggio Computing ATLAS 6 PD2P update Placement dinamico dei dati in base alla loro popolarità 2010 buoni risultati di ottimizzazione dello spazio disco Diminuzione delle repliche pre-placed e trasferimento solo di dati utili per l’analisi Spazio disco ai Tier2 in gran parte usato come cache 2011 – fino a giugno Cancellazione dei cloud boundaries: trasferimenti infra-cloud Trasferimenti anche ai Tier1 in base al reutilizzo dei dati già trasferiti e al numero di richieste di accesso al singolo dataset Dati trasferiti: AOD e NTUP molto più leggeri degli ESD del 2010  diminuzione della banda occupata Analisi del comporamento e modifiche 2011 – da luglio L’algoritmo di brokering del PD2P che include I trasferimenti ai Tier1 è risultato favorire troppo I siti con molte CPU penalizzando eccessivamente I Tier2. Pochi dati trasferiti nel periodo Maggio-Giugno Modifiche del brokering dei dati ai Tier2: si è deciso di aumentare le repliche di AOD e NTUP fino a 3, in base alle dimensioni e alle performance dei siti, aggiungendo inoltre due copie pre-placed di NTUP, formato molto popolare e leggero Test in corso fino a settembre

Napoli, 5 Luglio 2011 G. Carlino – Referaggio Computing ATLAS Kaushik De 7 Data type trasferiti con il PD2P

Napoli, 5 Luglio 2011 G. Carlino – Referaggio Computing ATLAS 8 Data Trasfers I dati ai Tier2 vengono trasferiti con: 1.PD2P (Data brokering) 2.Datri (user subscription) 3.Group Subscription

Napoli, 5 Luglio 2011 G. Carlino – Referaggio Computing ATLAS 9 Analisi in ATLAS e attività italiane

Napoli, 5 Luglio 2011 G. Carlino – Referaggio Computing ATLAS 10 1)B Physics i.Onia ii.B->JpsiX iii.Rare and semileptonic decays iv.Hadronic B decays2) 2)Top i.top reconstruction ii.top cross-section iii.top mass iv.single top v.top properties 3)Standard Model i.W/Z Physics ii.Jet Physics iii.Soft QCD iv.Direct Photons v.ElectroWeak vi.W/Z + jets 4)Higgs i.h->gamma gamma ii.h->ZZ iii.h->WW iv.h->tau tau (MS and MSSM) and h -> mumu (NMSSM) v.complex final states *(H^+, ttH, H->bb) 5)SUSY i.SUSY background studies ii.EtMiss based signatures iii.RPV and long-lived signatures 6)Exotic i.Lepton + X ii.Jet + X iii.Di-bosons + X iv.Long-lived particles 7)Heavy Ions i.HI Jets ii.HI Muons iii.HI JetValidation iv.Elliptic Flow Analysis v.Multiplicity Analysis ATLAS Physics Working Groups + attivita’ di performance e rivelatori

Napoli, 5 Luglio 2011 G. Carlino – Referaggio Computing ATLAS 11 Attività Italiane 1)Bologna i.Top asimmetrie ii.Z  ll iii.J/ψ  μμ iv.Drell-Yan v.RPC & LVL1 muon trigger 2)Cosenza i.Exotics ii.Standard Model iii.Muon calibration 3)Frascati i.WW, WZ + jets, ii.Z  μμ iii.Etmiss iv.Muon Performance v.FTK 4)Genova i.D* e D*μ ii.Calibrazione b-tagging iii.dE/dx per esotici iv.top cross section 9)Pisa i.Inclusive e Multijet cross section ii.γ + jet cross section iii.WW  lνjj iv.H  ττ 10)Roma1 i.Higgs  ZZ ii.Exotics iii.Muon Calibration 11)Roma2 i.Higgs  4l ii.Z asimmetria FB iii.Z/W diff cross section iv.RPC calibration 12)Roma3 i.Higgs  WW ii.Muon Trigger iii.Muon calibration 13)Udine i.Top asimmetrie FB ii.Fondi W+jet e QCD iii.SUSY (1,2 leptons final state) 5)Lecce i.Muon Reco & RPC ii.HLT e Muon Trigger iii.SUSY (1,2 leptons final state) iv.W/Z + b  l(l) + b-jet 6)Milano i.Tracking ii.Egamma calibration iii.EtMiss iv.W(ττ) v.Z  ττ, H  ττ vi.Direct Photons vii.H  γγ viii.Top asimmetrie ix.SUSY (1,2 leptons final state) 7)Napoli i.J/ψ  μμ ii.B-> μμ iii.Higgs  ZZ iv.LVL1 muon trigger 8)Pavia i.SUSY (1,2 leptons final state) ii.Standard Model Tutte le attività elencate prevedono l’analisi dei dati in griglia e/o localmente Molte di queste sono clusterizzate tra varie sezioni

G. Carlino – Referaggio Tier2 ATLAS 12 Napoli, 5 Luglio 2011 Ruolo italiano nell’analisi - talks

G. Carlino – Referaggio Tier2 ATLAS 13 Napoli, 5 Luglio 2011 Responsabilità nell’Analisi Conveners Working Groups: 2008: 4 (mu, SUSY, SM, Higgs) 2009: 6 (mu, mu, SM, SUSY, Higgs, PAT) 2010: 5 (mu, tracking, PAT, SM-Z/W, Exotic-Trigger) 2011: 4 (tracking, SM-ZW, Exotic-LLP-Trigger) Physics Coordinator 2010 – 2011 Membri degli Speakers, Autorship e Publications Committees: 2008: : : : 4 Computing: Computing Coordinator 7 anni fino al 2010 Chair Computing Speakers Committee 2011/12

Napoli, 5 Luglio 2011 G. Carlino – Referaggio Computing ATLAS 14 Ruolo italiano nell’analisi - pubblicazioni Articoli o note con significativo contributo italiano: autori nelle note di supporto 7 editors nel 2011

Napoli, 5 Luglio 2011 G. Carlino – Referaggio Computing ATLAS 15 Produzione produzione centralizzata di AOD e ESD nella prompt reconstruction al Tier0 e nei reprocessing ai Tier1 produzione centralizzata di Derived AOD e ESD (DAOD e DESD) attaverso skimming e slimming produzione di gruppo “centralizzate” di ntuple e di gruppi di utenti (D3PD e NTUP) RAW AOD D3PD NTUP DAOD DESD ESD Workflow (principale) di analisi fase 1: skimming da AOD/ESD/D3PD e produzione di ntuple D3PD o NTUP eseguito centralmente dai working group eseguito in Griglia output in GROUPDISK o LOCALGROUPDISK fase 2: skimming/slimming dei D3PD e produzione di NTUP di (sotto)gruppo leggere eseguito da utenti o gruppi locali eseguito in Griglia output in LOCALGROUPDISK fase 3: analisi finale NTUP nei LOCALGROUPDISK dei Tier2/3 eseguita in Griglia con PRUN o eseguita in locale con ROOT/PROOF Utilizzo formati di analisi RAW utilizzati solo per la ricostruzione e presenti solo nei Tier1 ESD utilizzati solo per analisi di performance e presenti solo nei Tier1 AOD/D3PD/NTUP molto utilizzati DAOD e DESD utilizzo molto marginale, formato in via di estinzione Come si fa l’analisi

G. Carlino – Referaggio Tier2 ATLAS 16 Napoli, 5 Luglio 2011 Utilizzo dei formati di dati # utenti individuali che accedono alle code di analisi in IT – evidente incremento in giugno

G. Carlino – Referaggio Tier2 ATLAS 17 Napoli, 5 Luglio 2011 Utilizzo dei formati di dati

G. Carlino – Referaggio Tier2 ATLAS 18 Napoli, 5 Luglio 2011 Ruolo dei Tier2 nell’analisi Storicamente (TDR) ATLAS prevedeva di conservare in ogni cloud una copia completa di dati (AOD) per l’analisi. Lo spazio disco necessario a tale scopo si è rivelato eccessivo soprattutto con l’inizio della presa dati, per cui si è ridotto il numero di copie che sono disponibili nella Griglia I dati sono distribuiti in tutta la Griglia e i job runnano nei siti (sia Tier1 che Tier2) dove sono i dati (massima democrazia) I Tier2 sono grandi cache di disco per i principali formati di dati di ATLAS Non esiste quindi una corrispondenza Tier2  canale di analisi molti Tier2 hanno uno spazio pledged di gruppo, gestito dai gruppi di ATLAS ogni Tier2 ha uno spazio disco locale a disposizione degli utenti nazionali questi spazi disco vengono utilizzati per l’ultima fase delle analisi in entrambi I casi l’accesso diretto ai dati (p.es. GPFS) permette l’uso dello storage anche per attività interattive (ROOT/PROOF). Milano con Storm ne fa già uso, gli altri Tier2 con DPM, in attesa di un’eventuale migrazione alla fine del run 2012, stanno valutando ipotesi alternative (nfs4.1, xroot)

Napoli, 5 Luglio 2011 G. Carlino – Referaggio Computing ATLAS 19 Attivita’ ultimi 3 mesi (T1 dovrebbe essere 25%) Ruolo dei Tier2 nell’analisi

Napoli, 5 Luglio 2011 G. Carlino – Referaggio Computing ATLAS 20 Aree di storage previste DATADISK: area permanente, pledged, per i dati “centrali” di ATLAS GROUPDISK: area permanete, pledged, per i dati dei gruppi di fisica e performance SCRATCHDISK: area temporanea, pledged, presente in tutti i siti in cui si svolge l’analisi destinata ai dati degli utenti. Ripulita ogni 15 giorni o quando piena LOCALGROUPDISK: area permanente, non pledged, destinata a conservare i dati degli utenti Organizzazione Spazio Disco in ATLAS

Napoli, 5 Luglio 2011 G. Carlino – Referaggio Computing ATLAS 21 Organizzazione Spazio Disco in ATLAS Necessario uno spazio disco locale (LOCALGROUPDISK) nei TierN per conservare i dati dei gruppi e degli utenti italiani nei Tier2 O(100 TB) per conservare l’intera statistica di dati degli utenti italiani nei Tier3 O(10 TB) per conservare sample ridotti per interattivo, sviluppo e definizione dell’analisi

G. Carlino – Referaggio Tier2 ATLAS 22 Napoli, 5 Luglio 2011 Ruolo dei Tier2 nelle performance e calibrazioni Precisa caratterizzazione dei Tier2 Italiani, in seguito alle attività di costruzione e di studio delle performance dei rivelatori e del trigger Frascati Fast Tracker (FTK) Milano Studio Performance EtMiss e calibrazioni EM Napoli RPC e LVL1 muon calibration Roma1 MDT calibration (centro ufficiale di calibrazione)

G. Carlino – Referaggio Tier2 ATLAS 23 Napoli, 5 Luglio 2011 Two time-consuming jobs in tracking: Pattern recognition & Track fitting Pattern recognition – find track candidates with enough Si hits –10 9 prestored patterns (roads) simultaneously see the silicon hits leaving the detector at full speed. –Based on the Associative Memory chip (content-addressable memory) initially developed for the CDF Silicon Vertex Trigger (SVT). Sviluppo di un nuovo AMchip a 65nm (Frascati, Milano, Pisa) Sviluppo di nuove tecniche di pattern matching a risoluzione variabile FTK a Frascati

G. Carlino – Referaggio Tier2 ATLAS 24 Napoli, 5 Luglio 2011 FTK simulation requirements – RAM order of 100GB (40 pileup events) – RAM order of 500GB (75 pileup events) Subdivide in 128 or 1024 parallel subjobs – Processign time ~ 20*128 s/event (40 pileup events) – Processign time ~ 20*1024 s/event (75 pileup events) – Initialization takes 6 min/job – FTK simulation on the grid: 3 steps with separate prun submissions – Grid submission made easy with FTK specific submission scripts Prepare FTK configuration and handle in a user-friendly way the 3 step processing Disk space usage few TB on LOCALGROUP FTK simulation integrated with grid 2009 Initiated at MWT2 (local files), now at INFN-Frascati and INFN cloud Increase of resources at Frascati, will allow more jobs to be run at INFN-Frascati FTK a Frascati - simulazione

G. Carlino – Referaggio Tier2 ATLAS 25 Napoli, 5 Luglio 2011 L’attivita’ consiste nello studio di performance di EtMiss al fine di fornire ai gruppi di fisica la migliore calibrazione di EtMiss e anche lo studio delle sue sistematiche. Fasi del lavoro di analisi: –Vengono utilizzate ntuple di ROOT (D3PDs) prodotte centralmente dal Working Group Jet/Etmiss in cui sono salvate tutte le configurazioni di EtMiss necessarie per l’analisi a Milano ma anche tutte le collezioni di jet per studi specifici. –Le ntuple vengono poi slimmate utilizzando “prun”, salvando in un formato piu’ ridotto solo le grandezze necessarie per l’analisi EtMiss di Milano. –Le ntuple vengono poi sottoscritte sullo SE del Tier2 di Milano nell’area LOCALGROUPDISK. –Una volta che le ntuple sono arrivate a Milano, grazie a GPFS e’ possibile accedere in locale ai dati sullo SE del Tier2 per eseguire l’analisi che puo’ avvenire : O in modo interattivo direttamente sulle UI, in caso si debba mettere a punto il programma di analisi o processare una statistica ridotta O tramite sottomissione di job sulle code batch del Tier3 di Milano, in caso si debba processare l’intera statistica. –Il programma di analisi utilizzato (MissingETPerformance) consiste in un package in Athena in grado di runnare sia sul formato AOD/ESD che D3PDs. EtMiss performance a Milano

G. Carlino – Referaggio Tier2 ATLAS 26 Napoli, 5 Luglio 2011 HITS Digit Custom NTuples Reco CalibHit Parameters Hits in active material Hits in inactive and dead material Evgen Simulation Digitization Reconstruction Reconstructed quantities Calibration Hit Code Run on the GRID Set of Root Macros  HITS files di elettroni e fotoni singoli (~20M single particle) dalla produzione centrale  HITS sottoscritti in egamma groupspace in MILANO  Digi+Reco+codice di analisi per produrre ntuple di calibrazione con pathena e output salvato su egamma groupspace in Milano Calibrazione EM a Milano

Napoli, 5 Luglio 2011 G. Carlino – Referaggio Computing ATLAS 27 RPC calibration a Napoli Muon Calibration Stream diretta a Napoli dal Tier0

Napoli, 5 Luglio 2011 G. Carlino – Referaggio Computing ATLAS 28 RPC calibration a Napoli Attività in corso dal Risorse necessarie medie: O(100) job slots per la fase di creazione delle ntuple (dipende dal run da analizzare), durata qualche ora per job. Veloci le altre fasi. Muon stream in CALIBDISK – dimensione prevista 30 TB

Napoli, 5 Luglio 2011 G. Carlino – Referaggio Computing ATLAS WEB Display of RPC online histograms for recent runs Crontab job starts daily a macro reading the files of the online histograms (on a afs area at cern) and producing an event display, reachable via web: Tool: python, root RPC online monitoring a Napoli

Napoli, 5 Luglio 2011 G. Carlino – Referaggio Computing ATLAS A Crontab job starts daily a scripts submitting a C++ code running via grid on calibration ntuple (CALIBDISK & T2 Napoli) Scripts for retrieving dataset list, submitting jobs on grid and retrieving the outputs already bundled in the package Tools:C++, dq2, panda, prun Finalise the scripts for automatic subscription Consider to adopt the Local Calibration Data Splitter used for the MDT calibration and RPC efficiency Implement recent code for timing Implement and event display via web Make it compatible for a shift-like approach, documentation included ongoing LVL1 muon trigger monitoring a Napoli

Napoli, 5 Luglio 2011 G. Carlino – Referaggio Computing ATLAS Calibrazione Determinazione dei t0 /mezzanino (gruppo di 24 tubi) e delle RT-relations /camera per ogni run di collisioni utilizzando muoni selezionati dalla calibration stream. Se si osservano cambiamenti significativi  Upload delle costanti per la ricostruzione Data Quality Analisi con alta statistica del funzionamento delle camere e report ai meeting quotidiani  Collaborazione con centri di MPI-Monaco e University of Michigan. Turni comuni: il turnista per 8 ore “vede” e “opera” sui 3 centri simultaneamente  Situazione molto stabile delle camere. RT stabili ben entro 20  m. t0 stabili entro 1 ns; unico problema rilevante sono I “t0 jumps” Differenze tra RT-relations di 2 run T0-jump MDT calibration a Roma

Napoli, 5 Luglio 2011 G. Carlino – Referaggio Computing ATLAS CPU Risorse condivise con il Tier2, configurate in modo da avere fino a 550 job slot in alta priorità disponibili per le attività di calibrazione. Raramente abbiamo visto più di 200 job contemporanei di calibrazione dopo l’introduzione dei nuovi algoritmi di filtro. Due macchine configurate per l’esecuzione degli splitter (LCDS) di calibrazione, ospitate per il momento su due WN, condivisi fra attività nel batch system e attività interattive dell’LCDS. Tutte le attività di calibrazione vengono svolte tramite sottomossione diretta alle code locali riservate e analisi interattiva (sia automatica tramite LCDS che manuale di sviluppo e controllo) Disco Muon Calibration Stream diretta a Roma dal Tier0 CALIBDISK: 31 TB riservati per le bytestrem di calibrazione, gestito via DDM, con trasferimenti automatici dal T0 CALIBSCRATCH: 22 TB riservati per file temporanei di calibrazione, non gestito dal DDM ma localmente tramite LCDS MDT calibration a Roma - risorse

G. Carlino – Referaggio Computing ATLAS 33 Napoli, 5 Luglio 2011 Produzione in ATLAS > 50k job simultanei (60k negli ultimi 2 mesi). Produzione: Ricostruzione (T1), Simulazione e Analisi di gruppo (produzione centralizzata di D3PD in alcuni gruppi) Previsione simulazione MC 2011: 1000M fullsim 2012: 600M full M fast Numero medio di jobs di produzione running per cloud

G. Carlino – Referaggio Computing ATLAS 34 Napoli, 5 Luglio 2011 Analisi in ATLAS > 10k job simultanei (15k negli ultimi mesi). Riduzione analisi nel Aumento attività analisi di gruppo: aumento della coordinazione. Minore caoticità e duplicazione dei dati centralizzazione della produzione: in molti casi “accountata” come produzione Aumento negli ultimi 2 mesi e ritorno ai livelli del 2010 Numero medio di jobs di analisi running per cloud

G. Carlino – Referaggio Computing ATLAS 35 Napoli, 5 Luglio 2011 Utilizzo risorse in Italia WCT consumptions dei job di produzione. Giugno 2010 – Maggio 2011

G. Carlino – Referaggio Computing ATLAS 36 Napoli, 5 Luglio 2011 Utilizzo risorse in Italia WCT consumptions dei job di analisi. Giugno 2010 – Maggio 2011

G. Carlino – Referaggio Computing ATLAS 37 Napoli, 5 Luglio 2011 INFN-FRASCATI 5 Utilizzo risorse in Italia WCT consumptions e # jobs di analisi. Aprile – Giugno 2011 INFN-FRASCATI 47,43 0

G. Carlino – Referaggio Computing ATLAS 38 Napoli, 5 Luglio Utilizzo risorse in Italia Processing shares. Aprile – Giugno 2011

G. Carlino – Referaggio Computing ATLAS 39 Napoli, 5 Luglio 2011 Sharing risorse nei Tier2 Job running su un Tier2 nell’ultimo mese: Produzione Analisi WMS Analisi Panda Analisi Panda ruolo italiano Job running su un Tier2 nell’ultimo mese: Produzione Analisi WMS Analisi Panda Analisi Panda ruolo italiano Attenzione: Gli italiani vengono mappati sia su panda che su panda/it Analisi di gruppo (p.es calibrazione) risulta come produzione gli italiani con certificato CERN (non pochi) vengono mappati su panda Attenzione: Gli italiani vengono mappati sia su panda che su panda/it Analisi di gruppo (p.es calibrazione) risulta come produzione gli italiani con certificato CERN (non pochi) vengono mappati su panda

Napoli, 5 Luglio 2011 G. Carlino – Referaggio Computing ATLAS 40 Analisi nei Tier2 Giugno 2011

Napoli, 5 Luglio 2011 G. Carlino – Referaggio Computing ATLAS 41 Uso del disco nei Tier2 Pochi dati trasferiti in maggio – giugno nei Tier2 di tutto ATLAS Il meccanismo di brokering del PD2P ha penalizzato pesantemente i Tier2 nel trasferimento dei dati Il formato più trasferito è NTUP, leggero Le modifiche al PD2P già discusse porteranno in trasferimenti ai livelli attesi

G. Carlino – Referaggio Computing ATLAS Napoli, 5 Luglio Reliability & Availability – 2010/11 Availability = time_site_is_available/total_time Reliability = time_site_is_available/ (total_time-time_site_is_sched_down)

43 G. Carlino – Referaggio Tier2 ATLAS Napoli, 5 Luglio 2011 Tier2 Frascati – risorse WORKER NODES - LNF # WNTipoProcessore# CPUcore/CPU# core fisici# job slotsRAMHEP SPEC boxHEP SPECData acquistostatoData dismissione 31U Xeon 2.8 GHz21222 GB9,6328,89 apr-04 off Blade Opteron GHz22444 GB31,13 gen-06 server Blade Opteron GHz22444 GB31,13 gen-06 server Blade Opteron GHz22444 GB31,1362,26 gen-06 server Blade Opteron GHz22444 GB31,1362,26 gen-06 off Blade Xeon E GHz GB72,12216,36 gen-08 on obs12 4Blade Xeon E GHz GB72,12288,48 apr-08 on obs12 1Blade Xeon E GHz GB72,12 gen-09 on obs12 6Twin Xeon E5520 2,27 Hz GB92,83556,98 gen-10 on 4Twin Xeon E5620 2,4 GHz GB98,95395,80 mar-11 on 8Twin Xeon E5620 2,4 GHz GB98,95791,60 apr-11 new11 18 totale now ,7 26 totale ,3 off ,3obsol ,0 STORAGE - LNF Tipo# BoxDischiTB/DiscoTBrTBn# ServerDataStatoData 1DAS 1 2,21,4 apr-04off2009 2FC2SATA 1170,46,54,8 1 dic-05off2010 3FC2SATA 1180,46,85,1dic-06off2010 4FC2SATA gen-08on giu-08on 5FC2SATA apr-10on 6FC2SATA lug-10on new new12 tot now 192,0156,04 tot ,0258,05 obs off 20110obsol 20120

44 G. Carlino – Referaggio Tier2 ATLAS Napoli, 5 Luglio 2011 Tier2 Frascati – accounting risorse

45 G. Carlino – Referaggio Tier2 ATLAS Napoli, 5 Luglio 2011 Tier2 Milano – risorse WORKER NODES - MI # WN Processore# CPUcore/CPU# core fisici# job slotsRAMHEP SPEC boxHEP SPECData acquistostatoData dismissione 101U Xeon 2.4 GHz21221 GB0,00 giu-03 off U Xeon 2.4 GHz21221 GB0,00 giu-03 off U Xeon 2.8 GHz21223 GB9,6328,89 gen-04 off U Xeon 2.8 GHz21223 GB9,63125,19 gen-04 off U Opteron GHz22444 GB31,13124,52 gen-06 on obs 11U Xeon GHz22444 GB45,30 mar-07 server U Xeon GHz22444 GB45,30 mar-07 on obs12 21U Xeon E ,83 GHz GB73,74147,48 gen-08 on obs12 31U Xeon E ,83 GHz GB73,74221,22 gen-08 proof obs12 291U Xeon 3,0 GHz21224 GB10,32299,22 apr-08 off U Xeon 3,0 GHz21224 GB10,32237,31 apr-08 off U Xeon 3,0 GHz21224 GB10,32206,36 apr-08 server obs 8Twin Xeon L GHz GB65,65525,20 dic-08 on 12Twin Xeon E5520 2,27 GHz GB92,831113,96 gen-10 on 10Twin Xeon E5520 2,27 GHz GB92,83928,30 mar-10 on 14Twin Xeon E5620 2,4 GHz GB102,21430,80 apr-11 on 4Quad Xeon E5650 2,7 GHz GB162,81651,24 new11 22Twin Xeon E5645 2,4 GHz GB144,723183,84 new11 51 totale now ,6 73 totale ,8 obsol ,9 off 20110obsol ,0 STORAGE - MI Brand# BoxDischiTB/DiscoTBrTBn# Server Data 1Infortrend 2240,524,015,61gen-06onobs 2Xyratex ,0381?onobs12 5DotHill giu-08on 18 6DotHill dic-08on 18 7DotHill dic-08on 18 8DotHill mar-10on 9Hitachi apr-11on new new12 tot now 808,0667,612 tot ,0856,016 obs ,6 obsol

46 G. Carlino – Referaggio Tier2 ATLAS Napoli, 5 Luglio 2011 Tier2 Milano – accounting risorse

47 G. Carlino – Referaggio Tier2 ATLAS Napoli, 5 Luglio 2011 Tier2 Napoli – accounting risorse

48 G. Carlino – Referaggio Tier2 ATLAS Napoli, 5 Luglio 2011 Tier2 Napoli – accounting risorse WORKER NODES - NA # WN Processore# CPUcore/CPU# core fisici# job slotsRAMHEP SPEC boxHEP SPECData acquistostatoData dismissione 11U Xeon 2.8 GHz21222 GB9,63 dic-03 off U Xeon 2.8 GHz21222 GB9,6357,78 dic-03 off U Opteron 250 GHz21224 GB16,28 dic-05 off U Opteron 250 GHz21224 GB16,28146,52 dic-05 on obs 3Blade Xeon GHz22448 GB26,3979,17 dic-06 off Blade Xeon GHz22448 GB26,39184,73 dic-06 on obs 5Blade Xeon E5430 2,66 GHz GB72,12360,60 gen-08 on obs12 6Blade Xeon E5430 2,66 GHz GB72,12432,72 apr-08 on obs12 5Blade Xeon E5430 2,66 GHz GB72,12360,60 ott-08 on obs12 8Twin Xeon E5420 2,5 GHz GB70,77566,16 gen-09 on 16Twin Xeon E5520 2,27 Hz GB92,831485,28 gen-10 on 20Twin Xeon E5620 2,4 GHz GB98,951979,00 mar-11 on 20Twin Xeon E5645 2,4 GHz GB144,722894,40 new11 76 totale now ,6 80 totale ,8 obsol ,3 off 20110obsol ,9 STORAGE - NA Tipo# BoxDischiTB/DiscoTBrTBn# Server Data 1? 1160,58,05,41dic-05offgiu-09 2IBM 4160,53224,72dic-06offapr-11 3DotHill giu-08on 18 4DotHill giu-08on 18 5DotHill dic-08on 18 6DotHill dic-08on 18 7DotHill mar-10on 8Hitachi mar-11on new new12 tot now 792,0660,016 tot ,0864,020 obs off 20110obsol 20120

49 G. Carlino – Referaggio Tier2 ATLAS Napoli, 5 Luglio 2011 Tier2 Roma1 – risorse STORAGE - RM Brand# BoxDischiTB/DiscoTBrTBn# ServerDataStatoData 1? 1160,406,45,121dic-05offgiu-09 2? 1480,5024,018,141dic-06onobs 3DotHill gen-08on 181giu-08on 4DotHill giu-08on 18 5DotHill dic-08on 18 6DotHill dic-08on 18 7DotHill mar-10on 21apr-11on 8Hitachi mar-11on new new12 tot now 816,0678,117 tot ,0864,020 obs ,14 off 20110obsol WORKER NODES - RM # WN Processore# CPUcore/CPU# core fisici# job slotsRAMHEP SPEC boxHEP SPECData acquistostatoData dismissione 141U Xeon 2.8 GHz21222 GB9,63134,82 dic-03 off U Opteron GHz22448 GB30,10180,60 off U Xeon GHz22448 GB41,31 dic-06 off U Xeon GHz22448 GB41,31247,86 dic-06 on obs 14Twin Xeon E GHz GB67,86950,04 gen-08 on obs12 8Twin Xeon E GHz GB67,86542,88 set-08 on obs12 6Twin Xeon E GHz GB70,87425,22 gen-09 on 14Twin Xeon E5520 2,27 Hz GB92,831299,62 dic-09 on 4Twin Xeon E5520 2,27 Hz GB92,83371,32 giu-10 on 8Twin Xeon E5620 2,4 GHz GB102,2817,60 feb-11 on 24Twin Xeon E5645 2,4 GHz GB144,723473,28 new11 60 totale now ,5 76 totale ,0 obsol ,9 off 20110obsol ,9

50 G. Carlino – Referaggio Tier2 ATLAS Napoli, 5 Luglio 2011 Tier2 Roma1 – accounting risorse

51 G. Carlino – Referaggio Tier2 ATLAS Napoli, 5 Luglio 2011 Richieste 2012

G. Carlino – Referaggio Computing ATLAS 52 Napoli, 5 Luglio 2011 Modifica della stima delle risorse necessarie rispetto alle previsioni del 2010 a causa di: o variazioni dell’attività di LHC: run 2012 e shut-down 2013 richiedono un maggior numero di risorse per il computing o pile-up molto più alto del previsto (μ=6 ora e μ=15 previsto in autunno) provocato dall’aumento della densità dei fasci raddoppio delle dimensioni degli eventi e del tempo di ricostruzione: 100 HS-sec determinato dai dati 2010 raddoppiato a 200 HS-sec Risorse 2011 già determinate per cui si è reso necessario modificare il CM, in particolare riducendo il numero di repliche dei dati primari nelle cloud: 1 copia di RAW nei Tier1 rolling buffer del 10% di ESD nei Tier1 10 copie di AOD (2 Tier1 e 8 Tier2) in tutte le cloud 2 copie di dESD nei Tier1 e 4 nei Tier2 somma dESD = somma AOD in base a questo modello le risorse 2012 aumentano molto poco o nulla rispetto all’RRB 2010 Richieste 2012

G. Carlino – Referaggio Computing ATLAS 53 Napoli, 5 Luglio 2011 Computing Model – Input parameters Dimensioni degli eventi raddoppiate a causa del pileup

G. Carlino – Referaggio Computing ATLAS 54 Napoli, 5 Luglio 2011 Computing Model – Input parameters

G. Carlino – Referaggio Computing ATLAS 55 Napoli, 5 Luglio 2011 Risorse “pledged” per attività - CPU Attività principali: Simulazione e analisi di gruppo e di utente. Simulazione e analisi di gruppo condivise con i Tier1. leggero aumento rispetto al 2011 per l’attività degli utenti. In assoluto aumenti molto contenuti grazie alla modifica del Computing Model. Richieste identiche a quelle effettuate nell’RRB 2010!!!!  Simulazione: 10% di ATLAS 5600 HS  Attività gruppi: 8 gruppi (2 gruppi a Milano, Napoli e Roma e 2 nuovi gruppi a Frascati) su ~ 100 gruppi ATLAS HS  Analisi ATLAS: 10% di ATLAS (quota “pledged” escludendo l’attività italiana) HS

G. Carlino – Referaggio Computing ATLAS 56 Napoli, 5 Luglio 2011 Risorse “pledged” per attività - disco  Simulazione MC: 50% di una replica completa 1000 TB + 60 TB (buffer produzione)  Dati pp: 50% di una replica completa 1313 TB  Attività gruppi: 8 gruppi (2 gruppi a Milano, Napoli e Roma e 2 nuovi a Frascati) 600 TB (75 TB per gruppo)  Analisi: area scratch per utenti generici 100 TB (area scratch per utenti generici)

G. Carlino – Referaggio Tier2 ATLAS 57 Napoli, 5 Luglio 2011 Risorse “pledged” - riepilogo Attività CPU (HS06) Disco (TBn) LHC data taking 1320 Simulazione Gruppi ATLAS Analisi Totale T2 Italia T2 ATLAS T2 It/ATLAS CPU (kHS06) 28, % Disco (PBn) 3,08496,3% Nel nuovo modello di calcolo di ATLAS per i Tier2 acquista maggiore importanza la disponibilità di CPU rispetto allo storage. Utile per la competitività dei siti conservare le stesse pledge 2010 per il disco (~6%) aumentare quelle delle CPU a ~10% come al CNAF

G. Carlino – Referaggio Computing ATLAS 58 Napoli, 5 Luglio 2011 Risorse per attività italiane Storage: Necessità assoluta Spazio disco locale (LOCALGROUP) nei Tier2 e Tier3 per ogni attività italiana. ATLAS non considera nessuna area di storage permanente per gli utenti Queste aree possono essere ospitate sia nei Tier2 che nei Tier3 con diverse funzionalità e dimensioni: Tier2: dimensione O(100 TB) - utilizzo per ospitare campioni completi dei dati prodotti da tutti gli utenti e i gruppi italiani Tier3: dimensione O(10 TB) – utilizzo per ospitare campioni ridotti dei dati per definire e tunare le analisi con tool interattivi e batch locale. Sviluppo del codice Le aree locali nei Tier2 e Tier3 vanno considerati complementari. L’aumento dell’attività nei Tier3 porta a rimodulare le richieste diminuendo lo spazio disco richiesto nei Tier2 a favore di quello dei Tier3 Inoltre il nuovo modello di utilizzo del disco dei Tier2 come cache permette di limitare le richieste pledged a favore dell’area locale di storage permanente CPU: aumento della competitività La disponibilità di CPU oltre le risorse pledged da dedicare agli italiani permette di aumentare notevolmente la competitività dei siti

G. Carlino – Referaggio Computing ATLAS 59 Napoli, 5 Luglio 2011 Risorse per attività italiane Analisi Italiana – Disco 11 TB medi per attività considerando in prospettiva la statistica totale del TB in ogni Tier3 (2 in attività finanziati nel 2011 (RM3, GE) + 2 in attività con altri finanziamenti (BO, UD) + 2 da finanziare nel 2012 (LE, RM2)) = 150 TB 400 TB nei Tier2 (~200 TB gia’ occupati) Analisi Italiana – CPU 200 HS medio per attività 600 HS in ogni Tier3 (6 Tier3) = 3600 HS 6400 HS nei Tier2 # gruppi attivi: ~ 50 nelle 13 sezioni alcune attività clusterizzate tra varie sedi dimensioni dei gruppi e utilizzo risorse molto vario Dimensionamento medio risorse necessarie: misura risorse necessarie attualmente con 1 fb -1 stima con 10 fb -1, considerando sia l’aumento dei dati che del MC (non lineare) statistica attuale o ultimo fb conservabile su LOCALGROUP al Tier3, statistica intera necessariamente da ospitare in LOCALGROUP al Tier2

G. Carlino – Referaggio Computing ATLAS 60 Napoli, 5 Luglio 2011 Risorse totali - riepilogo Attività CPU (HS06) Disco (TBn) Pledged Analisi Italiana Totale

G. Carlino – Referaggio Tier2 ATLAS 61 Napoli, 5 Luglio 2011 Richieste Tier Per la stima dei costi necessari per server e rete ci si è attenuti all’algoritmo Bozzi: Server: ~10% Disco e CPU Rete: ~8% Disco e CPUCPUDiscoServerRete HS06K€TBnK€ Necessità attività Risorse disponibili Richieste  CPU: 18 €/HS06  Disco: 440€/TBn Per la stima dei costi di CPU e Disco si è considerata l’esperienza delle ultime gare e le analisi di mercato che continuiamo a svolgere CPU (HS06) Disco (TBn) Frascati Milano Napoli Roma Tot Risorse disponibili Richieste

G. Carlino – Referaggio Tier2 ATLAS 62 Napoli, 5 Luglio 2011 Richieste Tier Dettaglio per Tier2 è in corso la validazione di Frascati come Tier2 ufficiale  pieno supporto del Direttore dei Laboratori e del gruppo  lavori infrastrutturali in corso  referaggio concluso divisione delle risorse in parti uguali tra i 4 Tier2 a parte piccoli aggiustamentiCPUDiscoReteServerTotaleCons. HS06K€TBnK€ Frascati Milano Napoli Roma Tot 8540obs265640obs Le risorse acquistate nel 2008 per le CPU e precedenti per il disco vanno considerate obsolete nel 2012 e sostituite da nuove: (obs) nelle colonne HS06 e TBn. Il dettaglio per ogni Tier2 è presente nelle tabelle consegnate ai referee

G. Carlino – Referaggio Tier2 ATLAS 63 Napoli, 5 Luglio 2011 Tier2 Frascati - infrastrutture Potenza risorse da installare : 6.7 kW storage 2011 da installare a ottobre (144 TB + 2 server) = 1.7 kW CPU 2012 = ~ 6 KW Potenza disponibile nella sala calcolo temporanea: spegnimento sistema informativo = 3.5 KW spegnimento blade IBM obsoleto = 2 KW ~ 1 KW disponibile nella struttura attuale posizionando il nuovo rack in zone a bassa densita’ Calcolo Tier 2 Kloe Garr Nastri utenti Altri experim QE

G. Carlino – Referaggio Tier2 ATLAS 64 Napoli, 5 Luglio 2011 Richieste Tier3 Tier3 in attività in ATLAS: Bologna, Genova, Roma3, Udine/Trieste Richieste 2012 per 2 nuovi Tier3: Lecce farm già esistente in sezione con risorse ridotte e vecchie richiesta di diventare Tier3 “Grid enabled” CPU: 2 twin (4 WN) = 9 K€ Disco: sostituzione dischi da 750 GB a 2 TB, totale 26 TB = 6 K€ Roma2 nuova farm richiesta di diventare Tier3 “Grid enabled” CPU: 2 twin (4 WN) = 9 K€ Disco: NAS con 20 TB = 6 K€