ANALISI DISTRIBUITA IN ATLAS L’esperienza degli utenti Attilio Picazio Università di Napoli “Federico II” – INFN Napoli 18/05/11Attilio Picazio - Workshop.

Slides:



Advertisements
Presentazioni simili
POLITECNICO DI BARI Facoltà di Ingegneria
Advertisements

Fisica Subnucleare – Esperimento ATLAS
E835 & Hera-B Concezio Pisa, 21/12/2004. E835 (aka Jet-FNAL) timeline dell'esperimento –Presa dati conclusa nel Alcune analisi tuttora in corso.
1 Relatori: Chiar.mo Prof. Giacomo Piscitelli Chiar.mo Dott. Marcello Castellano Laureando: Livio Murianni A.A. 2002/2003 Determinazione mediante Reti.
23/01/01Alberto Masoni – GR1 - Roma1 I MODELLI DI CENTRI REGIONALI POSIZIONE DI ALICE ITALIA CENTRO ITALIANO: CPU 450 KSI95, DISCO 400 TB (INSIEME TIER-1.
L. Perini CSN1 -Roma 23 Gen Centri Regionali per il calcolo di ATLAS in Italia Tier-1 e Tiers-N : funzioni, localizzazione, necessita di h/w, personale.
Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
Comitato Tecnico sullInteroperabilità MUR, L. Merola.
ATLAS Muon Trigger Slice Francesco Conventi per il gruppo sw ATLAS/Napoli Riunione Gruppo1, Napoli 17/12/2007.
Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
La facility nazionale Egrid: stato dell'arte Egrid-Team Trieste, 9 ottobre 2004.
Tier1 - cpu KSI2k days ATLAS KSI2k days CMS. Tier1 - storage CASTOR disk space CMS requires: T1D0, T0D1 ATLAS requires: T1D0, T0D1 and T1D1.
Conclusioni M. Paganoni workshop CMS Italia, Napoli 13-14/2/07.
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
Servizi Grid ed agenti mobili : un ambiente di sviluppo e delivering
Alessia Tricomi Università & INFN Catania
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
ATLAS Distributed Analysis Lamberto Luminari CSN1 – Roma, 16 Maggio 2006.
Analysis unibo una proposta. Work flow di una tipica analisi 1.Simulazione di piccoli campioni di eventi per studio segnale 2.Generazione in grande.
Test Storage Resource Manager per SC4 Giacinto Donvito Vincenzo Spinoso.
16 Maggio CSN1 Computing-Software-Analysis CMS-INFN TEAM Analisi in CMS: stato e prospettive del supporto italiano.
Gestione del processore (Scheduler)
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
CSN Maggio 2005 P. Capiluppi Il Computing Model (LHC) nella realta’ italiana u I Computing models degli esperimenti LHC gia’ presentati a Gennaio.
Attivita' Grid in BaBar Workshop sulle Problematiche di Calcolo e Reti nell'INFN Maggio 2004.
1 LHCb Computing Angelo Carbone, INFN-CNAF CSN1, 21/9/06 Aggiornamento richieste Tier Richiesta Tier-2 al CNAF Stato e risultati DC06.
Tier-2 Tier-2 ATLAS (Osservazioni sulla proposta dei referee del calcolo LHC) Lamberto Luminari CSN1 – Roma, 3 Aprile 2006.
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
ATLAS Computing Model Lamberto Luminari CSN Gennaio, 2005.
ATLAS PRIN Alessandro De Salvo A. De Salvo – 12 novembre 2015 Cloud Computing Condivisione di risorse tra gruppi EventIndex LHCONE PoD T2D.
BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015.
R. Brunetti INFN - Torino. Contenuti Cosa e’ uno CSIRT Gestione della sicurezza in EGI/IGI e IGI-CSIRT Servizi ed attivita’ previste Collaborazione con.
26 Giugno 2007CSN1 - Frascati1 Temi di attualità nella CCR Accanto alla tradizionale attività di controllo dei finanziamenti per le infrastrutture di calcolo.
Riunione PRIN STOA - Bologna - 18 Giugno 2014 Testbed del T2 distribuito Napoli-Roma Dr. Silvio Pardi INFN-Napoli Riunione PRIN STOA – Bologna 18 Giugno.
D. Martello Dip. Fisica - Lecce Sintesi piani esperimenti CSN2 CNAF 7-marzo-2007.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Lecce 30 Settembre 2015.
Atlas Italia - Milano, 17/11/2009 G. Carlino – News dal Computing 1 1 News dal computing Gianpaolo Carlino INFN Napoli Atlas Italia, Milano, 17/11/09 Nuovo.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 1 ATLAS Attività di TeV Attività di computing Attività di computing.
Il primo anno di presa dati di LHC L’esperienza di calcolo nell’esperimento ATLAS Attività condotte nel 2010 e prospettive future Lorenzo Rinaldi (INFN-CNAF)
Claudio Grandi Workshop CCR 2015 Claudio Grandi INFN Bologna.
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
Roma, 13 Luglio 2010 G. Carlino – Referaggio Tier2 ATLAS 1 ATLAS Referaggio Tier2 Attività di TeV Attività di TeV Richieste 2011.
FESR Trinacria Grid Virtual Laboratory PROGETTO “MAMMO” Sviluppo e ottimizzazione di algoritmi adattativi, specificatamente di Artificial.
19 Ottobre 2012ATLAS Milano1 Stato delle risorse locali di calcolo L. Carminati, L. Perini, D. Rebatto, L. Vaccarossa.
Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 1 Referaggio Tier2 ATLAS Attività di Computing 2009 Attività di Computing 2009 Stato dei.
1 Firenze, 6 Settembre 2011 G. Carlino – Relazione Referaggi Computing ATLAS Relezione Riunioni Referaggio Calcolo ATLAS Computing Model News Computing.
19/4/2013 D. Menasce, M. Serra - Referaggio Progetti INFRA e WLCG 1.
Stato e previsione rete nelle sedi INFN Survey ed ipotesi di sviluppo fino al 2018 CCR 8-10 Settembre 2018 (Roma) 1 S.Zani (Netgroup)
CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 1 ATLAS Referaggio Tier2 Attività di TeV Attività di TeV Richieste.
G. Carlino – Referaggio Computing ATLAS 1 Napoli, 5 Luglio 2011 ATLAS Referaggio Tier2 Analisi Analisi Richieste Tier Richieste Tier Gianpaolo.
Referaggio Calcolo ATLAS II Gianpaolo Carlino INFN Napoli Catania, 12 Settembre 2012 Risorse e Richieste 2013 nei preventivi Aggiornamento in seguito all’allungamento.
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
ATLAS Distributed Computing e Data Management Alessandro De Salvo Outline 
ATLAS Italia – Sestri Levante, 15 Giugno 2010 G. Carlino – Richieste Run Efficiency = time for physics / total time LHC Efficiency = time with colliding.
1 Bari, 21 Settembre 2011 G. Carlino – ATLAS: il calcolo ATLAS: il Calcolo Attività di Computing nel 2011 Attività di Computing nel 2011 Richieste Tier2.
Gianpaolo Carlino Bologna, 6 Marzo 2007 Stato dei Tier-2 Italiani di ATLAS Attività nei Tier-2 Attività della Federazione dei Tier-2 Risorse disponibili.
L’infrastruttura del progetto ReCaS Paolo Lo Re on behalf of ReCaS collaboration.
Referaggio Calcolo ATLAS Gianpaolo Carlino INFN Napoli CNAF, 11 Maggio 2012 Attività di Computing ATLAS Attività di Computing in Italia Risorse e Richieste.
L.Perini Milano: 10 Gennaio Ex-ATLAS-Grid (Tier2 incluso) l Ruolo dei Tiers in ATLAS e grid l Le persone di Milano e le attività l Le infrastrutture.
CNAF. storage Siamo in una fase di tuning con lo storage, che al momento sembra essere un collo di bottiglia 1.~10 giorni fa vista saturazione GPFS.
Offline Report Finale Grid! I Corso di formazione INFN su aspetti pratici dell'integrazione di applicazioni in GRID Domenico D’Urso Roberto.
Report dalla CSN Settembre Sala dei Mappamondi - Torino Gianpaolo Carlino – CCR 25/10/2012.
ATLAS: il calcolo Alessandro De Salvo A. De Salvo – 25 maggio 2015.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
CSN1 – Torino, 17 Maggio 2010 G. Carlino – ATLAS: Calcolo ATLAS Calcolo LHC 2011 Attività di TeV Attività di TeV Risorse.
Le strategie per l’analisi Workshop CCR e INFN-GRID 2009
Stato Computing ATLAS Gianpaolo Carlino INFN Napoli
Transcript della presentazione:

ANALISI DISTRIBUITA IN ATLAS L’esperienza degli utenti Attilio Picazio Università di Napoli “Federico II” – INFN Napoli 18/05/11Attilio Picazio - Workshop ATLAS Italia ATLAS Italia Physics Workshop Napoli 18 e 19 maggio 2011

Introduzione Grid Computing nel 2011 Risultati dell’ “ATLAS Distributed Analysis User Survey” Un esempio di analisi Esperienza degli utenti italiani 18/05/11Attilio Picazio - Workshop ATLAS Italia 2

Grid Computing nel 2011 WLCG oggi per gli esperimenti di LHC 18/05/11Attilio Picazio - Workshop ATLAS Italia 3

Affidabilità dei siti in WLCG Monitoraggio di base dei servizi WLCG Ai T0/T1/T2 L’affidabilità dei siti è un ingrediente chiave per il successo del Computing di LHC Risultato di un enorme lavoro di collaborazione 18/05/11Attilio Picazio - Workshop ATLAS Italia 4

ATLAS Distributed Analysis User Survey Obiettivi: Valutazione generale dell’esperienza degli utenti dell’Analisi Distribuita Idee per possibili sviluppi futuri dell’Analisi Distribuita Modalità: 43 domande Risposta multipla o aperta. I risultati integrali del test si trovano al link: tributedAnalysisSurvey tributedAnalysisSurvey2011 Campione analizzato: –241 Utenti –circa il 70% Dottorandi e PostDoc –Diversi gruppi di lavoro 18/05/11Attilio Picazio - Workshop ATLAS Italia 5

Formato dei dati utilizzati per le analisi Formato dei dati prevalentemente analizzati sulla Grid Formato dei dati prevalentemente analizzati su workstation locali o sistemi batch ESD: Event Summary Data -> Contengono tutte le informazioni dell’evento AOD: Analysis Object Data -> Contengono le informazioni di maggiore interesse per l’analisi D3PD: Derived Physics Data -> Formato in rappresentazione tipo ennupla derivato da gli AOD dAOD e dESD: equivalenti a AOD e ESD rispettivamente ma con selezioni sugli eventi 18/05/11Attilio Picazio - Workshop ATLAS Italia 6

Formato dei dati di output e Tools usati File di Outputs dei jobs eseguiti sulla Grid Tools di Analisi Distribuita prevalentemente utilizzati pAthena e Ganga: tools per girare Athena sulla Grid pRun: tool per girare macro di root e programmi in C++ sulla grid 18/05/11Attilio Picazio - Workshop ATLAS Italia 7

Sottomissione dei Job Quanto spesso i Jobs vengono indirizzati verso particolari siti o clouds Affidabilità complessiva della Grid Frazione di subjobs falliti per sottomissione Il fallimeto dei subjobs è spesso dovuto a problemi di accesso alle risorse di Storage 18/05/11Attilio Picazio - Workshop ATLAS Italia 8

Recupero dei dati in uscita Principali operazioni fatte dagli utenti con i loro outputs Come si apprende l’uso della Grid? Percentuali molto alte di utenti hanno imparato ad usare la Grid grazie ai documenti delle Twiki e a informazioni fornite dai colleghi. 18/05/11Attilio Picazio - Workshop ATLAS Italia 9

Selezione di Siti e Clouds Utilizzate Molti users hanno personali “Black-list” dei siti (da esperienza maturata) e preferiscono l’utilizzo delle Clouds: US, DE Buona percentuale di users preferiscono la Cloud IT e TRIUMF Considerevole quantità di jobs mandati ai T2, data la disponibilità di dati sui LOCALGROUPDISK La risposta più frequente degli utenti nella selezione di siti e cloud è stata: “quello più disponibile al momento ” 18/05/11Attilio Picazio - Workshop ATLAS Italia 10

Un esempio di workflow: l’esperienza del gruppo di Napoli per gli studi sulle performance del trigger muonico data10_7TeV physics_Muons.recon.ESD.f299 JpsiIt JpsiItDumper JpsiIT: il nostro tool di analisi Girato con pAthena sulla grid Produce N-tuple di grandi dimensioni non selezioniamo una cloud preferita Formato dati ESD:  6 pb -1  Spazio disco ~3.6 TB  N Eventi  N Files 4015 JpsiItDumper: Macro di Root che esegue un ulteriore skimming degli eventi Girato con pRun sulla grid Gira sui Datasets di output di JpsiIt Principali utilizzi del nostro codice:  T&P per lo studio delle effiienze di trigger muonico  analisi della J/ψ in protone- protone e in Heavy Ions 18/05/11Attilio Picazio - Workshop ATLAS Italia 11

Esperienza di altri utenti italiani Tra gli utenti italiani “intervistati” si possono distinguere due categorie di analisi: Performance e trigger Analisi di fisica (Bphys, SM, Higgs, SUSY…) Formato dati utilizzato: ESD e AOD Formato dati utilizzato: D3PD e AOD La dislocazione dei datasets (soprattutto degli ESD), non permette di scegliere una particolare cloud. Gli utenti scrivono delle liste personali con l’elenco dei siti più problematici al momento dell’analisi. Per queste analisi spesso si ricorre alla sottoscrizione dei datasets nei local group disk per usufruire delle risorse dei T2 Affidabilità riscontrata dagli utenti italiani contattati dell’ordine del 90% 18/05/11Attilio Picazio - Workshop ATLAS Italia 12

La Grid è uno strumento essenziale per l’analisi dei dati ad LHC ma… c’è qualche perplessità sull’attuale modello di calcolo La tendenza degli utenti negli ultimi mesi è quella di creare delle n- tuple o D3PD comuni per gruppi di analisi. Questo comporta una diminuzione dell’utilizzo complessivo della grid. code meno affollate? No, perché i dati ultimamente sono replicati solo ai T1 La replica ai T2 è solo a valle di una procedura di ranking Si gira poco o niente ai T2 e l’analisi globale ne risulta rallentata 18/05/11Attilio Picazio - Workshop ATLAS Italia 13

18/05/11 Gianpaolo Carlino- Workshop ATLAS Italia 14 ANALISI DISTRIBUITA IN ATLAS Computing Point of View G. Carlino INFN Napoli

18/05/11 Gianpaolo Carlino- Workshop ATLAS Italia 15 Presa dati Sufficiente esperienza per una valutazione critica del CM La griglia sembra funzionare scala oltre i livelli testati nelle varie fasi di commissioning gli utenti stanno familiarizzando con i tool di analisi e gestione dei dati, selezionando quelli migliori (panda vs. WMS), sono mediamente soddisfatti Critiche negli anni al nostro CM richiesta eccessiva di spazio disco proliferazione del formato dei dati eccesso di repliche dei dati Superamento dei punti deboli accounting dell’accesso ai dati: determinazione della loro popolarità cancellazione automatica dei dati meno popolari replica dinamica ai Tier2 solo dei dati utilizzati dagli utenti IL CM – analisi critica e sviluppi

18/05/11 Gianpaolo Carlino- Workshop ATLAS Italia 16 Data popularity & deletion Accounting dell’accesso ai dati Alla base del sistema di cancellazione delle repliche Fornisce una statistica dei formati più utilizzati (popolari) per l’analisi Fornisce una statistica dell’uso dei siti Fornisce una statistica dei tool di analisi più usati I dataset meno popolari possono essere cancellati dopo essere stati replicati nei siti bisogna assicurare la custodialità prevista dal Computing Model replica sempre tutti i dati nuovi per l’analisi senza penalizzare le cloud più piccole risparmio significativo di spazio disco ATLAS usa un sistema automatico di cancellazione basato sulla classificazione dei dataset e la misura del numero di accessi custodial data: cancellabili solo se obsoleti (RAW, ESD o AOD prodotti nella cloud) primary data: cancellabili solo se diventano secondary (dati previsti dal CM) secondary data: solo questi possono essere cancellati se non popolari in base alla loro anzianità Cancellazione dei dati secondari meno popolari quando lo spazio disco occupato supera una soglia di sicurezza Permette una continua rotazione dei dati

18/05/11 Gianpaolo Carlino- Workshop ATLAS Italia 17 Evoluzione del Computing Model – PD2P Perché replicare i dati se poi vengono cancellati? Nel 2010 si sono replicati milioni di file (spesso molto piccoli) replica in tutti i siti (70+) e solo in pochi sono stati realmente acceduti Non esiste un metodo più intelligente? Evoluzione del Computing Model verso un modello meno rigido che ottimizzi le risorse disponibili: riduzione del disco necessario e utilizzo di tutte le CPU il paradigma è invariato: i job vanno dove sono i dati ma, sfruttando l’efficienza del sistema di data management e le performance della rete, la replica dei dati è triggerata dai job stessi Panda Dynamic Data Placement Model (PD2P) Modello di distribuzione dei dati basato sull’idea di considerare gli storage dei T2 come cache nessun dato pre-placed nei Tier2, stop alle repliche automatiche immutata la distribuzione automatica dei dati nei Tier1 Panda esegue la replica dei dati verso un Tier2 della stessa cloud quando c’è un job al Tier1 che li richiede i successivi job girano o al Tier1 o al Tier2 dove è stata eseguita e completata la replica clean up dei Tier2 quando lo storage è pieno basato sul sistema di popolarità Evitata la catastrofe ultravioletta nei Tier2

18/05/11 Gianpaolo Carlino- Workshop ATLAS Italia 18 PD2P nel 2011 Nel 2010 il PD2P ha dato risultati positivi. Estensione del modello anche a causa delle nuove condizioni di run di LHC che hanno reso necessaria una sensibile riduzione del numero di repliche di dati nella griglia Cancellazione dei cloud boundaries: trasferimenti infra-cloud tra Tier1 e Tier2 Trasferimenti anche tra Tier1 Extra repliche in base al riutilizzo dei dati già trasferiti e al numero di richieste di accesso contemporanee al singolo dataset Primi risultati del nuovo modello L’algoritmo di brokering dei dati e dei job di analisi, basato sul numero di job running nei siti, sembra stia favorendo troppo i Tier1 penalizzando i Tier2. Pochi dati ai Tier2 (in tutte le cloud) Pochi job di analisi nei Tier2 (in tutte le cloud) Utilizzo non efficiente delle risorse di ATLAS e insoddisfazione da parte degli utenti L’ ADC team in collaborazione con le cloud sta analizzando il modello per verificarne la bontà e determinare le modifiche necessarie modifiche dell’algoritmo di brokering preplacement di una frazione di dati nei T2D TIM Workshop a Dubna a inizi giugno nel quale descriverò l’esperienza degli utenti italiani (feedback very welcome)

18/05/11 Gianpaolo Carlino- Workshop ATLAS Italia 19 ATLAS Cloud Model Modello gerarchico basato sulla topologia di rete di Monarc Comunicazioni possibili: T0-T1 T1-T1 Intra-cloud T1-T2 Comunicazioni vietate: Inter-cloud T1-T2 Inter-cloud T2-T2 Limitazioni: Impossibile fornire una replica completa di dati per l’analisi ad ogni cloud Trasferimenti tra le cloud attraverso salti multipli tra i Tier1 User analysis outputs Tier2 non utilizzabili come repository di dati primari per il PD2P o di gruppo

18/05/11 Gianpaolo Carlino- Workshop ATLAS Italia 20 ATLAS Cloud(less) Model Breaking the Wall La rete attuale permette il superamento del modello Monarc: molti Tier2 sono già ben connessi con molti Tier1 Abilitazione delle connessioni inter cloud Superamento di una gerarchia stretta tra Tier1 e Tier2 Scelta dei Tier2 adatti alcuni Tier2 sono mal collegati anche con il proprio Tier1 Non tutti i Tier2 hanno le dimensioni e le performance necessarie

18/05/11 Gianpaolo Carlino- Workshop ATLAS Italia 21 Tier2 Diretti T2D – Tier2 “Directly Connected” Tier2 connessi direttamente tra di loro e a tutti i Tier1 Storage per dati primari come i Tier1 Preplacement di una quota di dati Data source per il PD2P Group data Disponibilità di una quota di disco nei Tier1 come cache Requirement molto stretti Metriche di trasferimento con tutti I Tier1 Livello di commitment e reliability adeguato Avg(Byterate)+StD(Byterate) SMALL<0.05MB/s<0.1MB/s≥0.1MB/ s MEDIUM<1MB/s<2MB/s≥2MB/s LARGE<10MB/s<15MB/s≥15MB/s T2D approvati: INFN-NAPOLI- ATLAS, INFN-MILANO-ATLASC, INFN- ROMA1 IFIC-LCG2, IFAE, UAM-LCG2 GRIF-LPNHE, GRIF-LAL, TOKYO-LCG2 DESY-HH, DESY-ZN, LRZ-LMU, MPPMU MWT2_UC,WT2, AGLT2,BU_ATLAS_Tier2, SWT2_CPB UKI-LT2-QMUL, UKI-NORTHGRID-LANCS-HEP, UKI- NORTHGRID-MAN-HEP, UKI-SCOTGRID-GLASGOW Siti che faranno parte da subito di LHCOne

18/05/11 Gianpaolo Carlino- Workshop ATLAS Italia 22 Attività in ATLAS Numero medio di jobs di produzione running per cloud > 50k job simultanei. Produzione: Ricostruzione (T1), Simulazione e Analisi di gruppo (produzione centralizzata di D3PD in alcuni gruppi) ~ 10k job simultanei. riduzione analisi nel aumento attività analisi di gruppo: aumento della coordinazione. Minore caoticità e duplicazione dei dati centralizzazione della produzione: in molti casi accountata come produzione analisi finale off grid su ntuple Numero medio di jobs di analisi running per cloud

18/05/11 Gianpaolo Carlino- Workshop ATLAS Italia 23 Utilizzo risorse in Italia WCT consumptions dei job di produzione. Giugno 2010 – Maggio 2011

18/05/11 Gianpaolo Carlino- Workshop ATLAS Italia 24 Attività nei Tier2 Job running su un Tier2 Produzione Analisi WMS Analisi Panda Analisi Panda ruolo italiano (Gli italiani vengono mappati sia su panda che su panda/it, risorse dedicate) Sharing delle risorse Tra le attività nei Tier2 Buona efficienza in tutti i siti, superiore alla media, anche per i job di analisi

18/05/11 Gianpaolo Carlino- Workshop ATLAS Italia 25 Reliability & Availability – 2010/11 Valori medi 2011 FrascatiMilano relavarelava 95%94%93% NapoliRoma relavarelava 93%92%98%97% Availability = time_site_is_available/total_time Reliability = time_site_is_available/ (total_time-time_site_is_sched_down) Buona affidabilità in tutti i siti, superiore alla media WLCG. Molto spesso i problemi ai siti sono dovuti a cause esterne

18/05/11 Gianpaolo Carlino- Workshop ATLAS Italia 26 L’attività di computing in ATLAS è soddisfacente ma il frequente cambiamento delle condizioni al contorno comporta la necessità di continue modifiche al CM per adattarsi ad esse e alle necessità degli utenti. Reazioni sufficientemente veloci nei limiti del possibile Analisi appartente variazione del workflow di molte analisi comportano una riduzione dell’attvità nella griglia, temporanea? utilizzo delle risorse tra Tier1 e Tier2 al momento sbilanciato, tuning in corso Tier1 e Tier2 italiani Il CNAF è tra i migliori Tier1 di ATLAS le CPU al CNAF e ai Tier2 sono quasi sempre sature Le efficienze e le affidibilità dei siti sono superiori alla media Utilizzo delle risorse italiane la riduzione del numero di repliche di dati nella griglia e l’uso dei container di dataset non permettono di selezionare i siti o la cloud su cui runnare i propri job può però essere intensificato l’uso dei Tier2 italiani per le attività dei nostri gruppi in modo da sfruttare le risorse di CPU e disco dedicate agli utenti sottoscrivendo gli output del primo step delle analisi nei LOCALGROUP Osservazioni conclusive