La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Le strategie per l’analisi Workshop CCR e INFN-GRID 2009

Presentazioni simili


Presentazione sul tema: "Le strategie per l’analisi Workshop CCR e INFN-GRID 2009"— Transcript della presentazione:

1 Le strategie per l’analisi Workshop CCR e INFN-GRID 2009
ATLAS Le strategie per l’analisi Gianpaolo Carlino INFN Napoli Workshop CCR e INFN-GRID 2009 Palau, Maggio 2009 1 1

2 Cosa è necessario per l’analisi
1. Reperibilità dei dati sistema di distribuzione dei dati efficiente e veloce varie fasi di commissioning nel DQ2 può essere finalmente considerato un sistema di data management affidabile efficienza dei siti italiani (T1 e T2s) sempre nella media di atlas AOD e DPD (dati e MC) replicati completamente e automaticamente nei T2 Sottoscrizione dei dataset utenti on demand attraverso Webpage 2. Analysis Model Chiarezza e stabilità nella definizione dei formati di dati e nei physics analysis tools 3. Analisi Distribuita User Interface indipendente dalla Grid Faciltà di utilizzo e trasparenza della struttura internza Ricerca della location dei dati Scelta del backend Scelta delle risorse da utilizzare Efficienza e velocità di processamento e recupero degli output Training e supporto per gli utenti 4. Le risorse Alta disponibilità e affidabilità (availability & reliability) dei siti configurazione ottimale della rete (LAN 10 Gbps) Facile accessibilità ai dati Disponibilità di risorse, cpu e disco, adeguate: Sistemi di prioritizzazione dei job Risorse dedicate agli utenti italiani Risorse locali (Tier3)

3 The ATLAS Computing Model
Hierarchical Computing Model optimising the use of the resources need to distribute RAW data for storage and reprocessing distribute data for analysis in various formats in order to make access for analysis as easy as possible for all members of the collaboration “Tier Cloud Model” CERN NG BNL FZK RAL ASGC PIC TRIUMF SARA CNAF SWT2 GLT2 NET2 WT2 MWT2 BNL Cloud NA MI CNAF Cloud RM1 LNF LYON lapp lpc Tokyo Beijing Romania grif T3 Tier0 at CERN. Immediate data processing and detector data quality monitoring. Stores on tape all data T0 Tier1. Data storage and reprocessing of data with better calibration or alignment constants All Tier-1s have predefined (software) channel with CERN and with each other Tier-2s are associated with one Tier-1 and form the cloud Tier-2s have predefined channel with the parent Tier-1 only. T1 T2 Tier-2. Simulation and user Analysis T3 Tier-3. Non Grid user Analysis

4 ATLAS DataWorkflows L’analisi in Grid degli utenti viene svolta nei Tier-2. Solo analisi di gruppo nei Tier1

5 Il Modello di Analisi distribuita
Gli utenti non devono necessariamente conoscere dove sono i dati e dove runnano i job possono/devono selezionare la cloud in cui runnare I job degli utenti vengono lanciati dove risiedono i dati i risultati devono essere resi disponibili subito agli utenti (efficienza 100%) I dati sono distribuiti ai Tier1 e Tier2 dal Data Distribution System DQ2 management, distribuzione e archivio automatico dei file nella griglia effettuato usando un catalogo centrale, FTS, LFCs I dati per l’analisi sono completamente replicati in tutte le cloud Policy di replica dei dati secondo il Computing Model e shares determinate dalle dimensioni dei siti in termini di risorse

6 Il Modello di Analisi distribuita
Standard Physics Analysis codice basato su Athena o Athena Root Access, processa sequenzialmente AOD/DPD files nella griglia problemi accesso ai file in DPM con applicazioni ROOT produce ROOT tuple (D3PD) poi analizzate nella griglia o localmente nei Tier3 Produzione piccoli sample privati di MC uso delle Production System Tranformations (Geant o Atlasfast) Detector Performance Analysis codice basato su Athena, processa RAW/ESD/DPD files nella griglia. miglioramenti per accesso ai dati in formato RAW in crescita uso della griglia, finora limitato, per analisi dei cosmici e dei rivelatori. Transizione dall’analisi al Tier0 per la limitazione delle risorse e miglioramenti tool di analisi Calibrazione MuonCalibration Stream (NA e RM) per MDT, RPC e LVL1 Trigger calibration

7 6/16/2018 The ATLAS Grids 3 Grid infrastructures: differenti mw, replica catalogues e tool per sottomettere i job Questa complessità è un problema per gli utenti 7

8 Il Modello di Analisi distribuita
2 Frontends: Ganga e Pathena Ganga permette la sottomissione di job sia in locale che alle 3 griglie al momento è l’unico modo per sottomettere job in molte cloud EGEE (IT, DE ..) o Nordugrid utilizza soprattutto la sottomissione via il gLite WMS Pathena utilizza solo il backend Panda sottomissione basata sul concetto di pilot jobs

9 Il Modello di Analisi distribuita
GANGA: tool unico per sottomettere/gestire/monitorare i job di utenti in Grid Qualche numero: Ganga usato da più di 1500 utenti circa 150 utenti ATLAS alla settimana, doppio dell’anno scorso buon contributo italiano Blocchi funzionali: un job è configurato da un set di blocchi funzionali, ognuno con un ben definito scopo Ganga offre 3 modi di interazione per gli utenti Shell command line Interactive IPython shell Graphical User Interface 10k job utenti al giorno, da confrontare con 100k job di produzione ci si aspetta un numero simile durante la presa dati

10 Il Modello di Analisi distribuita
Ganga vs Pathena: Dopo un difficile inizio dovuto alla diffidenza (motivata) della griglia, gli utenti di Atlas hanno cominciato a fare analisi distribuita e hanno dovuto scegliere tra due sistemi abbastanza diversi Pathena non era un vero sistema di analisi distribuita, runnava tutto a BNL dove tutti i dati sono replicati. Modo di sottomissione simile ai job locali di Athena L’ideale per un utente, ma sicuramente non sarà possibile in futuro attualmente un sistema di brokering interno permette di distribuire i job tra i siti che hanno abilitato le code da verificare come scala come sistema di analisi distribuito Ganga ha sviluppato un approccio opposto per rispettare i dettami del calcolo distribuito problemi all’inizio che hanno allontanato gli utenti notevoli miglioramenti con il sistema di selezione della cloud, della black list dei siti e del job splitting (per dataset non replicati completamente) buon funzionamento per analisi standard il WMS permette la gestione delle priorità dei job di utenti appartenenti a VOMS groups/roles diversi. Fondamentale per definire le opportune priorità ai job di analisi necessario migliorare l’integrazione con il WMS

11 Il Modello di Analisi distribuita
Ganga vs Pathena: ATLAS vuole ridurre la proliferazione di sistemi simili (anche per la limitatezza di manpower). Per l’analisi distribuita tende a utilizzare un unico frontend e un unico backend. Sforzo della comunità italiana di Atlas per garantire l’esistenza di Ganga come tool ufficiale di analisi visto che la maggioranza di utenti italiani ha imparato a usarlo ed è il sistema più flessibile e completo supportare il WMS l’unico a garantire una gestione locale e non centralizzata delle priorità dei job. Sinergie tra esperimento e INFN Grid per aumentare il contributo italiano nello sviluppo e mantenimento del sistema in Atlas

12 Cosa succede quando un job atterra in un Tier2?
L’analisi nei Tier2 Cosa succede quando un job atterra in un Tier2? Organizzazione di Atlas e della cloud italiana per ottimizzare l’analisi: Ottimizzazione e gestione delle risorse Storage: aree di storage per attività e utenti “locali” CPU: fair share e job priorities Rete: connessione rapida tra WN e storage. Hammer cloud Stabilità dei siti Eliminazione dei Single Point of Failure nella cloud: replica dell’LFC Shift per il monitoraggio dei siti e delle attività di computing in Italia

13 Storage nei Tier2 Detector data 110 TB RAW, ESD, AOD, DPD
Centrally managed Managed with space tokens Example for a 200 TB T2 Simulated data 40 TB RAW, ESD, AOD, DPD Centrally managed MC CPUs Physics Group data 20 TB DnPD, ntup, hist, .. Group managed GROUP Analysis tools User Scratch data 20 TB User data Transient SCRATCH LOCAL Local Storage Non pledged IT User data Locally managed 13

14 Le CPU nei Tier2 ATLAS Computing Model: nei Tier2 50% attività di sumulazione e 50% analisi utenti CPU non pledges e parte del 50% riservate agli utenti sono dedicate al gruppo atlas/it Necessario un sistema di fairshare per “difendere” l’analisi dall’attività centrale di simulazione e garantire risorse dedicate per gli utenti italiani LSF – Multi VO test: Fairshare Targets: ATLAS 50%: User 30% Prod 70% LHCB 50% User 50% Prod 50% PBS – Multigroup test: Fairshare Targets: ATLAS 40% ATLAS PROD 30% ATLAS IT 30% 10 Time Windows 1h long Job lenght: 2 hours

15 Rete nei Tier2 I Test di stress dell’analisi distribuita (hammer
Connessione a 1 Gbps I Test di stress dell’analisi distribuita (hammer cloud, circa 200 jobs simultanei) hanno lo scopo di individuare limitazioni o malconfigurazioni dei siti, in particolare carichi sbilanciati sullo storage o rete non adeguata. Si è verificata la necessità di connessione a >1 Gbps tra WN e Storage per i tipici job di analisi che richiedono alto throughput (~4 MBps a core). Si passa da un event rate di 3 Hz a > 10 Hz Connessione a 10 Gbps Sistema di rete usato nei Tier2 in attesa dei risultati del gruppo di rete della CCR 1 Gbps RACK n n+1 10 Gbps m m+1 Fibra Cluster di Rack 1 Cluster di Rack 2

16 Stabilità dei siti Gli utenti hanno bisogno di siti che
siano stabilmente up and running Shift 7/7 dei membri dei Tier2 (a breve estesi anche a utenti “volontari”) per controllare il funzionamento dei siti, dei servizi di grid e delle attività di computing di Atlas in Italia Eliminazione dei Single Point of Failure della cloud: Sistema di replica a Roma dell’LFC del CNAF (db Oracle) con il sistema Dataguard messo a punto in collaborazione con il CNAF Testato con successo durante il down del CNAF a fine marzo per il trasferimento delle risorse nella sala definitiva

17 Conclusioni La strategia di analisi di Atlas ha raggiunto una maturità soddisfancente in molte sue parti I dati arrivano ai Tier con velocità ed efficienza I tool di analisi distribuita sono diventati familiari ad una grande comunità di utenti: l’analisi viene effettuata in grid Stress test hanno permesso di individuare gli aspetti critici esistenti nel sistema di analisi distribuita e vengono eseguiti periodicamente per evidenziare problemi di configurazione nei siti I servizi di grid e i siti hanno raggiunto una stabilità sufficiente Cosa c’è ancora da fare Estendere l’uso dei tool di analisi distribuita ad analisi non standard Aumentarne la diffusione tra gli utenti Analisi locale: definire il ruolo e le dimensioni dei Tier3


Scaricare ppt "Le strategie per l’analisi Workshop CCR e INFN-GRID 2009"

Presentazioni simili


Annunci Google