Domenico Elia1Workshop PRIN STOA-LHC / EGI CF - Bari, Workshop PRIN STOA-LHC EGI CF - Bari, 12 Novembre 2015 Report attività ALICE (+ dettaglio BARI e LNL) Domenico Elia
2Workshop PRIN STOA-LHC / EGI CF - Bari, Outline Attività prevista Attività svolta e principali risultati Problematiche e prospettive Dettagli attività specifica: BA, LNL CA, CT, TO, TS (presentazioni dedicate delle sedi)
Domenico Elia3Workshop PRIN STOA-LHC / EGI CF - Bari, STOA-LHC Attività prevista Ottimizzazione analisi interattiva (BA*, CA, TO, TS, LNL): programma I e II anno di attività installare e validare infrastrutture per analisi parallela interattiva accesso “elastico” a risorse virtuali disponibili localmente Ottimizzazione accesso ai dati (BA*, CA, TO, TS, LNL): programma III anno federare le infrastrutture di analisi condividendo risorse storage test di performance su dataset distribuiti nella federazione UDR di CT: sviluppo di uno Science Gateway per analisi dati ALICE I anno: prima versione, sistema di autenticazione federata II anno: dimostrazione interoperabilità con infrastrutture non-AliEn III anno: rilascio SG con diverse applicazioni analisi dati ALICE * inizialmente solo CMS, poi sinergia con attività ALICE
Domenico Elia4Workshop PRIN STOA-LHC / EGI CF - Bari, STOA-LHC Attività svolta (I) Ottimizzazione analisi interattiva (BA*, CA, TO, TS, LNL): in tutte le sedi coinvolte sono state realizzati cluster dinamici di analisi virtuali (Virtual Analysis Facility, VAF) basati su PROOF e integrati nella infrastruttura Cloud locale la possibilità dei cluster di interfacciarsi direttamente con la piattaforma software di gestione del calcolo Cloud ha garantito le richieste caratteristiche di interattività, inclusa la possibilità di modulare le risorse impiegate secondo necessità l’integrazione delle VAF in centri di calcolo multi-purpose ha permesso di studiare l’ottimizzazione delle risorse tramite una infrastruttura di tipo Cloud, dimostrando come diversi tipi di applicazione possano essere associati a diverse macchine virtuali istanziabili secondo necessità e consentendo di destinare risorse interattive inutilizzate ad altre applicazioni e viceversa
Domenico Elia5Workshop PRIN STOA-LHC / EGI CF - Bari, STOA-LHC Attività svolta (II) Ottimizzazione accesso ai dati (BA*, CA, TO, TS, LNL): è stato implementato un sistema di archiviazione dati federato (Data Federation, DF), distribuito tra tutti i siti coinvolti nello sviluppo VAF, attraverso l’uso del protocollo XRootD l’impego di XRootD per l’accesso remoto ai dati ha consentito di realizzare un unico catalogo distribuito nazionale in grado di fondere tutte le risorse di storage messe a disposizione dai siti, conferendo allo stesso tempo accesso scalabile e “fault tolerant” i tempi di accesso ai dati (e quindi dell’analisi) attraverso la DF sono risultati vantaggiosi rispetto all’accesso via catalogo centrale ALICE (AliEn), sulla base di studi condotti in modo coordinato da e tra i diversi siti coinvolti nell’attività Sviluppo di Science Gateway (vedi presentazione CT)
Domenico Elia6Workshop PRIN STOA-LHC / EGI CF - Bari, STOA-LHC Problemi e prospettive (I) Problemi risolti e da risolvere : sono stati risolti numerosi problemi relativi all’esposizione della contestualizzazione, alla gestione delle VAF in reti virtuali private e all’ottimizzazione della performance sia di inizializzazione che di elasticità di OpenStack si è rinunciato all’uso dei dischi locali degli hypervisor come cache storage di secondo livello in quanto tale configurazione si è rivelata problematica da gestire in ambiente Cloud la parte di autenticazione di XRootD non è stata ancora attivata, si sta valutando la possibilità di usare lo standard X.509 si attende che i siti possano mettere a disposizione più server e, laddove possibile, connessi a 10 Gbps: possibilità di avere campioni più estesi, strategico per l’analisi dei gruppi italiani
Domenico Elia7Workshop PRIN STOA-LHC / EGI CF - Bari, STOA-LHC Problemi e prospettive (II) Opportunità e prospettive: la DF italiana potrebbe ospitare qualunque tipo di dato, non solo proveniente da esperimenti ad LHC, e quindi essere utilizzata da qualunque sistema in grado di gestire il protocollo XRootD anche l’uso elastico delle risorse Cloud implementato dalla VAF può essere facilmente esteso e riutilizzato da gruppi non-LHC per implementazioni di framework di analisi diversi da quello di ALICE (esempi in questo senso in alcune sedi)
Domenico Elia8Workshop PRIN STOA-LHC / EGI CF - Bari, STOA-LHC Dettagli attività specifica siti
Domenico Elia9Workshop PRIN STOA-LHC / EGI CF - Bari, STOA-LHC Dettagli attività BA A VAF-PROOF cluster has been developed in Bari for the ALICE experiment. Current configuration: –14 VMs available, VM Flavour: 4 CPU, RAM: 8 GB, Disk Space: 20 GB –Up to 56 Worker Nodes (WNs) available to users Scalability and elasticity performances have been tested using an I/O intensive analysis A DATA Federation for VAF users exploiting XROOTD remote data access protocol has been set-up: –The configuration consists of a Global Redirector at Bari and a Local Redirector in each other site belonging to the Federation - Cagliari (CA), Padova-Legnaro (PD-LNL), Torino (TO), Trieste (TS) G. Miniello and G. Vino Virtual Analysis BA
Domenico Elia10Workshop PRIN STOA-LHC / EGI CF - Bari, STOA-LHC Dettagli attività BA G. Miniello and G. Vino Elasticity performance: The time taken by VMs to complete the boot and join the cluster follow quite the same trend, with a gap of few tens seconds only Only few minutes to pass from one single worker to a cluster of 18 workers The time to add a further worker decreases and becomes more stable as the number of workers in the cluster gets higher
Domenico Elia11Workshop PRIN STOA-LHC / EGI CF - Bari, STOA-LHC Dettagli attività BA G. Miniello and G. Vino Scalability performance: Analysis time scales increasing the number of the enabled PROOF workers More than 85% of total WCT reduction passing from a 4- to a 40-WNs configuration
Domenico Elia12Workshop PRIN STOA-LHC / EGI CF - Bari, STOA-LHC Dettagli attività BA G. Miniello and G. Vino XRootD-based Data Federation To reduce remote data access time a Data Federation (DF) storage system for ALICE has been implemented using XRootD protocol The computing sites involved in the DF project are the T2s BA, PD- LNL and TO plus CA and TS sites The DF exploits the high bandwidth and low latency features of the italian GARR network which links all the sites The XRootD hierarchy tested includes a Local Redirector for each site and a Global Italian Redirector located in Bari The same studies about the total WCT of analysis jobs accessing files from each different site have been performed and compared with those obtained using AliEn Catalogue access
Domenico Elia13Workshop PRIN STOA-LHC / EGI CF - Bari, STOA-LHC Dettagli attività BA G. Miniello and G. Vino XRootD-based Data Federation
Domenico Elia14Workshop PRIN STOA-LHC / EGI CF - Bari, STOA-LHC Dettagli attività BA G. Miniello and G. Vino First results: The WCTs obtained accessing data via DF are generally much lower than accessing them via AliEn; #WNs<20: the splitting in 2 servers available in PD-LNL helps despite the lower bandwidth wrt TO; # WNs >30: the trend of the yellow line keeps pretty constant due to the PD-LNL bandwidth (1 Gbps) which is lower than that of BA and TO (10 Gbps)
Domenico Elia15Workshop PRIN STOA-LHC / EGI CF - Bari, STOA-LHC Dettagli attività BA G. Miniello and G. Vino Conclusions A VAF for the ALICE experiment at the LHC has been developed at BARI PRISMA Openstack Infrastructure; A VAF cluster configuration with up to 56 WNs is currently available at BARI; Elasticity and Scalability features shows that 40 PROOF workers are available in ≈5 min and a reduction greater than 85% of the total analysis time can be achieved passing from a 4- to a 40-workers configuration; A Data Federation for VAF to reduce data access time has been implemented among several italian sites with a Global Redirector set-up in Bari and a Local Redirector for each site: –The average WCT of the benchmark analysis has been evaluated accessing files from the different sites –An actual decrease of WCTs accessing data via the DF has been observed –Aligning the bandwidth of all the sites involved could definitely improve the performance of the DF
Domenico Elia16Workshop PRIN STOA-LHC / EGI CF - Bari, STOA-LHC Dettagli attività LNL-PD Sommario Fondi PRIN: assegno di ricerca biennale LNL a Massimo Venaruzzo, utilizzato per un anno, dal 2/1 al 29/12/2014 Attività: –Installazione e test sulla Cloud di Area Padovana di una Virtual Analysis Facility e del tool di monitoring, entrambe sviluppate a Torino –Partecipazione all’infrastruttura di storage condiviso tra siti italiani ALICE, basata tu XrootD M. Biasotto, A. Dainese, S. Fantinel and M. Sgaravatto
Domenico Elia17Workshop PRIN STOA-LHC / EGI CF - Bari, STOA-LHC Dettagli attività LNL-PD Background: Cloud dell’Area Padovana –Basata su OpenStack, autenticazione AAI –Risorse distribuite tra Padova e LNL, sul modello del Tier-2 –Dopo fase di test, entrata in “produzione” da fine 2014 Risorse attuali: -50 TB CPU virtuali M. Biasotto, A. Dainese, S. Fantinel and M. Sgaravatto
Domenico Elia18Workshop PRIN STOA-LHC / EGI CF - Bari, STOA-LHC Dettagli attività LNL-PD VAF sulla Cloud dell’area Padovana L’assegnista PRIN è stato utente pilota della Cloud nella fase di preproduzione e transizione alla fase di produzione Installazione della Virtual Analysis Facility elasticamente espandibile, sviluppata a Torino e basata su PROOF, PoD e CernVM Installazione e test tool di monitoring Staging dataset di TEST (AOD ALICE) e test con analisi ALICE M. Biasotto, A. Dainese, S. Fantinel and M. Sgaravatto
Domenico Elia19Workshop PRIN STOA-LHC / EGI CF - Bari, STOA-LHC Dettagli attività LNL-PD Partecipazione alla Data Federation LNL partecipa allo storage distribuito nazionale ALICE basato su XrootD Sono stati utilizzati due storage dismessi dal Tier-2, per un totale di 66 TB, e due disk server collegati a 2 GB/s, uno dei quali fa anche da redirector XrootD ed è collegato al redirector nazionale di Bari Tempi di accesso ai dati (da Bari) in linea con quelli per altri siti e ridotti rispetto all’accesso da Grid (alien) vedi grafico report di BA M. Biasotto, A. Dainese, S. Fantinel and M. Sgaravatto