Domenico Elia1Workshop PRIN STOA-LHC / EGI CF - Bari, 12.11.2015 Workshop PRIN STOA-LHC EGI CF - Bari, 12 Novembre 2015 Report attività ALICE (+ dettaglio.

Slides:



Advertisements
Presentazioni simili
ISA Server 2004 Enterprise Edition Preview. ISA Server 2004.
Advertisements

Proposta di integrazione e consolidamento delle risorse presenti nellinfrastruttura Grid dellItalia Meridionale (L. Merola, )
Aspetti critici rete LAN e WAN per i Tier-2
Proposta di integrazione e consolidamento delle risorse presenti nellinfrastruttura Grid dellItalia Meridionale (L. Merola, )
Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
Queuing or Waiting Line Models
La facility nazionale Egrid: stato dell'arte Egrid-Team Trieste, 9 ottobre 2004.
LNL M.Biasotto, Bologna, 13 dicembre Installazione automatica Massimo Biasotto – INFN LNL.
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
1 M. Biasotto – Legnaro, 22 Dicembre 2005 Prototipo Tier 2 di Legnaro-Padova INFN Legnaro.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
Dischi in RAID  Redundant Array of Independent Disk Configurazione che permette di combinare più dischi secondo obiettivi di performance e ridondanza.
Analysis unibo una proposta. Work flow di una tipica analisi 1.Simulazione di piccoli campioni di eventi per studio segnale 2.Generazione in grande.
CCR 14-15/03/2006 Status Report Gruppo Storage CCR.
3 Aprile CSN1 P. Capiluppi Tier2 CMS Italia.
Servizio Sistema Informativo - Area Gestione Sistemi e Sicurezza – LNF – Dael Maselli Area Gestione Sistemi e Sicurezza LNF Plenaria Servizio Sistema Informativo.
Test Storage Resource Manager per SC4 Giacinto Donvito Vincenzo Spinoso.
Extreme Cluster Administration Toolkit Alberto Crescente, INFN Sez. Padova.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
L. Servoli - CCR Roma 15 marzo Il progetto High Availability D. Salomoni - CNAF L. Servoli - INFN Perugia.
CMS 1 M. Biasotto – Bologna 20/01/2005 Infrastruttura di calcolo per CMS-Italia M.Biasotto – INFN Legnaro e i gestori dei centri CMS Italia.
SUMMARY Transmission and distribution of the electric energy RIEPILOGO Trasmissione e distribuzione dell’energia elettrica RIEPILOGO Trasmissione e distribuzione.
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
Storage (ieri, oggi e domani) Luca dell’Agnello INFN-CNAF.
ATLAS PRIN Alessandro De Salvo A. De Salvo – 12 novembre 2015 Cloud Computing Condivisione di risorse tra gruppi EventIndex LHCONE PoD T2D.
BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015.
Presentazione Uno per tutti giugno Cos’è «Uno per Tutti» Uno per tutti è il nuovo motore di ricerca che mettiamo a disposizione dei nostri utenti.
Gaetano Maron, Presentazione T2 LNL-Padova, Legnaro 22 dicembre Il Servizio Tecnologie Informatiche ed Elettroniche dei LNL Gaetano Maron.
Tier-2 Legnaro-Padova Massimo Sgaravatto (INFN Padova) On behalf of the Legnaro-Padova T2 team Tier-2 Legnaro-Padova 1.
26 Giugno 2007CSN1 - Frascati1 Temi di attualità nella CCR Accanto alla tradizionale attività di controllo dei finanziamenti per le infrastrutture di calcolo.
Riunione PRIN STOA - Bologna - 18 Giugno 2014 Testbed del T2 distribuito Napoli-Roma Dr. Silvio Pardi INFN-Napoli Riunione PRIN STOA – Bologna 18 Giugno.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Lecce 30 Settembre 2015.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
17-18 Dicembre 2014 Second Belle II italian collaboration meeting – Dicembre 2014 Networking e calcolo di Belle II a Napoli - Recas Silvio Pardi.
Esperienza di Elastic Computing al Tier 1 Vincenzo Ciaschini & Donato de Girolamo CCR 16-20/5/2016.
Claudio Grandi Workshop CCR 2015 Claudio Grandi INFN Bologna.
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
Referaggio sigla CALCOLO D. Bonacorsi, G. Carlino, P. Morettini CCR – Roma 9 Settembre 2014.
DA e controlli DAFNE Riccardo Gargana Frascati 13/12/ /12/13.
Presentazione WS del 23/10/2013 al CNAF: 0&resId=0&materialId=slides&confId=6920
Progressi AAI. Agenda Report da WorkingGroup e WorkShop GARR AAI Stato avanzamento lavori Lavori in corso To Do List.
Progetto ReCaS status update Giuseppe Andronico WS CCR, Catania 28 Maggio 2014.
1 ALICE I ITER2 DI ALICE IN ITALIA Bologna, 6 marzo 2007 M. Masera
INFN—Catania Giuseppe Andronico Bologna, 23 Gennaio 2014.
19/4/2013 D. Menasce, M. Serra - Referaggio Progetti INFRA e WLCG 1.
Stato e previsione rete nelle sedi INFN Survey ed ipotesi di sviluppo fino al 2018 CCR 8-10 Settembre 2018 (Roma) 1 S.Zani (Netgroup)
P. Morettini. Organizzazione della CCR Le principali attività della CCR consistono da un lato nell’assegnazione di fondi per le infrastrutture di rete.
G. Maggi 24/1/2006 Il Progetto del TIER2 di Bari Giorgio Maggi.
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
Domenico Elia1CdG Tier1-Tier2 / CNAF ALICE Tier2 sites Domenico Elia CdG Tier1-Tier2 Bologna, 15 Aprile 2015  Infrastruttura e risorse, coordinamento.
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
LaBiodoloa Attività di sperimentazione RECAS - Catania G. Andronico
CCR - Roma 15 marzo 2007 Gruppo storage CCR Report sulle attivita’ Alessandro Brunengo.
Domenico Elia1 Calcolo ALICE: stato e richieste finanziarie Domenico Elia Riunione Referee Calcolo LHC / Padova, Riunione con Referee Calcolo.
ALICE Computing Readiness Workshop Tier-2 CNAF Jan 17-18, ALICE Computing Readiness 1) ALICE Italia: Persone & organizzazione 2) Test & commisioning.
1 Le macchine di questo pool fanno parte di una lan privata (la 125 illustrata a pag.2), di cui t2cmcondor è il gateway. Sono presenti 3 macchine su rete.
L’infrastruttura del progetto ReCaS Paolo Lo Re on behalf of ReCaS collaboration.
Aggiornamento AFS R.Gomezel Commissione Calcolo e Reti Presidenza 5/10/2010-7/10/2010.
Attività Gruppo Virtualizzazione Andrea Chierici CNAF Riunione CCR
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Attività PRIN STOA a Cagliari Alessandro De Falco Università/INFN Cagliari.
Domenico Elia1 Calcolo ALICE: stato e richieste finanziarie (aggiornamenti) Domenico Elia Riunione Referee Calcolo LHC / Bologna, Riunione con.
Gaetano Maron, Presentazione T2 LNL-Padova, Legnaro 22 dicembre Il centro di calcolo Tier2 di LNL-PD Gaetano Maron.
Commissione Scientifica III stato e richieste finanziarie
PRIN Roma1 – status Luciano Barone, Alessandro De Salvo
From 8 to 80 boxes. From FBSNG to Condor CPU Satura !
Analisi dei dati dell’Esperimento ALICE
INFN-TS INFN - Sezione di Trieste - C. Strizzolo - L. Strizzolo.
ONEDATA - distributed data caching -
Transcript della presentazione:

Domenico Elia1Workshop PRIN STOA-LHC / EGI CF - Bari, Workshop PRIN STOA-LHC EGI CF - Bari, 12 Novembre 2015 Report attività ALICE (+ dettaglio BARI e LNL) Domenico Elia

2Workshop PRIN STOA-LHC / EGI CF - Bari, Outline  Attività prevista  Attività svolta e principali risultati  Problematiche e prospettive  Dettagli attività specifica:  BA, LNL  CA, CT, TO, TS (presentazioni dedicate delle sedi)

Domenico Elia3Workshop PRIN STOA-LHC / EGI CF - Bari, STOA-LHC Attività prevista  Ottimizzazione analisi interattiva (BA*, CA, TO, TS, LNL):  programma I e II anno di attività  installare e validare infrastrutture per analisi parallela interattiva  accesso “elastico” a risorse virtuali disponibili localmente  Ottimizzazione accesso ai dati (BA*, CA, TO, TS, LNL):  programma III anno  federare le infrastrutture di analisi condividendo risorse storage  test di performance su dataset distribuiti nella federazione  UDR di CT:  sviluppo di uno Science Gateway per analisi dati ALICE  I anno: prima versione, sistema di autenticazione federata  II anno: dimostrazione interoperabilità con infrastrutture non-AliEn  III anno: rilascio SG con diverse applicazioni analisi dati ALICE * inizialmente solo CMS, poi sinergia con attività ALICE

Domenico Elia4Workshop PRIN STOA-LHC / EGI CF - Bari, STOA-LHC Attività svolta (I)  Ottimizzazione analisi interattiva (BA*, CA, TO, TS, LNL):  in tutte le sedi coinvolte sono state realizzati cluster dinamici di analisi virtuali (Virtual Analysis Facility, VAF) basati su PROOF e integrati nella infrastruttura Cloud locale  la possibilità dei cluster di interfacciarsi direttamente con la piattaforma software di gestione del calcolo Cloud ha garantito le richieste caratteristiche di interattività, inclusa la possibilità di modulare le risorse impiegate secondo necessità  l’integrazione delle VAF in centri di calcolo multi-purpose ha permesso di studiare l’ottimizzazione delle risorse tramite una infrastruttura di tipo Cloud, dimostrando come diversi tipi di applicazione possano essere associati a diverse macchine virtuali istanziabili secondo necessità e consentendo di destinare risorse interattive inutilizzate ad altre applicazioni e viceversa

Domenico Elia5Workshop PRIN STOA-LHC / EGI CF - Bari, STOA-LHC Attività svolta (II)  Ottimizzazione accesso ai dati (BA*, CA, TO, TS, LNL):  è stato implementato un sistema di archiviazione dati federato (Data Federation, DF), distribuito tra tutti i siti coinvolti nello sviluppo VAF, attraverso l’uso del protocollo XRootD  l’impego di XRootD per l’accesso remoto ai dati ha consentito di realizzare un unico catalogo distribuito nazionale in grado di fondere tutte le risorse di storage messe a disposizione dai siti, conferendo allo stesso tempo accesso scalabile e “fault tolerant”  i tempi di accesso ai dati (e quindi dell’analisi) attraverso la DF sono risultati vantaggiosi rispetto all’accesso via catalogo centrale ALICE (AliEn), sulla base di studi condotti in modo coordinato da e tra i diversi siti coinvolti nell’attività  Sviluppo di Science Gateway (vedi presentazione CT)

Domenico Elia6Workshop PRIN STOA-LHC / EGI CF - Bari, STOA-LHC Problemi e prospettive (I)  Problemi risolti e da risolvere :  sono stati risolti numerosi problemi relativi all’esposizione della contestualizzazione, alla gestione delle VAF in reti virtuali private e all’ottimizzazione della performance sia di inizializzazione che di elasticità di OpenStack  si è rinunciato all’uso dei dischi locali degli hypervisor come cache storage di secondo livello in quanto tale configurazione si è rivelata problematica da gestire in ambiente Cloud  la parte di autenticazione di XRootD non è stata ancora attivata, si sta valutando la possibilità di usare lo standard X.509  si attende che i siti possano mettere a disposizione più server e, laddove possibile, connessi a 10 Gbps: possibilità di avere campioni più estesi, strategico per l’analisi dei gruppi italiani

Domenico Elia7Workshop PRIN STOA-LHC / EGI CF - Bari, STOA-LHC Problemi e prospettive (II)  Opportunità e prospettive:  la DF italiana potrebbe ospitare qualunque tipo di dato, non solo proveniente da esperimenti ad LHC, e quindi essere utilizzata da qualunque sistema in grado di gestire il protocollo XRootD  anche l’uso elastico delle risorse Cloud implementato dalla VAF può essere facilmente esteso e riutilizzato da gruppi non-LHC per implementazioni di framework di analisi diversi da quello di ALICE (esempi in questo senso in alcune sedi)

Domenico Elia8Workshop PRIN STOA-LHC / EGI CF - Bari, STOA-LHC Dettagli attività specifica siti

Domenico Elia9Workshop PRIN STOA-LHC / EGI CF - Bari, STOA-LHC Dettagli attività BA A VAF-PROOF cluster has been developed in Bari for the ALICE experiment. Current configuration: –14 VMs available, VM Flavour: 4 CPU, RAM: 8 GB, Disk Space: 20 GB –Up to 56 Worker Nodes (WNs) available to users Scalability and elasticity performances have been tested using an I/O intensive analysis A DATA Federation for VAF users exploiting XROOTD remote data access protocol has been set-up: –The configuration consists of a Global Redirector at Bari and a Local Redirector in each other site belonging to the Federation - Cagliari (CA), Padova-Legnaro (PD-LNL), Torino (TO), Trieste (TS) G. Miniello and G. Vino Virtual Analysis BA

Domenico Elia10Workshop PRIN STOA-LHC / EGI CF - Bari, STOA-LHC Dettagli attività BA G. Miniello and G. Vino Elasticity performance: The time taken by VMs to complete the boot and join the cluster follow quite the same trend, with a gap of few tens seconds only Only few minutes to pass from one single worker to a cluster of 18 workers The time to add a further worker decreases and becomes more stable as the number of workers in the cluster gets higher

Domenico Elia11Workshop PRIN STOA-LHC / EGI CF - Bari, STOA-LHC Dettagli attività BA G. Miniello and G. Vino Scalability performance: Analysis time scales increasing the number of the enabled PROOF workers More than 85% of total WCT reduction passing from a 4- to a 40-WNs configuration

Domenico Elia12Workshop PRIN STOA-LHC / EGI CF - Bari, STOA-LHC Dettagli attività BA G. Miniello and G. Vino XRootD-based Data Federation To reduce remote data access time a Data Federation (DF) storage system for ALICE has been implemented using XRootD protocol The computing sites involved in the DF project are the T2s BA, PD- LNL and TO plus CA and TS sites The DF exploits the high bandwidth and low latency features of the italian GARR network which links all the sites The XRootD hierarchy tested includes a Local Redirector for each site and a Global Italian Redirector located in Bari The same studies about the total WCT of analysis jobs accessing files from each different site have been performed and compared with those obtained using AliEn Catalogue access

Domenico Elia13Workshop PRIN STOA-LHC / EGI CF - Bari, STOA-LHC Dettagli attività BA G. Miniello and G. Vino XRootD-based Data Federation

Domenico Elia14Workshop PRIN STOA-LHC / EGI CF - Bari, STOA-LHC Dettagli attività BA G. Miniello and G. Vino First results: The WCTs obtained accessing data via DF are generally much lower than accessing them via AliEn; #WNs<20: the splitting in 2 servers available in PD-LNL helps despite the lower bandwidth wrt TO; # WNs >30: the trend of the yellow line keeps pretty constant due to the PD-LNL bandwidth (1 Gbps) which is lower than that of BA and TO (10 Gbps)

Domenico Elia15Workshop PRIN STOA-LHC / EGI CF - Bari, STOA-LHC Dettagli attività BA G. Miniello and G. Vino Conclusions A VAF for the ALICE experiment at the LHC has been developed at BARI PRISMA Openstack Infrastructure; A VAF cluster configuration with up to 56 WNs is currently available at BARI; Elasticity and Scalability features shows that 40 PROOF workers are available in ≈5 min and a reduction greater than 85% of the total analysis time can be achieved passing from a 4- to a 40-workers configuration; A Data Federation for VAF to reduce data access time has been implemented among several italian sites with a Global Redirector set-up in Bari and a Local Redirector for each site: –The average WCT of the benchmark analysis has been evaluated accessing files from the different sites –An actual decrease of WCTs accessing data via the DF has been observed –Aligning the bandwidth of all the sites involved could definitely improve the performance of the DF

Domenico Elia16Workshop PRIN STOA-LHC / EGI CF - Bari, STOA-LHC Dettagli attività LNL-PD Sommario Fondi PRIN: assegno di ricerca biennale LNL a Massimo Venaruzzo, utilizzato per un anno, dal 2/1 al 29/12/2014 Attività: –Installazione e test sulla Cloud di Area Padovana di una Virtual Analysis Facility e del tool di monitoring, entrambe sviluppate a Torino –Partecipazione all’infrastruttura di storage condiviso tra siti italiani ALICE, basata tu XrootD M. Biasotto, A. Dainese, S. Fantinel and M. Sgaravatto

Domenico Elia17Workshop PRIN STOA-LHC / EGI CF - Bari, STOA-LHC Dettagli attività LNL-PD Background: Cloud dell’Area Padovana –Basata su OpenStack, autenticazione AAI –Risorse distribuite tra Padova e LNL, sul modello del Tier-2 –Dopo fase di test, entrata in “produzione” da fine 2014 Risorse attuali: -50 TB CPU virtuali M. Biasotto, A. Dainese, S. Fantinel and M. Sgaravatto

Domenico Elia18Workshop PRIN STOA-LHC / EGI CF - Bari, STOA-LHC Dettagli attività LNL-PD VAF sulla Cloud dell’area Padovana L’assegnista PRIN è stato utente pilota della Cloud nella fase di preproduzione e transizione alla fase di produzione Installazione della Virtual Analysis Facility elasticamente espandibile, sviluppata a Torino e basata su PROOF, PoD e CernVM Installazione e test tool di monitoring Staging dataset di TEST (AOD ALICE) e test con analisi ALICE M. Biasotto, A. Dainese, S. Fantinel and M. Sgaravatto

Domenico Elia19Workshop PRIN STOA-LHC / EGI CF - Bari, STOA-LHC Dettagli attività LNL-PD Partecipazione alla Data Federation LNL partecipa allo storage distribuito nazionale ALICE basato su XrootD Sono stati utilizzati due storage dismessi dal Tier-2, per un totale di 66 TB, e due disk server collegati a 2 GB/s, uno dei quali fa anche da redirector XrootD ed è collegato al redirector nazionale di Bari Tempi di accesso ai dati (da Bari) in linea con quelli per altri siti e ridotti rispetto all’accesso da Grid (alien)  vedi grafico report di BA M. Biasotto, A. Dainese, S. Fantinel and M. Sgaravatto