Report da CHEP2013 – Track 3A Distributed Processing and Data Handling on Infrastructure, Sites and Virtualization Davide Salomoni 28/10/2013.

Slides:



Advertisements
Presentazioni simili
ALICE-Italia: IL CALCOLO
Advertisements

P. Capiluppi Organizzazione del Software & Computing CMS Italia I Workshop CMS Italia del Computing & Software Roma Novembre 2001.
Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
1 STATO DELLINTEGRAZIONE TRA I 4 PROGETTI AVVISO 1575/2004 ATTIVITA DEL GRUPPO TECNICO OPERATIVO Riunione del Comitato Tecnico sullInteroperabilità MUR,
Big Data e Big Science Alberto Di Meglio CERN openlab CTO DOI: /zenodo.8610.
CSN1 – 7 febbraio 2006 Francesco Forti, INFN-Pisa per il gruppo di referaggio.
Editors: Paolo Colautti, Davide Moro
Commissione 1, Roma, 3 Aprile 2007M. Villa Stato del LUCID M. Villa per il LUCID group Storia recente Nuova strategia rivelatore Tests su fascio Tests.
16 Maggio CSN1 Computing-Software-Analysis CMS-INFN TEAM Analisi in CMS: stato e prospettive del supporto italiano.
Sezione di Padova Contributo alla costruzione dei layers 6,7 Possibili task per PADOVA:  precedente proposta: R&D della procedura di assemblaggio degli.
1 M&O cat A - consuntivo provvisorio modifica del preventivo 2004 M&O cat B ancora non sono previsti. (saranno presentati al RRB di Aprile) Profili.
1 Ugo Montanari Dipartimento di Informatica Università di Pisa Moving Forward at the Age of 33 A new building for the Dipartimento di Informatica June.
8 Maggio 2002Workshop CCR - La Biodola W2K Coordination Group & HEP-NT Report Enrico M.V. Fasanelli Gian Piero Siroli.
CMS a Trieste Roma, 05/04/2005 GDR. 2 Cronologia : Matura interesse per LHC in Sezione/Gruppo 1 a Trieste Giro d’orizzonte degli esperimenti.
Cosa cambia per CDF  S.Belforte mantiene per ora 20% (1 day/week) su CDF: il necessario per una attivita’ di coordinamento e transizione verso un nuovo.
Halina Bilokon ATLAS Software di fisica DC1 – DC2 DC1 aprile fine 2003 (versioni di software  3.x.x – 7.x.x)  Validation del Software  Aggiornamento.
Storage (ieri, oggi e domani) Luca dell’Agnello INFN-CNAF.
ATLAS PRIN Alessandro De Salvo A. De Salvo – 12 novembre 2015 Cloud Computing Condivisione di risorse tra gruppi EventIndex LHCONE PoD T2D.
Gaetano Maron, Presentazione T2 LNL-Padova, Legnaro 22 dicembre Il Servizio Tecnologie Informatiche ed Elettroniche dei LNL Gaetano Maron.
17-18 Dicembre 2014 Second Belle II italian collaboration meeting – Dicembre 2014 Networking e calcolo di Belle II a Napoli - Recas Silvio Pardi.
+ Eventi ICT Eventi ICT Work Programme 2016/2017 Evento lancio APRE Roma 29/09 semestre/evento-di-lancio-ict /
INFN—Catania Giuseppe Andronico Bologna, 23 Gennaio 2014.
Calcolo a LHC Concezio Bozzi, INFN Ferrara per il gruppo di referaggio: F. Bossi, CB, R. Ferrari, D. Lucchesi, D. Martello, [M. Morandin], S. Pirrone,
Trasferimento Tecnologico Cristina Vistoli 1. Trasferimento tecnologico  Uno dei compiti istituzionali dell’INFN  Disciplinato da un regolamento conto.
Domenico Elia1 Calcolo ALICE: stato e richieste finanziarie Domenico Elia Riunione Referee Calcolo LHC / Padova, Riunione con Referee Calcolo.
Calcolo ALICE1 Calcolo ALICE: stato e richieste Domenico Elia e Massimo Masera Referee Calcolo LHC / Pisa, Riunione con Referee Calcolo LHC Pisa,
EU-IndiaGrid2 (RI ) Framework Programme 7 ( ) Research infrastructures projects EU-IndiaGrid2 Sustainable e- infrastructures.
FONDACloud Federated EnvirONment for Data Analysis in the Cloud Call ICT-7 (23 Apr ‘14) Luciano Gaido (INFN-TO)
Futuro di EGI EGI è menzionato esplicitamente nel draft delle nuove calls EU ( H2020 ) Da ultima versione (per me) data 18-9 di –HORIZON 2020 – WORK PROGRAMME.
Report da OpenStack Summit Vancouver 2015 Giuseppe Andronico.
Bari, Bologna, LNF, Mi-Bicocca, Napoli, Pavia, Roma3 (1), Trieste.
CNAF e Tier 1 Presentazione alla Commissione Scientifica Nazionale 2 dell’ INFN 25 novembre 2013 G. Maron 1.
Sommario richieste CSN1 Consiglio di Sezione 28/06/2013 Attilio Andreazza.
Who we are EUAsiaGrid 1Istituto Nazionale di Fisica Nucleare (Italy) (coordinator) 2CESNET (Czech Republic) 3University of Manchester (UK) 4HealthGrid.
Claudio Grandi INFN Bologna Centres of Excellence in H2020 Claudio Grandi INFN-Bologna.
Attività Big Data/Data Science in HEP (CERN e US)
Status Report Gruppo Storage CCR CCR 14-15/03/2006.
Online U. Marconi Bologna, 5/9/2016.
GridPACS: INFN Project
EU-IndiaGrid Project Joining European and Indian grids for escience
Effort EGI (Cloud e dintorni)
Luciano Gaido H2020: Evol-EGI status Luciano Gaido
Dichiarazione dei servizi di sito nel GOCDB
Marco Zanetti, Coordinatore comitato ordinatore
Alberto Masoni EU-IndiaGrid Project Manager INFN Sezione di Cagliari
PRIN Roma1 – status Luciano Barone, Alessandro De Salvo
Gruppo storage CCR Nuove attivita’ 2007 Alessandro Brunengo CCR - Roma
From 8 to 80 boxes. From FBSNG to Condor CPU Satura !
I progetti PI2S2 e TriGrid VL
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
Analisi dei dati dell’Esperimento ALICE
Riunione della Commissione Calcolo e Reti – Torino, 3-4 aprile 2017
L’infrastruttura grid italiana nel contesto internazionale
(Breve) Riassunto del workshop WLCG
CNAF e Nuvole Comitato Tecnico del CNAF
ViralPack: Un pacchetto integrato di bioinformatica su Genius
INFN-TS INFN - Sezione di Trieste - C. Strizzolo - L. Strizzolo.
Workshop dei Gruppi di lavoro CCR Michele Michelotto at pd.infn.it
Drafts H2020.
Responsabilita’ INFN in Atlas
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
ONEDATA - distributed data caching -
WARGI-DSS Andrea Sulis, Ph.D.
Highlights del meeting ESPP di Cracovia Settembre 2012 (FISICA DI G1)
Riunione di ATLAS Italia - BO
IGI e l’impatto sui servizi calcolo
La richiesta si basa sulle seguenti considerazioni:
Study of Bc in CMSSW: status report Silvia Taroni Sandra Malvezzi Daniele Pedrini INFN Milano-Bicocca.
ATLAS PRIN Roma1 - status Alessandro De Salvo
Transcript della presentazione:

Report da CHEP2013 – Track 3A Distributed Processing and Data Handling on Infrastructure, Sites and Virtualization Davide Salomoni 28/10/2013

CHEP2013: i numeri O(500) partecipanti 15 sessioni plenarie 1 plenaria tenuta da una persona INFN (6.6%) 6 tracks, 7 sessioni parallele (track 3 = 3A+3B) 468 contributi circa il 12.6% con almeno un autore a firma INFN 195 talk circa il 13.3% con almeno un autore a firma INFN Workshop su Data Preservation il 16/10 pomeriggio Davide Salomoni CHEP2013 Report - 28/10/2013

CHEP2013: i comitati International Advisory Comittee, 40 partecipanti di cui 1 INFN (Mauro Morandin)  ≈ 2.5% Programme Chair: Daniele Bonacorsi Per le 6 track: 33 conveners, di cui 4 INFN  ≈ 12% Track 1: Data Acquisition, Trigger and Controls, 4 conveners (0 INFN) Track 2: Event Processing, Simulation and Analysis, 4 conveners (0 INFN) Track 3: Distributed Processing and Data Handling, 5 conveners (1 INFN, Davide Salomoni) Track 4: Data Stores, Data Bases and Storage Systems, 6 conveners (1 INFN, Dario Barberis) Track 5: Software Engineering, Parallelism & Multi-core, 6 conveners (1 INFN, Francesco Giacomini) Track 6: Facilities, Infrastructures, Networking and Collaborative Tools, 8 conveners (1 INFN, Alessandro De Salvo) Davide Salomoni CHEP2013 Report - 28/10/2013

Davide Salomoni CHEP2013 Report - 28/10/2013

Miei commenti sulla Track 3A Summary della Track 3A su http://goo.gl/3s4F8k In evidenza nella track: Opportunistic computing – sia nell’utilizzo di risorse HEP temporaneamente non in uso (es. HLT farms), sia nell’utilizzo di risorse normalmente “non-HEP” (es. supercomputer) Es. ALTAMIRA (Santander), SDSC (San Diego) Effetto a lungo termine sui computing model? Interessanti sviluppi di CernVM – ma con l’importante caveat che si tratta di un progetto best-effort e molto HEP-specific La mancata chiarezza sulla sostenibilità è un punto di diverse realizzazioni, es. Global Service Registry for WLCG Promettenti test sull’uso di Root con Hadoop (nel passato la coppia Root+Hadoop non aveva mostrato grandi prestazioni) Gli esperimenti continuano a sviluppare soluzioni custom anche complesse, spesso – in pratica, se non in teoria – molto experiment-specific  scarsa condivisione Es. job monitoring, VM monitoring, automating usability of distributed resources Molto parlare di Cloud, che gode a volte di finanziamenti anche corposi (cf. Australia, 47+50 M$); tuttavia, poche soluzioni di produzione Da sottolineare in particolare i dubbi sollevati sulla scalabilità dello scheduler di OpenStack (es. R. Medrano Llamas, CERN e I. Sfiligoi, UCSD) Cloud accounting e federazioni missing Davide Salomoni CHEP2013 Report - 28/10/2013

Più in generale su CHEP Abbiamo avuto uno speaker italiano per una plenary (“Designing the computing for the future experiments”, Stefano Spataro, focalizzato sugli sviluppi di Panda a FAIR) In generale, le plenaries non mi sono sembrate particolarmente interessanti o illuminanti/visionarie (vedi lista in seguito) Se guardiamo i talk a CHEP2013 che hanno “qualche firma INFN”, appare che sono circa il 13% del totale e che coprono una vasta gamma di argomenti (vedi slide successiva) Tuttavia la mia impressione è che non abbiamo una strategia come ente verso il calcolo e che i nostri contributi ad es. all’interno di esperimenti siano per lo più “strumentali” o individuali, non strategici A livello di calcolo in generale, ho menzionato a Dario Menasce la necessità di una analisi di tutti i contributi (talk e poster) inviati da persone INFN per valutare la possibilità di condivisione e integrazione delle competenze Nessuna presentazione su “middleware comuni” (un cavallo di battaglia dell’INFN nei 10 anni passati), presenti o futuri; per quanto riguarda EGI, nessun talk e un poster (S.Burke, su GLUE 2) – implicazioni per H2020? Ognun per sé, Grid (o Cloud) per tutti Davide Salomoni CHEP2013 Report - 28/10/2013

Le plenaries CHEP in Amsterdam: from 1985 to 2013, David Groep (NIKHEF, The Netherlands) NIKHEF, the national institute for subatomic physics, Frank Linde (NIKHEF, The Netherlands) C++ evolves!, Axel Naumann (CERN) Software engineering for science at the LSST, Robert Lupton (Princeton, USA) Horizon 2020: an EU perspective on data and computing infrastructures for research, Kostas Glinos (European Commission) Data processing in the wake of massive multicore and GPU, Jim Kowalkowski (FNAL, USA) Future directions for key physics software packages, Philippe Canal (FNAL, USA) Computing for the LHC: the next step up, Torre Wenaus (BNL, USA) Designing the computing for the future experiments, Stefano Spataro (Università di Torino/INFN, Italy) Big Data - Flexible Data - for HEP, Brian Bockelman (University of Nebraska, USA) Probing Big Data for Answers using Data about Data, Edwin Valentijn (University of Groningen, The Netherlands) Data archiving and data stewardship, Pirjo-Leena Forsström (CSC, Finland) Inside numerical weather forecasting - Algorithms, domain decomposition, parallelism, Toon Moene (KNMI, The Netherlands) Software defined networking and bandwidth-on-demand, Inder Monga (ESnet, USA) Trends in Advanced Networking, Harvey Newman (Caltech, USA) Più un talk di uno sponsor (KPMG, The Netherlands) Davide Salomoni CHEP2013 Report - 28/10/2013

I talk con autori INFN Davide Salomoni CHEP2013 Report - 28/10/2013 Many-core applications to online track reconstruction in HEP experiments Integrating multiple scientific computing needs via a Private Cloud Infrastructure Deployment of a WLCG network monitoring infrastructure based on the perfSONAR-PS technology Evaluating Predictive Models of Software Quality Usage of the CMS Higher Level Trigger Farm as a Cloud Resource Testing SLURM open source batch system for a Tier1/Tier2 HEP computing facility Testing of several distributed file-system (HadoopFS, CEPH and GlusterFS) for supporting the HEP experiments analysis The future of event-level information repositories, indexing and selection in ATLAS Implementation of a PC-based Level 0 Trigger Processor for the NA62 Experiment CMS Computing Model Evolution WLCG and IPv6 - the HEPiX IPv6 working group NaNet: a low-latency NIC enabling GPU-based, real-time low level trigger systems A PCIe GEn3 based readout for the LHCb upgrade The Common Analysis Framework Project ArbyTrary, a cloud-based service for low-energy spectroscopy Integration of Cloud resources in the LHCb Distributed Computing Algorithms, performance, and development of the ATLAS High-level trigger An exact framework for uncertainty quantification in Monte Carlo simulation Scholarly literature and the media: scientific impact and social perception of HEP computing Geant4 studies of the CNAO facility system for hadrontherapy treatment of uveal melanomas Computing on Knights and Kepler Architectures Using ssh as portal - The CMS CRAB over glideinWMS experience System performance monitoring of the ALICE Data Acquisition System with Zabbix Automating usability of ATLAS Distributed Computing resources O2: a new combined online and offline > computing for ALICE after 2018 PROOF-based analysis on the ATLAS Grid facilities: first experience with the PoD/PanDa plugin Davide Salomoni CHEP2013 Report - 28/10/2013

I poster con autori INFN CMS users data management service integration and first experiences with its NoSQL data storage Architectural improvements and 28nm FPGA implementation of the APEnet+ 3D Torus network for hybrid HPC systems INFN Pisa scientific computation environment (GRID HPC and Interactive analysis) GPU for Real Time processing in HEP trigger systems Arby, a general purpose, low-energy spectroscopy simulation tool The ATLAS EventIndex: an event catalogue for experiments collecting large amounts of data Testing and Open Source installation and server provisioning tool for the INFN-CNAF Tier1 Storage system Optimization of Italian CMS Computing Centers via MIUR funded Research Projects Design and Performance of the Virtualization Platform for Offline computing on the ATLAS TDAQ Farm New physics and old errors: validating the building blocks of major Monte Carlo codes Real-time flavor tagging selection in ATLAS Distributed storage and cloud computing: a test case Dirac integration with a general purpose bookkeeping DB: a complete general suite Toward the Cloud Storage Interface of the INFN CNAF Tier-1 Mass Storage System Preserving access to ALEPH Computing Environment via Virtual Machines The Legnaro-Padova distributed Tier-2: challenges and results Changing the batch system in a Tier 1 computing center: why and how A flexible monitoring infrastructure for the simulation requests TASS - Trigger and Acquisition System Simulator - An interactive graphical tool for Daq and trigger design The ALICE DAQ infoLogger CORAL and COOL during the LHC long shutdown A quasi-online distributed data processing on WAN: the ATLAS muon calibration system The ALICE Data Quality Monitoring: qualitative and quantitative review of 3 years of operations Long Term Data Preservation for CDF at INFN-CNAF Many-core on the Grid: From Exploration to Production R work for a data model definition: data access and storage system studies Negative improvements Installation and configuration of an SDN test-bed made of physical switches and virtual switches managed by an Open Flow controller An Xrootd Italian Federation for CMS An Infrastructure in Support of Software Development Geant4 Electromagnetic Physics for LHC Upgrade Self-Organizing Map in ATLAS Higgs Searches Compute Farm Software for ATLAS IBL Calibration Davide Salomoni CHEP2013 Report - 28/10/2013