(Breve) Riassunto del workshop WLCG
Computing resources Il modo in cui oggi accediamo alle risorse opportunistiche diventerà il modo standard in cui si accederà alle risorse. Uso diffuso di infrastrutture HPC ma ancora complicato. Più semplice per le Cloud. In tutti i casi è critico l'aspetto di accesso ai dati. Lo use case della simulazione (che copre una buona percentuale delle richieste di CPU) richiede accesso limitato ai dati.
Security EDUGain e federated ID management systems Isolamento dei job tramite virtualizzazione e containers. Non sarà più necessario glexec perché ci sono alternative per la tracciabilità dei job. I Multi-User Pilot Jobs devono essere protetti internamente. Serve sviluppare strumenti "Big Data" per la gestione dei dati di tracciabilità Serve migliorare le procedure di incident response I threats sono ora più sulle persone (fishing) che sul software. Serve "educazione"
Data management Non ci sono problemi nuovi ma i vecchi non sono risolti. Servono incontri con gli storage providers. Sistemi di object storage sempre più popolari ma non è chiaro quale sia il modo più efficiente di usarli (ad esempio pare uno spreco usarli per installarci file system posix) Si pensa di trasformare lo storage dei Tier-2 in caches (con info catalogate o solo come proxy). Serve costruire dei prototipi per capire l'impatto sui centri principali (Tier-1) che dovranno servire i dati agli altri siti. Modello alternativo di storage federato per gruppi di piccoli siti. I problemi sono analoghi a quelli che oggi vediamo sui siti opportunistici. Non si è discusso di cloud storage (dropbox like)
Information Systems, accounting and benchmarking Eliminazione delle dipendenze dal BDII nell'infrastruttura. Anche senza BDII serve un Information System affidabile e per cui non serve maggior effort dai site administrators. Necessario rendere disponibili i benchmark di tutte le risorse WLCG. Serve una procedura di fast benchmark da girare su ogni risorsa non-WLCG acquisita. EGI ha prodotto procedure di accounting per Cloud (provate) ma non c'è nulla su sistemi HPC e Cloud commerciali. Serve qualcosa anche per risorse non WN.
Long term Non c'è stata abbastanza discussione. Serve migliorare il modelling. Ancora non si riesce a stimare il costo del calcolo per HL-LHC. Sviluppo di strumenti comuni difficile. Possibile per nuovi tools man non per gli esistenti. Poco input dai gestori dei siti. Serviranno nuovi strumenti perché cambia il modello di acquisizione delle risorse. Evoluzione in step tramite "demonstrators"