Incontro al CINECA per HEP - summary

Slides:



Advertisements
Presentazioni simili
BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015.
Advertisements

Virtualizzazione nell’INFN Andrea Chierici 11 Dicembre 2008.
Implementazione di TRIP ai LNF Commissione Calcolo e Reti 31 maggio 2007 Massimo Pistoni.
Gruppo Netarch Incontro di lavoro della CCR Napoli gennaio 2010 Connessioni Tier1/Tier2 a GARR-X 1 GM, Incontro di lavoro della CCR – Napoli
Comunicazioni ATLAS Italia Bologna 6/5/2010 Similfellow – 2010 II Conferenze (SIF e IFAE) Telefoni CERN CSN1 (Torino e riunione referee) Info Sestri Levante.
Sistema Informativo. Mansioni Gestione della piattaforma hardware e sistemistica del sistema informativo INFN In realta’ il mansionario e’ in continua.
Dynamic Farm Espansione Dinamica di una Farm Vincenzo Ciaschini CCR 31/3/2015.
PRIN NAPOLI Enzo Capone, Gianpaolo Carlino, Alessandra Doria, Rosario Esposito, Leonardo Merola, Silvio Pardi, Arturo Sanchez Pineda.
+ Call di Big Data (EINFRA- 1). + La call … + + Cosa abbiamo in mano (come INFN) 1. L’infrastruttura 1 Tier Tier2 O(25000) cores O(20) PB di Disco.
Pisa. Xrootd Pisa e’ ora insieme a Bari il nodo centrale europeo della federazione Xrootd di CMS – Per capirci, il CERN usa questi nodi per il fallback.
Report Esito questionario consultivo delle azioni formative Solo per Istituti Comprensivi Anno scolastico 2014/2015 A cura di: Dott. Alessandro Gallo Area.
L’ARTE DEL SAPER COMUNICARE Veronica Brizzi Grafica pubblicitaria Emanuele Chichi Ing. Informatico.
Attività PRIN STOA a Cagliari Alessandro De Falco Università/INFN Cagliari.
OpenWrt Diego Furlan. Panoramica ● Presentazione ● Download software ● Configurazione software ● Compilazione firmware ● Upload firmware ● Configurazione.
Gestione dei collegamenti UMTS Corso Rete Sismica Mobile | Roma maggio 2013.
Alessandro De Salvo Status dei Tier2 di ATLAS Alessandro De Salvo
AFS NELLA SEZIONE DI PADOVA aree_utenti: attualmente nessuno ha la proria home in AFS e quasi nessuno utilizza l'area utenti di AFS. /usr/local: si preferisce.
Acquisti TIER T2 team e Pistoni per la consulenza sull’hardware.
Programmare “per gioco” SCRATCH Lo programmerò. Programmerò solo per lei.
VO-Neural Project e GRID Giovanni d’Angelo Dipartimento di Scienze Fisiche Università degli Studi di Napoli Federico II Martina Franca 12 – 23 Novembre.
Studente Relatore Controrelatore Committente Sara Cervone
FARE MATCHING PER CRESCERE Unione Confcommercio Milano 17 OTTOBRE 2016.
PROGETTO RELAZIONI PREPOTENTI
Evoluzione del collegamento geografico e collaudo della nuova struttura CORE del TIER1 CDG – 06/10/2016 Stefano Zani
Resoconto delle attività del Gruppo di Lavoro DR
Cms.
Status Report Gruppo Storage CCR CCR 14-15/03/2006.
Summary di (quasi) tutti gli utenti non presentati…
dCache Test effettuati al CNAF
Giovanni Maccarrone LNF
CMS HPC Italia.
VIOLENZA.
H2020 – gruppo ‘data’.
INFN-Bari.
Alternanza scuola/lavoro
Risultati ultimi mesi Piano di lavoro prossimi mesi Reclutamento
Richieste di upgrade dei link di accesso alla rete Geografica
Installazione Storage 2016
Terza Lezione → Navigare nel file System → parte 2
Università di Messina - C.E.C.U.M.
Attivita’ e compiti del Servizio Impianti Calcolo e Reti
PRIN Roma1 – status Luciano Barone, Alessandro De Salvo
Stato tape CDG 6/10/2016.
Stato Acquisti Switch/Router T2
Pisa.
VIOLENZA.
Assegnazione risorse Stato INFN CNAF,
Estensioni elastiche CNAF – un po’ di idee e status report
Aggiornamenti dal Tier-1
Aggiornamento sullo stato del Tier-2 di Catania
Sommario Riunione CSN1 Comunicazioni F. Bedeschi Roma, Luglio 2013
(Breve) Riassunto del workshop WLCG
INFN-TS INFN - Sezione di Trieste - C. Strizzolo - L. Strizzolo.
Workshop dei Gruppi di lavoro CCR Michele Michelotto at pd.infn.it
TAVOLA ROTONDA introduzione
Distributed cache proposal
ONEDATA - distributed data caching -
R.Gomezel Commissione Calcolo e Reti CNAF
Da circa 10 anni il fornisce agli utenti dei labs, che ne facciano richiesta, un servizio di storage via NFS. Come T2 viene fornito da qualche.
La richiesta si basa sulle seguenti considerazioni:
Dedicato alla corretta gestione della Posta Elettonica Certificata
Cosa c’è in copertina? Un bambino che si chiama Roberto e il … mago dei numeri.
Parti interne del computer
ATLAS PRIN Roma1 - status Alessandro De Salvo
RISULTATI PRELIMINARI QUESTIONARI
Esercitazione su un progetto di comunicazione interna
Fare ricerca mai così facile!
Riflessioni sull’apprendimento
Tommaso Boccali (INFN-Pisa / CERN)
CLOUD.
Transcript della presentazione:

Incontro al CINECA per HEP - summary

presenti rappresentanti dei 4 esperimenti LHC Stefano Bagnasco e Matteo Concas per ALICE Alessandro De Salvo per ATLAS Tommaso Boccali e Claudio Grandi per CMS Concezio Bozzi ed Antonio Falabella per LHCb del Tier-1 (Luca dell’Agnello) CINECA Giuseppe Fiameni, Elda Rossi, Sanzio Bassini e Nicola Spallanzani

General feeling A dispetto delle iniziali comunicazioni via e-mail (molto poco aperte a cambiamenti all’attuale configurazione), il clima e’ stato estremamente collaborativo In particolare, aspetti positivi da sottolineare Nessuna obiezione alle modifiche kernel da noi richieste (principalmente CVMFS) Apertura a grosse riconfigurazioni per accesso via cloud ai nodi (tecnologia di interesse per il CINECA per attrarre altri clienti, per loro stessa ammissione) O, in subordine, a valutare l’aspetto Docker Interesse ad utilizzo opportunistico di risorse (ammettono di avere clienti che lavorano poche ore al giorno, e in fasce orarie ben determinate)

Hardware Si e’ solamente parlato della partizione A1 di Marconi; questa va dimessa entro l’estate per essere soppiantata da A3 (che diventera la nuova A1) Informazioni aggiuntive: i nodi sono installati con Centos7.2; i nodi sono dotati di un'interfaccia a 10 Gbit con indirizzo IPv4 dietro un NAT (potenziale collo di bottiglia - non chiara la banda passante totale); i nodi sono dotati solo di un piccolo disco SSD (non sufficiente come /scratch) e montano uno shared file-system; lo scheduler e' PBS-pro; Al momento tutti i nodi sono HT-off, per cui con 128 GB di RAM ogni 36 cores. Indipendentemente da noi, il CINECA sta valutando il passaggio a HT-on.

Partizione A1 Non completamente disponibile (sarebbero 1512*36 cores nella configurazione attuale) Hanno genericamente parlato di “un paio di racks” Necessarie modifiche hardware che CINECA vuole contrattare con Lenovo Disco SSD -> HDD capiente (~ 2 TB) Scheda ethernet al posto dell’Omnipath che per noi e’ uno spreco Modalita’ possibili di utilizzo:

1. Utilizzo delle macchine as-is via PBS Necessario aggiuntivo CE al “locale”/CNAF, CREAM/PBS o HTCondor/PBS (??) Necessaria modifica da parte loro al kernel di tutte le macchine per aggiungere (quantomeno) CVMFS (problema del disco /scratch assunto come risolvibile con SSDHDD) Necessario il deployment di uno SQUID “locale”/CNAF “locale”/CNAF: in presenza di una rete robusta CNAFCINECA abbastanza irrilevante. Loro stessi si sono interessati ad una soluzione mediante GARR, per connessione diretta (anche a livello 2). Questo consentirebbe un accesso diretto a GPFS/CNAF anche senza AFM.

2. Utilizzo mediante Cloud Questo per ni sarebbe senz’altro piu’ semplice (no PBS, no configurazione strane): aggiunta elastica delle risorse come per Bari/Aruba Lato CINECA: OpenStack sui nodi Lato nostro: preparazione Immagine VM, inserimento in LSF diretto. Meglio di Bari: vicinanza geografica / banda (sperabilmente) disponibile: omogeneita’ dei WN molto maggiore rispetto a BARI/CNAF; nessuna necessita’ di AFM o caching (utilizzo di INDIGO per gestire le VM, o VM statiche?) Cosa manca? Lato loro, esperienza (e qui potremmo in una certa misura fornirla noi) Problema (che pero’ e’ generale): girare su queste macchine sarebbe facile, ma uso opportunistico tagliato fuori – sarebbero risorse dedicate

(3. Docker) Non e’ chiaro sia supportato da PBSPro, per cui potrebbe non essere una soluzione Pero’ potrebbe essere necessario nella soluzione PBS visto CentOS7.2, al momento NON supportato da LHC Visti I 6 mesi di tempo, potrebbe pero’ diventarlo … (== potremmo fare in modo che ….) A quel punto, francamente, tanto vale andare per VM vere (mia opinione) … anche visto che Docker non risolve banalmente problemi quali CVMFS e/o la necessita di fare dei tunnel a livello Kernel

Come avere opportunistico? Non banale … in ogni caso i nodi darebbero solo quelli di A1, e solo quelli con retrofitting di HDD capienti Per utilizzo opportunistico: O abbiamo anche la soluzione PBS attiva (quindi settaggio di CE-PBS, etc) (+Docker?) O li convinciamo a tirare su VM Openstack sull’hardware standard per esempio in fasce orarie Abbiamo descritto la soluzione CMS per l’HLT – certamente interessante, ma non banalissima da mettere in produzione A regime l’ultima soluzione sarebbe senz’altro la migliore …

E ora? Lato CINECA: Lato nostro: In ogni caso Stanno valutando quanto sia interessante per loro investire lato OpenStack Come detto, non certamente solo per noi: sarebbe soluzione che poi loro considerano “vendibile” Stanno cercando di capire quanto PBSPro sia Docker-friendly Lato nostro: Valutare sforzi necessari per le varie soluzione, e cercare di capire quali dettagli possano esserci sfuggiti In ogni caso Riunione tecnica a Gennaio, con il personale dei servizi T1 ben coinvolto