Tommaso Boccali (INFN-Pisa / CERN)

Slides:



Advertisements
Presentazioni simili
Proposta per una cache distribuita a livello italiano ALESSANDRO DE SALVO (RM1) TOMMASO BOCCALI (PI)
Advertisements

Uso della rete geografica e richieste di upgrade CCR 31/3/2015 (Roma) S.Zani.
Stato e previsione rete nelle sedi INFN Survey ed ipotesi di sviluppo fino al 2018 CCR 8-10 Settembre 2018 (Roma) 1 S.Zani (Netgroup)
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Gruppo Netarch Incontro di lavoro della CCR Napoli gennaio 2010 Connessioni Tier1/Tier2 a GARR-X 1 GM, Incontro di lavoro della CCR – Napoli
1 GM, CCR, Roma 2 marzo 2010 Gruppo Netarch Riunione CCR Roma 2 marzo 2010 Relazione Gruppo NetArch.
Referaggio delle richieste dei gruppi di lavoro G. Ambrosi, R. Fantechi, M. Gulmini, O. Pinazza Commissione Calcolo e Reti, CNAF, 16 Marzo 2011.
PRIN NAPOLI Enzo Capone, Gianpaolo Carlino, Alessandra Doria, Rosario Esposito, Leonardo Merola, Silvio Pardi, Arturo Sanchez Pineda.
+ Call di Big Data (EINFRA- 1). + La call … + + Cosa abbiamo in mano (come INFN) 1. L’infrastruttura 1 Tier Tier2 O(25000) cores O(20) PB di Disco.
“Non c’è nessun buon motivo per il quale ogni persona nel mondo debba possedere un computer”- Kenneth Henry Olsen. (una delle frasi più sbagliate nella.
AFS NELLA SEZIONE DI PADOVA aree_utenti: attualmente nessuno ha la proria home in AFS e quasi nessuno utilizza l'area utenti di AFS. /usr/local: si preferisce.
Torino, Andrea Dainese 1 Andrea Dainese (INFN – LNL) Stato del Tier-2 ALICE a Legnaro.
Acquisti TIER T2 team e Pistoni per la consulenza sull’hardware.
20-21/03/2006Workshop sullo storage - CNAF Alessandro Brunengo.
RD_FA kick-off workshop
Evoluzione del collegamento geografico e collaudo della nuova struttura CORE del TIER1 CDG – 06/10/2016 Stefano Zani
CMS – Relazione dei referee su MOFA, Similfellow e Milestones
Resoconto delle attività del Gruppo di Lavoro DR
Richieste di connettività
Status Report Gruppo Storage CCR CCR 14-15/03/2006.
Online U. Marconi Bologna, 5/9/2016.
Summary di (quasi) tutti gli utenti non presentati…
dCache Test effettuati al CNAF
App-to-Cloud Security
Ricostruzione immagini Positron Emission Tomography (PET)
H2020 – gruppo ‘data’.
Comput-ER l'infrastruttura di calcolo distribuito in Emilia Romagna
Engineering Faculty University of Messina, Italy Marco Scarpa
Massimo Masera CSNIII Roma, 20 marzo 2012
Metodologie Quantitative per il Calcolo Scientifico
Richieste di upgrade dei link di accesso alla rete Geografica
Collegamento a Garr-X Il collegamento alla nuova rete Garr-X dovrà garantire il massimo della efficienza nella gestione della banda. Per identificare opportunamente.
Collaudo della nuova struttura CORE del TIER1 e migrazione delle risorse dalla attuale infrastruttura di rete a quella nuova CDG – 07/12/2016.
Cloud per HA nei Servizi
Analysis framework of distributed thread and malware data-sources
Michele Punturo INFN Perugia
Netgroup Attività 2007 R.Gomezel.
Servizi Nazionali INFN
Richieste preliminari calcolo non LHC
Stato Acquisti Switch/Router T2
Pisa.
Sicurezza e Grid Computing
Assegnazione risorse Stato INFN CNAF,
Incontro al CINECA per HEP - summary
Rapporto del Gruppo NetArch
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
Estensioni elastiche CNAF – un po’ di idee e status report
Analisi dei dati dell’Esperimento ALICE
Attvità Computing – Inverno 08/09
Parlando di network i discorsi naturalmente diventano complessi (creazione di un intero ecosistema virtuale comparabile ad uno reale): Separazione layers.
(Breve) Riassunto del workshop WLCG
Implementazione di TRIP e Eduroam
INFN-TS INFN - Sezione di Trieste - C. Strizzolo - L. Strizzolo.
MC-INFN.
INAF – Osservatorio Astrofisico di Catania
IL CALCOLO DI ALICE IN ITALIA
Drafts H2020.
Distributed cache proposal
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
Job Application Monitoring (JAM)
Modulo 3 Costituzione del consorzio dei partner
ONEDATA - distributed data caching -
Il business model Giorno 3
Sommario Riunione CSN1 Bilancio 2011 Bilancio 2012 Questioni aperte
La richiesta si basa sulle seguenti considerazioni:
Progetto di Tecnologie Web 2014/2015 THERMOWEB
Preventivi CCR 2018 INFN Roma Tor Vergata.
Progetto GARR per SRT Marco Marletta Catania, 10 settembre 2018
Obbiettivi kickoff Presentazione del progetto e di alcune possibile tecnologie da utilizzare Capire i reciproci (infn-garr) requirement Organizzare gruppi.
Commissione Calcolo e Reti
Transcript della presentazione:

Tommaso Boccali (INFN-Pisa / CERN) IDDLS (Italian Distributed Data Lake for Science) Preventivi Pisani 2020 Tommaso Boccali (INFN-Pisa / CERN)

Cosa fa? Vuole implementare su scala italiana, utilizzando tecnologie di rete all’avanguardia, un prototipo di un Data Lake (non solo per) LHC Data Lake: nasce dall’idea di consolidare lo storage necessario a LHC (sia per data preservation che per operazioni) in modo sicuro, e indipendente dalla locazione effettiva delle CPU (“mettiamo i dati al sicuro”); inoltre, mediante distinte visioni logiche (“un solo lake”) e fisiche (“N siti partecipano”) diminuire il numero di copie distribuite dei dati Una rete di nuova generazione e’ necessaria affinche’ i dati possano arrivare alle CPU, in modalita’ molto simile a quello che succede oggi con Neflix: Cache mediated se necessario Con previsioni di uso

The data lake model > 1 Tb/s HPC center CPU center Lake Node 1 Lake Node 3 Keep the real value from the experiments safe (RAW) data and a solid baseline of CPU in owned and stable sites Allow for multiple CPU resources to join, even temporarily Eventually choosing the cheapest at any moment Solid networking: use caches / streaming to access data Reduce requirements for Computing resources Commercial Clouds Other sciences’ resources SKA, CTA, Dune, Genomics, ... HPC systems CPU center > 1 Tb/s Lake Node 4 Lake Node 2 CPU center CPU center HPC center ProtoDune 2-3 GB/s (like CMS); Real Dune 80x SKA up to 2 PB/day A single genome ~ 100 GB. a 1M survey = 100 PB CTA projects to 10 PB/y

Come? La rete e’ la componente essenziale: GARR fa parte dell’esperimento! Utilizzare le infrastrutture GARR (che mette a disposizione ~200kEur per il progetto) per creare un’aggiuntiva rete veloce dedicata fra alcuni nodi italiani (T1, T2) La tecnologia utilizzata e’ DCI, che abbiamo gia’ sperimentato per il link CNAF-CINECA: una connessione point-to-point su singola fibra fino a 1.2 Tbit/s (100 Gbit/s per partire) Perche’ PI e LNL sono «arancioni»? Pisa: problema e’ bypassare il Serra, al momento non banale Si comincia con gli altri siti

Perche’ e’ interessante? Ad almeno 100 Gbit/s la LAN e la WAN diventano praticamente indistinguibili come banda La latenza non e’ un problema con sistemi predittivi tipo TTreeCache: «vedo che negli ultimi 100 eventi hai letto da disco i Muoni da disco, mi porto avanto e faccio prefetch» In generale per il GARR, connettere l’italia usando N link point-to-point potrebbe essere piu’ economico dell’infrastruttura attuale con nodi di concentrazione

Caching! Esempio concreto per CMS Spostarsi (per una frazione dello storage) da disco managed via sistemi di data movement attivi a caches passive Invece di avere caches desincronizzate per sito, con probabile spreco di cache via riempimenti multipli, mettere in piedi una insfrastruttura nazionale di caching intelligente, sfruttando una gerarchia di storages Il disco locale e’ piu’ veloce di tutto Una cache distribuita nazionale e’ comunque piu’ veloce di un accesso remoto (rete nazionale > rete internazionale) Al limite, accesso remoto con riempimento della cache

Stato Nella pratica, non e’ successo quasi nulla. Motivo: non siamo ancora riusciti a trovare un accordo con GARR su cosa comprare che rispetti il budget e usi una tecnologia più innovativa rispetto a 100Gbit/s standard, i.e. DCI. Appena questo succede, si parte con le sperimentazioni Per lo stesso motivo, non e’ stato speso praticamente nulla Pisa: 500 Eur Missioni, 0 spese (Kick off meeting da remoto / su altri fondi) Personale in sezione Io 20%: interesse sul lato caching solution, anche in vista del progetto ESCAPE e delle implementazioni EOSC; per patti con presidente CSN1, tali 20% _non_ sono tolti da CMS Enrico 10%: lato networking, tentativo (nonostante Serra) di avere 100 Gbit/s asap In tal caso la connettivita’ geografica andrebbe a spese GARR + l’apparato locale sul progetto, in tasca CNAF Richieste 2020: In linea con 2019, pochi soldi missione O(1000 Eur); apparati su tasca CNAF

Totali richieste 2018 («non spesi»)  Sostanzialmente replicate per 2019