Distributed cache proposal
caveat Pare una cosa interessante da fare, ma non sono sicuro sarebbe stata la prima priorita’ di ATLAS e CMS Pero’, se c’e’ l’opportunita’, e’ una cosa interessante anche dal punto di vista R&D Idea: schermare gli utenti italiani da accessi remoti in streaming a alta latenza/bassa banda da fuori I cinfini nazionali Usare la rete GARR e dimostrare le nuove capabilities che avremmo nel caso di un suo ramp/up a 100 Gbit/s (a piu’ lungo termine questo puo’ essere considerato un prototipo di T2/T3 diskless…)
idea Al momento gli accessi ai files sono soprattutto locali (paradigma datagrid…), ma le cose stanno cambiando velocemente ATLAS e CMS hanno nel modello > 10% di accessi remoti fallback, Overflow, decisione attiva dell’utente Accesso remoto e’ sostanzialmente Xrootd adesso (a me piacerebbe WebDAV da sempre, ma effettivamente e’ un po’ indietro) Xrootd e’ sulla carta bravo a fare da cache, visto che riesce a farla block per block (non file per file)
OGGI – accesso a risorse remote Questi accessi “costano”, e possono essere ripetuti molte volte
idea
vantaggi Gli utenti in italia vedrebbero come cache reale la somma dello storage standard T1+T2 + cache E’ una cache grossa! Se GARR va a 100 Gbit/s (cosa che temo ci servira’ comunque, guardate gli US…), e lo fa senza passare da Marte (latenza “geodetica”), la banda e la latenza sarebbero quasi efficienti come accesso locale Ricordiamoci che tutti (spero!) utilizzino TTreeCache per questo!
Stima costi Problema principale e’ quello di capire quanto costa uno storage di 200-300 TB che pero’ garantisca 50 Gbit/s (5 GB/s) Dipende da “dove vanno” siti come Pisa, che hanno una SAN grossa, ce la possono fare a prezzi ~referaggio (250 Eur/TBN) siti che hanno scatoli singoli probabilmente no