ATLAS Distributed Computing e Data Management Alessandro De Salvo 19-5-2011 Outline 

Slides:



Advertisements
Presentazioni simili
© 2007 SEI-Società Editrice Internazionale, Apogeo Unità D1 Architetture di rete.
Advertisements

Unità D1 Architetture di rete.
ISA Server 2004 Enterprise Edition Preview. ISA Server 2004.
WebProfessional Web Content Management System
IN QUESTA PRESENTAZIONE…
Cluster openMosix Linux Day ’04 Caserta Ing. Diego Bovenzi.
Architettura Three Tier
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
Proposta di integrazione e consolidamento delle risorse presenti nellinfrastruttura Grid dellItalia Meridionale (L. Merola, )
Remote file access sulla grid e metodi di interconnesione di rete M. Donatelli, A.Ghiselli e G.Mirabelli Infn-Grid network 24 maggio 2001.
Sistemi Distribuiti Reti di Calcolatori a.a. 2003/2004
Sistemi Operativi Distribuiti: indice
Reti di Calcolatori IL LIVELLO RETE.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
Strumenti software per gestire i BIG DATA
U N INFRASTRUTTURA DI SUPPORTO PER SERVIZI DI FILE HOSTING Matteo Corvaro Matricola Corso di Reti di Calcolatori LS – Prof. A. Corradi A.A.
Servizi Grid ed agenti mobili : un ambiente di sviluppo e delivering
Architettura di storage ad alta affidabilita e bilanciamento di carico per volumi centrali e di esperimento A.Brunengo, M.Corosu INFN Sezione di Genova.
EGEE is a project funded by the European Union under contract IST Using SRM: DPM and dCache G.Donvito,V.Spinoso INFN Bari
DFS e soluzioni per le sedi remote
Simulatore per un servizio di consistenza su architettura Grid
Reti di calcolatori LS Manni Tiziano  IT e nuovi scenari applicativi …  … portabilità dei dati …  … condivisione dati …  … disponibilità.
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
Dischi in RAID  Redundant Array of Independent Disk Configurazione che permette di combinare più dischi secondo obiettivi di performance e ridondanza.
CCR 14-15/03/2006 Status Report Gruppo Storage CCR.
Tipi e topologie di LAN Lezione 2.
Test Storage Resource Manager per SC4 Giacinto Donvito Vincenzo Spinoso.
16 Maggio CSN1 Computing-Software-Analysis CMS-INFN TEAM Analisi in CMS: stato e prospettive del supporto italiano.
CSN Maggio 2005 P. Capiluppi Il Computing Model (LHC) nella realta’ italiana u I Computing models degli esperimenti LHC gia’ presentati a Gennaio.
MCSA Mobile Code System Architecture Infrastruttura a supporto della code mobility Pierfrancesco Felicioni Reti di Calcolatori L.S. 2005/2006.
SnippetSearch Database di snippet bilanciato e replicato di Gianluigi Salvi Reti di calcolatori LS – Prof. A.Corradi.
Layered Grid Architecture. Application Fabric “Controlling elements locally”: Access to, & control of, resources Connectivity “Talking to Grid elements”:
Workshop CCR Otranto - giugno 2006 Gruppo storage CCR Status Report Alessandro Brunengo.
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
Nuovo Ambiente CS7402. Attività Principali Gli obiettivi principali della migrazione sono stati quelli di ottenere: –Un’infrastruttura di produzione (Mainframe.
Architetture software
Licensed under Creative Commons Attribution 3.0 License / ShareGrid Idee per prospettive future
ATLAS PRIN Alessandro De Salvo A. De Salvo – 12 novembre 2015 Cloud Computing Condivisione di risorse tra gruppi EventIndex LHCONE PoD T2D.
BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015.
Report R.Gomezel CCR dicembre 2006 Roma.
La Famiglia di Prodotti Network Analyzer. L’analizzatore J6801A DNA è un probe di cattura dati ultra leggero che comprende un sistema di acquisizione.
Open City Platform è un progetto finanziato da Application Store Tutorial 30/09/2015.
Riunione PRIN STOA - Bologna - 18 Giugno 2014 Testbed del T2 distribuito Napoli-Roma Dr. Silvio Pardi INFN-Napoli Riunione PRIN STOA – Bologna 18 Giugno.
Atlas Italia - Milano, 17/11/2009 G. Carlino – News dal Computing 1 1 News dal computing Gianpaolo Carlino INFN Napoli Atlas Italia, Milano, 17/11/09 Nuovo.
C ontrol system based on a H ighly A bstracted and O pen S tructure 1 WP5 !CHAOS Computing Storing and Access Policy WP5 !CHAOS Computing Storing and Access.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 1 ATLAS Attività di TeV Attività di computing Attività di computing.
Il primo anno di presa dati di LHC L’esperienza di calcolo nell’esperimento ATLAS Attività condotte nel 2010 e prospettive future Lorenzo Rinaldi (INFN-CNAF)
Workshop della Commissione Calcolo e Reti 28 Maggio 2013 Federazione di risorse Cloud con CLEVER 1.
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
Overview del middleware gLite Guido Cuscela INFN-Bari II Corso di formazione INFN su aspetti pratici dell'integrazione.
Open City Platform: i primi risultati Riunione CCR, 16 settembre 2015 Luciano Gaido.
19 Ottobre 2012ATLAS Milano1 Stato delle risorse locali di calcolo L. Carminati, L. Perini, D. Rebatto, L. Vaccarossa.
Progetto iSCSI Report alla CCR 12-13/12/2006 Alessandro Tirel – Sezione di Trieste.
1 Firenze, 6 Settembre 2011 G. Carlino – Relazione Referaggi Computing ATLAS Relezione Riunioni Referaggio Calcolo ATLAS Computing Model News Computing.
ANALISI DISTRIBUITA IN ATLAS L’esperienza degli utenti Attilio Picazio Università di Napoli “Federico II” – INFN Napoli 18/05/11Attilio Picazio - Workshop.
CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 1 ATLAS Referaggio Tier2 Attività di TeV Attività di TeV Richieste.
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
ATLAS Italia – Sestri Levante, 15 Giugno 2010 G. Carlino – Richieste Run Efficiency = time for physics / total time LHC Efficiency = time with colliding.
ALICE Computing Readiness Workshop Tier-2 CNAF Jan 17-18, ALICE Computing Readiness 1) ALICE Italia: Persone & organizzazione 2) Test & commisioning.
1 Bari, 21 Settembre 2011 G. Carlino – ATLAS: il calcolo ATLAS: il Calcolo Attività di Computing nel 2011 Attività di Computing nel 2011 Richieste Tier2.
CCR - Roma 15 marzo 2007 Gruppo storage CCR Report sulle attivita’ Alessandro Brunengo.
Alessandro Tirel - Sezione di Trieste Storage servers & TCP Tuning Proposta di studio delle problematiche connesse alla fornitura di servizi di storage.
Il calcolo per l’esperimento GERDA Luciano Pandola INFN, Laboratori del Gran Sasso Riunione della CSN2, LNF Frascati, 29 Novembre 2011.
1 Le macchine di questo pool fanno parte di una lan privata (la 125 illustrata a pag.2), di cui t2cmcondor è il gateway. Sono presenti 3 macchine su rete.
Referaggio Calcolo ATLAS Gianpaolo Carlino INFN Napoli CNAF, 11 Maggio 2012 Attività di Computing ATLAS Attività di Computing in Italia Risorse e Richieste.
Report dalla CSN Settembre Sala dei Mappamondi - Torino Gianpaolo Carlino – CCR 25/10/2012.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Transcript della presentazione:

ATLAS Distributed Computing e Data Management Alessandro De Salvo Outline  Stato attuale  Evoluzione del modello di calcolo  Nuove tecnologie e roadmap A. De Salvo – 19 Maggio 2011

A. De Salvo – ATLAS Distributed Computing e Data Management – CCR Workshop, Isola d’Elba ATLAS Panda Modello di base: I dati sono pre-distribuiti nei siti, I job sono inviati ai siti che posseggono i dati

A. De Salvo – ATLAS Distributed Computing e Data Management – CCR Workshop, Isola d’Elba ATLAS DDM model I file sono aggregati in datasets I files sono trasferiti solo come parte di un dataset Subscription service Uno o più dataset può essere sottoscritto per triggerare una replica ad un sito specifico di destinazione I metadati di fisica sono contenuti in un DB separato (AMI)

A. De Salvo – ATLAS Distributed Computing e Data Management – CCR Workshop, Isola d’Elba Modello gerarchico basato sulla topologia di rete di Monarc Comunicazioni possibili: T0-T1 T1-T1 Intra-cloud T1-T2 Comunicazioni vietate: Inter-cloud T1-T2 Inter-cloud T2-T2 Limitazioni: Impossibile fornire una replica di dati per l’analisi ad ogni cloud Trasferimenti tra le cloud attraverso salti multipli tra i Tier1 User analysis outputs MC confinato nella cloud Tier2 non utilizzabili come repository di dati primari per il PD2P o di gruppo ATLAS Cloud Model

A. De Salvo – ATLAS Distributed Computing e Data Management – CCR Workshop, Isola d’Elba ATLAS Cloud(less) Model Breaking the Wall La rete attuale permette il superamento del modello Monarc: molti Tier2 sono già ben connessi con molti Tier1 Abilitazione delle connessioni inter cloud Superamento di una gerarchia stretta tra Tier1 e Tier2 Scelta dei Tier2 adatti alcuni Tier2 invece sono mal collegati anche con il proprio Tier1 Non tutti I Tier2 hanno le dimensioni e le performance necessarie

A. De Salvo – ATLAS Distributed Computing e Data Management – CCR Workshop, Isola d’Elba Avg(Byterate)+StD(Byterate) SMALL<0.05MB/s<0.1MB/s≥0.1MB/ s MEDIUM<1MB/s<2MB/s≥2MB/s LARGE<10MB/s<15MB/s≥15MB/ s T2D approvati: INFN-NAPOLI- ATLAS, INFN-MILANO-ATLASC, INFN- ROMA1 IFIC-LCG2, IFAE, UAM-LCG2 GRIF-LPNHE, GRIF-LAL, TOKYO-LCG2 DESY-HH, DESY-ZN, LRZ-LMU, MPPMU MWT2_UC,WT2, AGLT2,BU_ATLAS_Tier2, SWT2_CPB UKI-LT2-QMUL, UKI-NORTHGRID-LANCS-HEP, UKI-NORTHGRID- MAN-HEP, UKI-SCOTGRID-GLASGOW Siti che faranno parte da subito di LHCOne Tier-2 diretti (T2D) T2D – Tier2 “Directly Connected” Tier2 connessi direttamente tra di loro a tutti i Tier1 Storage per dati primari come i Tier1 Pre-placement di una quota di dati Data source per il PD2P Group data Disponibilità di una quota di disco nei Tier1 come cache Requirement molto stretti Metriche di trasferimento con tutti i Tier1 Livello di committment e reliability adeguato

A. De Salvo – ATLAS Distributed Computing e Data Management – CCR Workshop, Isola d’Elba PanDA Dynamic Data Placement (PD2P) [1] Il precedente modello di calcolo di ATLAS prevedeva la distribuzione dei dati in tutti i centri (~75), secondo share predefiniti Non molto efficiente in termini di tempo e banda utilizzata Utilizzo dello spazio disco non ottimale Il nuovo modello di calcolo prevede l’invio dei dati su richiesta ai centri Tier2 (~65) tramite l’utilizzo di un algoritmo di brokering predittivo Il primo utilizzo di un dataset che non è disponibile in nessuno dei Tier2 fa partire la replica verso una locazione ottimale, scelta dal sistema di brokering di PanDA I job degli utenti continueranno ad essere assegnati ai Tier1 finché una copia dei dati non sarà disponibile ai Tier2, momento in cui i job verranno ri-schedulati al Tier2 in questione Se il numero dei job rimamenti (di tutti gli utenti) che richiedono un dataset è troppo elevato verranno effettuate delle copie addizionali del dataset di input in altrettanti siti Dal 2011 il sistema di Dynamic Data Placement è stato esteso anche ai centri Tier1

A. De Salvo – ATLAS Distributed Computing e Data Management – CCR Workshop, Isola d’Elba Buoni risultati di ottimizzazione dello spazio disco Diminuzione delle repliche pre-placed Trasferimento solo di dati utili per l’analisi Spazio disco ai Tier2 in gran parte usato come cache Ristretto ai trasferimenti intra-cloud T1  T Cancellazione dei cloud boundaries: trasferimenti intra-cloud Extra repliche in base al riutilizzo dei dati già trasferiti e al numero di richieste di accesso al singolo dataset Trasferimenti anche tra Tier1 Dati trasferiti: AOD e D3PD molto più leggeri degli ESD del 2010  diminuzione della banda occupata Concern Il brokering dei dati e dei job di analisi in Panda sembra stia favorendo troppo i Tier1 a scapito dei Tier2. Il mese di maggio sarà analizzato per verificare la bontà del modello e il tuning necessario. Prima azione: pre-placement di una frazione di dati nei T2D PanDA Dynamic Data Placement (PD2P) [2]

A. De Salvo – ATLAS Distributed Computing e Data Management – CCR Workshop, Isola d’Elba Popolarità dei dati Data replication on-demand (DaTri) Group production Possibilità di generare statistiche su Dataset più utilizzati Tipi di dati più popolari Siti utilizzati per l’analisi dati

A. De Salvo – ATLAS Distributed Computing e Data Management – CCR Workshop, Isola d’Elba inizio presa 7 TeV 2010 pp reprocessing MB/s per day AVERAGE:2.3 GB/s MAX 7.5 GB/s AVERAGE:2.3 GB/s MAX 7.5 GB/s MarzoAprileMaggioGiugnoFebbraioGennaio LuglioAgostoSettembreOttobreNovembreDicembre Reprocessing dati e MC Reprocessing MC Reprocessing dati 2009 PbPb Presa dati e produzione EFFICIENCY: 100% (including retries) EFFICIENCY: 100% (including retries) Dati disponibili nei siti dopo poche ore Distribuzione dei dati di ATLAS nel 2010

A. De Salvo – ATLAS Distributed Computing e Data Management – CCR Workshop, Isola d’Elba inizio presa 7 TeV MB/s per day AVERAGE:2.2 GB/s MAX 5.1 GB/s AVERAGE:2.2 GB/s MAX 5.1 GB/s MarzoAprileMaggioFebbraioGennaio PbPb reprocessing Distribuzione dei dati di ATLAS nel 2011

A. De Salvo – ATLAS Distributed Computing e Data Management – CCR Workshop, Isola d’Elba MarzoAprileMaggioGiugnoLuglioAgostoSettembreOttobreNovembreDicembre MB/s per day AVERAGE:195 MB/s MAX 900 MB/s AVERAGE:195 MB/s MAX 900 MB/s TB 2011 AVERAGE:111 MB/s MAX 400 MB/s AVERAGE:111 MB/s MAX 400 MB/s TB 2010 MarzoAprileMaggio 2011 Gennaio Febbraio MB/s per day 400 Distribuzione dei dati di ATLAS in Italia nel 2010/2011

A. De Salvo – ATLAS Distributed Computing e Data Management – CCR Workshop, Isola d’Elba Condition data access I condition data sono contenuti in database (ORACLE) e/o in plain (ROOT) file, registrati al CERN I dati sono replicati in alcuni dei Tier1 ed utilizzati dai job di analisi L’accesso diretto ad ORACLE è una killer application per i DB nei Tier1 Numero troppo elevato di connessioni ai server di ORACLE Load elevato Rischio di inefficienze Per supplire a tale limitazione, l’accesso preferito ai condition data viene effettuato tramite un caching proxy intermedio FroNTier server Estensione di uno squid proxy standard, può anche essere utilizzato come uno squid tradizionale Caching e failover

A. De Salvo – ATLAS Distributed Computing e Data Management – CCR Workshop, Isola d’Elba  FroNTier utilizzato per abilitare l’accesso distribuito al condition DB  Sempre più trasparente dal punto di vista degli utenti finali  Stesso modello utilizzato da CMS Condition data access example: ATLAS

A. De Salvo – ATLAS Distributed Computing e Data Management – CCR Workshop, Isola d’Elba Nuove tecnologie di DB: noSQL database [1] Gli RDBMS attuali hanno delle limitazioni Difficoltà a scalare Necessità di una de-normalizzazione per ottenere una perfomance migliore Setup/configurazione complicata con apache Difficoltà con applicazioni grandi, accessi random and I/O intensiva ATLAS sta esplorando le soluzioni DB di tipo noSQL solutions per eliminare le limitazioni attuali ‘Facilità a scalare’ – ma architettura differente ‘Fanno il loro lavoro’ su una infrastruttura a basso costo Stessa affidabilità a livello di applicazione Google, Facebook, Amazon, Yahoo! Progetti open source Bigtable, Cassandra, Simpledb, Dynamo, MongoDB, Couchdb, Hypertable, Riak, Hadoop Hbase, ecc. Attualmente i database di tipo noSQL non sono un rimpiazzo per gli RDBMS standard Ci sono classi di query complesse che includono range di date e tempi dove gli RDBMS hanno una performance abbastanza bassa Ad esempio, registrare molti dati storici su un costoso RDBMS transaction-oriented non sembra ottimale Una opzione attraente è quella di scaricare una mole significante di dati di archiviazione da un database ORACLE verso un sistema scalabile ad alte perfomance, basato su hardware a basso costo

A. De Salvo – ATLAS Distributed Computing e Data Management – CCR Workshop, Isola d’Elba Nuove tecnologie di DB: noSQL database [2] In fase di valutazione per ATLAS Panda system ATLAS Distributed Data Management … L’esperienza di ATLAS con il servizio di Accounting di DQ 2 Accounting (grandi tabelle) mostra che un database di tipo noSQL come MongoDB può raggiungere almeno le stesse performance di un cluster di ORACLE RAC, utilizzando circa il medesimo spazio disco, ma girando su hardware a basso costo Oracle 0.3s per completare le query di test Oracle RAC (CERN ADCR) 38 GB di spazio disco utilizzato 243 indici, 2 funzioni, 365 partizioni/Y+hints 5 settimane + DBAs per creare la facility MongoDB 0.4s per completare le query di test Singola macchina, 8 Cores/16G 42 GB di spazio disco utilizzato 4 ore per creare la facility 1 tabella, 1 indice

A. De Salvo – ATLAS Distributed Computing e Data Management – CCR Workshop, Isola d’Elba Nuove tecnologie di accesso dati: XRootd Federations Utilizzo di un redirector XRoot per creare un punto di accesso unificato per i siti - “Global Redirector” Namespace unificato, 1 protocollo, location-neutral Alte performance, accesso ai dati con basso livello di manutenzione Principalmente per i Tier3, ma anche carico ridotto per I T1/T2 Possibilità di girare job su dati remoti (con o senza cache locale) XRD: alte prestazione, scalabile, flessibile, architettura a plugin Supporta dCache, GPFS, Hadoop, ecc come backend di storage Quale livello di sicurezza è appropriato per un accesso di tipo readonly a dati di fisica? GSI supportato via plugin 'seclib’ Stato del supporto a VOMS? Maggiore overhead per installare/operare User- o host- based? (service cert?) Implicazioni sulle prestazioni

A. De Salvo – ATLAS Distributed Computing e Data Management – CCR Workshop, Isola d’Elba  EOS è un set di plug-in XRootd  E parla il protocollo Xroot verso gli utenti  Just a Bunch Of Disks...  JBOD - no hardware RAID array  “Network RAID” tra gruppi di nodi  Per-directory settings  Le operazioni (e gli utenti) decidono le disponibilità/performance (numero di repliche per directory – non posizionamento fisico)  Un pool di dischi – differenti classi di servizio  Affidabilità e durabilità  Self-healing  Operazioni “asincrone” (ad esempio rimpiazzo di un disco rotto quando è “conveniente”, mentre il sistema è in attività) Large Scale Tests: CERN EOS

A. De Salvo – ATLAS Distributed Computing e Data Management – CCR Workshop, Isola d’Elba Large Scale Tests: CERN EOS architecture Head node File server MQ NS sync async Head node Namespace, Quota Strong Authentication Capability Engine File Placement File Location Message Queue Service State Messages File Transaction Reports File Server File & File Meta Data Store Capability Authorization Checksumming & Verification Disk Error Detection (Scrubbing)

A. De Salvo – ATLAS Distributed Computing e Data Management – CCR Workshop, Isola d’Elba Large Scale Tests: CERN EOS performance HammerCloud Test Reference Events/Wallclock time Hz

A. De Salvo – ATLAS Distributed Computing e Data Management – CCR Workshop, Isola d’Elba pNFS aggiunge la parallel I/O al protocollo NFS Elimina il collo di bottiglia del file server Mette a disposizione del path paralleli di dati, anche per un singolo file pNFS fa parte dello standard NFS v4.1 Approvato da IETF Dec, 2008 RFC editorial review Oct, 2009 Numeri di RFC assegnati a gennaio 2010 Multiple implementazioni sono in fase di sviluppo Il client software software sarà incluso in tutte le distribuzioni di OS principali L’unico Industry-Standard Parallel File System Testbed con BlueArc a BNL (pianificato per Agosto 2011) Singolo server di metadati, altamente scalabile Clusterizzato per HA L’architettura supporta molti server di metadati clusterizzati Supporto per data server eterogenei Costruito su piattaforma di classe Enterprise Affidabilità Full Featured NAS – Quota, Snapshot ecc. Large Scale Tests: pNFS (NFS v4.1)

A. De Salvo – ATLAS Distributed Computing e Data Management – CCR Workshop, Isola d’Elba Large Scale Tests: testbed di pNFS a BNL WA Network SRM GridFTP Xrootd

A. De Salvo – ATLAS Distributed Computing e Data Management – CCR Workshop, Isola d’Elba Nuove tecnologie per la distribuzione del software di esperimento: CVMFS ATLAS ed LHCb si stanno muovendo verso un modello dinamico di distribuzione del software tramite CVMFS Virtual software installation tramite un File System HTTP Data Store Compressed Chunks (Files) Eliminazione dei Duplicati File Catalog Directory Structure Symlinks SHA1 dei Regular Files Digitally Signed Time to Live Nested Catalogs ATLAS distribuirà anche i file di condition data tramite CVMFS Export dell’area del software degli esperimenti come read-only Montata nei nodi remoti tramite il modulo fuse Local cache per accesso più rapido Beneficia di una gerarchia di squid per garantire performance, scalabilità e affidabilità Stesso tipo di squid utilizzato anche da Frontier

A. De Salvo – ATLAS Distributed Computing e Data Management – CCR Workshop, Isola d’Elba Commissioning dei link nei siti di ATLAS (full mesh) 15 trasferimenti di FTS 5 file piccoli: 20 MB 5 file medi: 200 MB 5 file grandi: 2 GB I trasferimenti sono effettuati in modo da evitare trasferimenti contemporanei in tutti I canali Le metriche in uso vengono utilizzate per definire i siti T2D Network monitoring e link commissioning: Sonar Tests

A. De Salvo – ATLAS Distributed Computing e Data Management – CCR Workshop, Isola d’Elba Il nuovo computing model di ATLAS prevede delle novità importanti “Breaking the wall” – cloudless model Nuovi tipi di Tier2 (T2D) Dynamic Data Placement (PD2P) Nuove tecnologie per l’ottimizzazione delle risorse e per rendere i sistemi sempre più trasparenti, affidabili e performanti agli utenti Frontier server per l’accesso ai condition data noSQL database Nuove tecnologie di storage Link commissioning tramite i Sonar Tests Conclusioni