Domenico Elia1Riunione PRIN STOA-LHC / Bologna 18.6.2014 Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.

Slides:



Advertisements
Presentazioni simili
ISA Server 2004 Enterprise Edition Preview. ISA Server 2004.
Advertisements

Gestione dei laboratori Come rendere sicura la navigazione internet e l'uso della rete Lorenzo Nazario.
Direzione Generale per le Reti Divisione III PRESENTAZIONE SACoD Sistema di acquisizione concessioni di derivazione idrica Ministero delle Infrastrutture.
23/01/01Alberto Masoni – GR1 - Roma1 I MODELLI DI CENTRI REGIONALI POSIZIONE DI ALICE ITALIA CENTRO ITALIANO: CPU 450 KSI95, DISCO 400 TB (INSIEME TIER-1.
Architettura Three Tier
1 STATO DELLINTEGRAZIONE TRA I 4 PROGETTI AVVISO 1575/2004 ATTIVITA DEL GRUPPO TECNICO OPERATIVO Riunione del Comitato Tecnico sullInteroperabilità MUR,
Comitato Tecnico sullInteroperabilità MUR, L. Merola.
Proposta di integrazione e consolidamento delle risorse presenti nellinfrastruttura Grid dellItalia Meridionale (L. Merola, )
Remote file access sulla grid e metodi di interconnesione di rete M. Donatelli, A.Ghiselli e G.Mirabelli Infn-Grid network 24 maggio 2001.
La facility nazionale Egrid: stato dell'arte Egrid-Team Trieste, 9 ottobre 2004.
Gruppo Directory Services Rapporto dell'attivita' svolta - Marzo 2000.
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
Benvenuti a Un incontro informativo di grande valore ed alto contenuto sulla Virtualizzazione e sistemi ad alta disponibiltà per le PMI.
U N INFRASTRUTTURA DI SUPPORTO PER SERVIZI DI FILE HOSTING Matteo Corvaro Matricola Corso di Reti di Calcolatori LS – Prof. A. Corradi A.A.
Servizi Grid ed agenti mobili : un ambiente di sviluppo e delivering
Architettura di storage ad alta affidabilita e bilanciamento di carico per volumi centrali e di esperimento A.Brunengo, M.Corosu INFN Sezione di Genova.
Configurazione di una rete Windows
Reti di calcolatori LS Manni Tiziano  IT e nuovi scenari applicativi …  … portabilità dei dati …  … condivisione dati …  … disponibilità.
FESR Trinacria Grid Virtual Laboratory ADAT (Archivi Digitali Antico Testo) Salvatore Scifo TRIGRID Second TriGrid Checkpoint Meeting Catania,
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
AFS Working Group R.Gomezel CCRWS Verso la sfida di LHC Otranto (Lecce), 6-9 Giugno 2006.
Workshop sulle problematiche di calcolo e reti nell’INFN Paestum,9-12 giugno 2003 Report sull’ultimo HEPiX e proposte per le prossime edizioni Roberto.
Tipi e topologie di LAN Lezione 2.
3 Aprile CSN1 P. Capiluppi Tier2 CMS Italia.
Test Storage Resource Manager per SC4 Giacinto Donvito Vincenzo Spinoso.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
L. Servoli - CCR Roma 15 marzo Il progetto High Availability D. Salomoni - CNAF L. Servoli - INFN Perugia.
Internetworking V anno. Le soluzioni cloud per la progettazione di infrastrutture di rete.
Istituto Nazionale di Fisica Nucleare Italy Report Roberto Gomezel INFN - Trieste.
CMS 1 M. Biasotto – Bologna 20/01/2005 Infrastruttura di calcolo per CMS-Italia M.Biasotto – INFN Legnaro e i gestori dei centri CMS Italia.
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
ATLAS PRIN Alessandro De Salvo A. De Salvo – 12 novembre 2015 Cloud Computing Condivisione di risorse tra gruppi EventIndex LHCONE PoD T2D.
BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015.
Il Servizio Calcolo e Reti e le attività grid della Sezione INFN di Torino Luciano Gaido.
Un'infrastruttura per il Paese: il progetto SUNFISH Francesco Paolo Schiavo Luca Nicoletti Sede Sogei Roma, 5 Aprile 2016 C.
Riunione PRIN STOA - Bologna - 18 Giugno 2014 Testbed del T2 distribuito Napoli-Roma Dr. Silvio Pardi INFN-Napoli Riunione PRIN STOA – Bologna 18 Giugno.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Lecce 30 Settembre 2015.
PRIN «Calcolo LHC» Attività previste Finanziamenti Sinergie CCR12 Dicembre 2012L.Perini1.
Claudio Grandi Workshop CCR 2015 Claudio Grandi INFN Bologna.
Workshop della Commissione Calcolo e Reti 28 Maggio 2013 Federazione di risorse Cloud con CLEVER 1.
FESR Consorzio COMETA - Progetto PI2S2 Il Tier-2 di ALICE a Catania Roberto Barbera Università di Catania e INFN Visita Referee.
Referaggio sigla CALCOLO D. Bonacorsi, G. Carlino, P. Morettini CCR – Roma 9 Settembre 2014.
DA e controlli DAFNE Riccardo Gargana Frascati 13/12/ /12/13.
Presentazione WS del 23/10/2013 al CNAF: 0&resId=0&materialId=slides&confId=6920
FORMAZIONE CCR ANNO 2016 Commissione Calcolo e Reti Trento 16 marzo 2016 Silvia Arezzini (per il gruppo di lavoro, composto anche da Luciano Gaido e Roberto.
Progressi AAI. Agenda Report da WorkingGroup e WorkShop GARR AAI Stato avanzamento lavori Lavori in corso To Do List.
Server & Storage Urgenze e anticipazioni seconde priorità CCR Marzo 2009 AG MM LC.
Uso della rete geografica e richieste di upgrade CCR 31/3/2015 (Roma) S.Zani.
Progetto ReCaS status update Giuseppe Andronico WS CCR, Catania 28 Maggio 2014.
Il futuro della infrastruttura Grid INFN : le risorse economiche e le competenze ” Workshop CCR INFN GRID 2011.
1 ALICE I ITER2 DI ALICE IN ITALIA Bologna, 6 marzo 2007 M. Masera
19/4/2013 D. Menasce, M. Serra - Referaggio Progetti INFRA e WLCG 1.
Stato e previsione rete nelle sedi INFN Survey ed ipotesi di sviluppo fino al 2018 CCR 8-10 Settembre 2018 (Roma) 1 S.Zani (Netgroup)
Attività Formativa CCR 2010 Valeria Ardizzone (INFN Catania)
Domenico Elia1Workshop PRIN STOA-LHC / EGI CF - Bari, Workshop PRIN STOA-LHC EGI CF - Bari, 12 Novembre 2015 Report attività ALICE (+ dettaglio.
G. Maggi 24/1/2006 Il Progetto del TIER2 di Bari Giorgio Maggi.
Domenico Elia1CdG Tier1-Tier2 / CNAF ALICE Tier2 sites Domenico Elia CdG Tier1-Tier2 Bologna, 15 Aprile 2015  Infrastruttura e risorse, coordinamento.
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
CCR - Roma 15 marzo 2007 Gruppo storage CCR Report sulle attivita’ Alessandro Brunengo.
ALICE Computing Readiness Workshop Tier-2 CNAF Jan 17-18, ALICE Computing Readiness 1) ALICE Italia: Persone & organizzazione 2) Test & commisioning.
1 Le macchine di questo pool fanno parte di una lan privata (la 125 illustrata a pag.2), di cui t2cmcondor è il gateway. Sono presenti 3 macchine su rete.
L’infrastruttura del progetto ReCaS Paolo Lo Re on behalf of ReCaS collaboration.
Workshop congiunto CCR & INFN-GRID. Tema: l’efficienza Sede: Hotel Cala di Lepre – Palau Date: maggio Comitato organizzatore: V. Ardizzone, D. Anzellotti,
Attività Gruppo Virtualizzazione Andrea Chierici CNAF Riunione CCR
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Attività PRIN STOA a Cagliari Alessandro De Falco Università/INFN Cagliari.
INFN-TS INFN - Sezione di Trieste - C. Strizzolo - L. Strizzolo.
Transcript della presentazione:

Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno 2014

Domenico Elia2Riunione PRIN STOA-LHC / Bologna Sommario attività ALICE  Attività in corso:  deployment prototipi VAF:  adesso anche a TS, BA e LNL (e prossima a CA)  interesse anche da CT (già nel loop)  ottimi progressi dopo hands-on di Marzo al CERN (ancora 3 e 4 Luglio)  supporto da parte di TO e “CERN” (D. Berzano)  sviluppi Virtual Storage Element  accounting/monitoring  esperienza con tenant non-PROOF  Piani:  test di performance di VAF e accesso locale ai dati  test e misure di accesso remoto  federazione di VAF e/o storage

Domenico Elia3Riunione PRIN STOA-LHC / Bologna Obiettivi comuni ALICE Ottimizzazione dell'ambiente di analisi in interattivo: Studio di infrastrutture di analisi interattive espandibili con tecniche di virtualizzazione integrate in soluzioni di tipo cloud computing –Installazione e messa in opera di infrastrutture di analisi espandibili OpenNebula (TO) OpenStack (BA, LNL, TS) Wnodes (CA) Sviluppo di sensori e politiche per abilitare la condivisione e la cessione automatica delle risorse virtuali, minimizzando l'intervento dell'amministratore di sistema Studio e ottimizzazione dell'accesso ai dati nell'analisi interattiva: Studio di una cache dinamica locale integrata nei file system parallelli esistenti o negli SE Sviluppo di un modello per l’accesso ai dati delle infrastrutture di analisi interattive espandibili (VSE) evitando duplicazioni di dati e risorse dedicate per analisi interattive (uso dello SE) Studio di una federazione nazionale: Sviluppo di un modello dati federativo nazionale e verifica della velocità e dell'affidabilità di un sistema xrootd a namespace unico nazionale Sviluppo in cooperazione con altri centri di calcolo delle specifiche di un cluster interattivo federato a livello nazionale: –“multi-master” –“PROOF on Demand” –“interoperabilità’ tra cloud”

Domenico Elia4Riunione PRIN STOA-LHC / Bologna Backup

Domenico Elia5Riunione PRIN STOA-LHC / Bologna Torino Milestones: 1. Nel primo si metterà in opera un'infrastruttura espandibile da subito utilizzabile dalla comunità scientifica 2. Nel secondo anno si svilupperanno soluzioni che rendano il più possibile automatico il bilanciamento delle risorse virtuali 3. Nel terzo anno il centro di calcolo verrà inserito in una realtà federativa nazionale per l'analisi interattiva nei grandi esperimenti Nel dettaglio, la scansione temporale che si intende seguire, con i relativi obiettivi proposti, è: 1. Installazione dello storage di primo livello condiviso GlusterFS con interfaccia xrootd. Test di velocità per l'accesso ai dati sia attraverso GlusterFS che attraverso xrootd, sia locale che da siti remoti 2. Conversione graduale delle risorse fisiche esistenti in hypervisor. Gli hypervisor saranno gestiti da OpenNebula e i loro dischi saranno già pensati come parte del cache storage di secondo livello 3. Preparazione delle macchine virtuali Grid e PROOF: al termine di questa fase l'infrastruttura sarà già operativa e fruibile dagli utenti, mentre gli amministratori di sistema potranno già decidere facilmente la “dimensione” dei cluster virtuali Grid e PROOF 4. Sviluppo di sensori e politiche per abilitare la condivisione e la cessione automatica delle risorse virtuali, minimizzando l'intervento dell'amministratore di sistema 5. Sviluppo in cooperazione con altri centri di calcolo delle specifiche di un cluster interattivo federato a livello nazionale tramite un approccio “multi-master” e /o un approccio “PROOF on Demand” 6. Sviluppo di un modello dati federativo nazionale: verifica della velocità e dell'affidabilità di un sistema xrootd a namespace unico nazionale, con un catalogo dei file completamente distribuito, eventualmente attraverso la tecnologia del “Global Redirector”

Domenico Elia6Riunione PRIN STOA-LHC / Bologna Trieste Milestones: Primo anno 1)Installazione di una infrastruttura di analisi interattiva di tipo statico 2)Test delle richieste di risorse da parte dei vari use case per l'analisi interattiva 3)Test della possibilita' di utilizzo dell'accesso remoto ai dati Secondo anno 1)Ottimizzazione delle risorse di calcolo con tecniche di virtualizzazione integrate in soluzioni di tipo cloud computing (replica nell'unita' di ricerca di Trieste il prototipo sviluppato a Torino, integrandolo nel cluster di calcolo gia' presente a Trieste). 2)Studio della scalabilita' degli strumenti che permettono un accesso contemporaneo da piu' nodi ai dati contenuti nei dischi del cluster locale ad elevata performance collegati ad interfacce standard, come XROOTD Terzo anno 1)Studio della possibilita' di federare i centri di analisi coinvolti nel progetto (Bari, Bologna, Cagliari INFN, Pisa, Roma, Torino) in modo da poter accedere i dati presenti in uno qualsiasi dei siti che ne facciano parte, evitando la duplicazione dei dati 2)Studio dell'accesso ai dati federati nell'analisi interattiva come la ripetitivita' e la breve durata di ciascun processo di analisi, il tempo necessario per accedere ai dati e la loro effettiva disponibilita' 3)Studio di una cache dinamica locale integrata nel file system parallelo esistente nel centro di calcolo dell'unita' di ricerca 4)Verifica della velocita' e dell'affidabilita' di un sistema a namespace unico nazionale 5)Sviluppo in cooperazione con altri centri di calcolo delle specifiche di un cluster interattivo federato a livello nazionale tramite un approccio "multi-master" e/o di un approccio "PROOF on Demand"

Domenico Elia7Riunione PRIN STOA-LHC / Bologna Cagliari Obiettivi principali: 1) realizzare un cluster wnodes compatibile per la fruibilità delle risorse per l'analisi interattiva in modo on demand per la anilisi dati in campo HEP. 2) realizzare un server di storage luste/zfs da utilizzare sia per ospitare i dati necessari alle analisi, sia come repository delle immagini della macchine virtuali. Ed infine federare le risorse destinate ad ospitare i cluster virtuali per l'analisi dati con altre unità operativo di questo progetto Milestones: Primo anno 1) Realizzare un cluster wnodes compatibile 2) Calibrare le politiche di accesso sul batch system locale per una efficace analisi dati 3) Realizzare un server storage zfs/lustre 4) Test di velocità di accesso sia in modalità locale sia con xrootd Secondo anno 1) Preparazione delle macchine virtuali da destinare all'analisi interattiva 2) Test di utilizzo dei cluster su wnodes per da parte di uno/due utenti ALICE dell'unita' di ricerca Terzo anno 1) Federare le risorse destinate ad ospitare i cluster virtuali per l'analisi dati con altre unità operativo di questo progetto

Domenico Elia8Riunione PRIN STOA-LHC / Bologna INFN-LNL 1)Accesso da remoto ai dati dell'esperimento 2)Ottimizzazione dell'ambiente di analisi in interattivo: –Per l'esperimento ALICE, la sub unita' di Legnaro adottera' una facility di analisi basata su PROOF con una condivisione delle risorse dinamica dei nodi di calcolo in GRID e con l'accesso remoto ai dati memorizzati negli altri Tier2 di ALICE italiani. 3)Ottimizzazione della distribuzione del software di esperimento nei siti 4)Gestione dei dati a livello nazionale Obiettivi principali: