WLCG e PRIN STOA Sviluppo di tecnologie per l'ottimizzazione dell'accesso ai dati di LHC Attività, fondi, sinergie CCR 7 Febbraio 2013L.Perini1.

Slides:



Advertisements
Presentazioni simili
Progetto Speciale Prototipo Tier1 F. Ruggieri INFN – CNAF I Workshop CMS Italia del SW e Computing Roma 22 Novembre 2001.
Advertisements

Proposta di integrazione e consolidamento delle risorse presenti nellinfrastruttura Grid dellItalia Meridionale (L. Merola, )
Aspetti critici rete LAN e WAN per i Tier-2
La facility nazionale Egrid: stato dell'arte Egrid-Team Trieste, 9 ottobre 2004.
Istituto Nazionale di Fisica Nucleare Roma,12 febbraio 2001 Netgroup meeting Situazione attuale e attivita futura - R.Gomezel 1 Netgroup meeting Situazione.
1 Riunione Testbed - 17 gennaio Agenda - stato del testbed di INFN-GRID (L. Gaido) - le risorse del CNAF (A. Italiano) - report sullo stress test.
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
Alessia Tricomi Università & INFN Catania
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
Analysis unibo una proposta. Work flow di una tipica analisi 1.Simulazione di piccoli campioni di eventi per studio segnale 2.Generazione in grande.
CCR 14-15/03/2006 Status Report Gruppo Storage CCR.
AFS Working Group R.Gomezel CCRWS Verso la sfida di LHC Otranto (Lecce), 6-9 Giugno 2006.
3 Aprile CSN1 P. Capiluppi Tier2 CMS Italia.
Test Storage Resource Manager per SC4 Giacinto Donvito Vincenzo Spinoso.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
Attivita' Grid in BaBar Workshop sulle Problematiche di Calcolo e Reti nell'INFN Maggio 2004.
L. Servoli - CCR Roma 15 marzo Il progetto High Availability D. Salomoni - CNAF L. Servoli - INFN Perugia.
CSN1-Assisi L.Perini1 BaBar Calcolo L. Perini per i referees: L.Perini,A.Staiano…
Workshop CCR Otranto - giugno 2006 Gruppo storage CCR Status Report Alessandro Brunengo.
STATO DEI PROGETTI TIER2 F. Bossi CCR, Roma, 20 Ottobre 2005 ( per il gruppo di referaggio)
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
ATLAS PRIN Alessandro De Salvo A. De Salvo – 12 novembre 2015 Cloud Computing Condivisione di risorse tra gruppi EventIndex LHCONE PoD T2D.
BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015.
Motivazioni e obiettivi di uno spin-off IGI Luciano Gaido 1.
Il nuovo sito della CSN1 Salvatore Costa (Catania) Andrea Ventura (Lecce) Roma - Riunione di CSN gennaio 2016.
26 Giugno 2007CSN1 - Frascati1 Temi di attualità nella CCR Accanto alla tradizionale attività di controllo dei finanziamenti per le infrastrutture di calcolo.
Riunione PRIN STOA - Bologna - 18 Giugno 2014 Testbed del T2 distribuito Napoli-Roma Dr. Silvio Pardi INFN-Napoli Riunione PRIN STOA – Bologna 18 Giugno.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Lecce 30 Settembre 2015.
PRIN «Calcolo LHC» Attività previste Finanziamenti Sinergie CCR12 Dicembre 2012L.Perini1.
Referaggio sigla CALCOLO Gianpaolo Carlino Antonio Budano Michele Michelotto* Ruggero Ricci CCR – Roma Settembre 2015.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
Stato di GARR-X Claudia Battista Workshop CCR INFN - Isola d’Elba 17 maggio 2011.
Claudio Grandi Workshop CCR 2015 Claudio Grandi INFN Bologna.
CCR – 9 Settembre 2014 R.Fantechi, M.Gulmini, S.Parlati.
Workshop della Commissione Calcolo e Reti 28 Maggio 2013 Federazione di risorse Cloud con CLEVER 1.
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
Claudio Grandi Comunicazioni Claudio Grandi INFN Bologna.
FESR Consorzio COMETA - Progetto PI2S2 Il Tier-2 di ALICE a Catania Roberto Barbera Università di Catania e INFN Visita Referee.
Referaggio sigla CALCOLO D. Bonacorsi, G. Carlino, P. Morettini CCR – Roma 9 Settembre 2014.
ATLAS e CMS Relazione dei referees A. Cardini, M. Grassi, G. Passaleva, A. Passeri, V.Vagnoni.
19/4/2013 D. Menasce, M. Serra - Referaggio Progetti INFRA e WLCG 1.
Progressi AAI. Agenda Report da WorkingGroup e WorkShop GARR AAI Stato avanzamento lavori Lavori in corso To Do List.
11 Richieste di banda Anno 2010 T.Ferrari, M.Morandin CCR, Roma, 30 settembre 2009.
Uso della rete geografica e richieste di upgrade CCR 31/3/2015 (Roma) S.Zani.
Il futuro della infrastruttura Grid INFN : le risorse economiche e le competenze ” Workshop CCR INFN GRID 2011.
1 ALICE I ITER2 DI ALICE IN ITALIA Bologna, 6 marzo 2007 M. Masera
19/4/2013 D. Menasce, M. Serra - Referaggio Progetti INFRA e WLCG 1.
Stato e previsione rete nelle sedi INFN Survey ed ipotesi di sviluppo fino al 2018 CCR 8-10 Settembre 2018 (Roma) 1 S.Zani (Netgroup)
Proposte per il miglioramento delle sinergie tra servizi calcolo e progetti Grid Valeria Ardizzone (INFN Catania)
Progetti CCR Referaggio progetti della Commissione Calcolo e RetiReferaggio progetti della Commissione Calcolo e Reti Referees: Tommaso Boccali, Alessandro.
Progetti CCR Referaggio progetti della Commissione Calcolo e RetiReferaggio progetti della Commissione Calcolo e Reti Referees: Tommaso Boccali, Alessandro.
Riunione CSN1, Roma, Gennaio 2012F. Bedeschi, INFN-Pisa 1 Riunione CSN1  Comunicazioni  Comunicazioni varie  Riunioni future  Similfellows  Regole.
Attività Gruppo Virtualizzazione Andrea Chierici CNAF CCR
G. Maggi 24/1/2006 Il Progetto del TIER2 di Bari Giorgio Maggi.
Domenico Elia1CdG Tier1-Tier2 / CNAF ALICE Tier2 sites Domenico Elia CdG Tier1-Tier2 Bologna, 15 Aprile 2015  Infrastruttura e risorse, coordinamento.
Silvia Arezzini 2 luglio 2014 Consiglio di Sezione per Preventivi.
INFN-AAI architettura del sistema e strategia di implementazione Enrico M.V. Fasanelli INFN - sezione di Lecce Riunione comitato di revisione progetto.
Aggiornamento Netgroup R.Gomezel Commissione Calcolo e Reti LNF 29/09/ /10/2009.
CCR - Roma 15 marzo 2007 Gruppo storage CCR Report sulle attivita’ Alessandro Brunengo.
ALICE Computing Readiness Workshop Tier-2 CNAF Jan 17-18, ALICE Computing Readiness 1) ALICE Italia: Persone & organizzazione 2) Test & commisioning.
1 Le macchine di questo pool fanno parte di una lan privata (la 125 illustrata a pag.2), di cui t2cmcondor è il gateway. Sono presenti 3 macchine su rete.
L’infrastruttura del progetto ReCaS Paolo Lo Re on behalf of ReCaS collaboration.
L.Perini Milano: 10 Gennaio Ex-ATLAS-Grid (Tier2 incluso) l Ruolo dei Tiers in ATLAS e grid l Le persone di Milano e le attività l Le infrastrutture.
Aggiornamento AFS R.Gomezel Commissione Calcolo e Reti Presidenza 5/10/2010-7/10/2010.
PROGETTO Infra infn-grid Maria Cristina Vistoli INFN – CNAF.
Workshop congiunto CCR & INFN-GRID. Tema: l’efficienza Sede: Hotel Cala di Lepre – Palau Date: maggio Comitato organizzatore: V. Ardizzone, D. Anzellotti,
Attività Gruppo Virtualizzazione Andrea Chierici CNAF Riunione CCR
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
PRIN «Calcolo LHC» Attività previste Finanziamenti Sinergie CCR12 Dicembre 2012L.Perini1.
Transcript della presentazione:

WLCG e PRIN STOA Sviluppo di tecnologie per l'ottimizzazione dell'accesso ai dati di LHC Attività, fondi, sinergie CCR 7 Febbraio 2013L.Perini1

Motivazione Progetto WLCG in CCR Coprire le attività ex-infngrid centrate su Tier2 e Tier1, e intese alla partecipazione ad attività internazionali (WLCG, EGI,etc.) non specifiche del singolo esperimento, ma in cui esperimenti LHC sono coinvolti fortemente Richieste soprattutto Missioni e Consumo, calcolate con parametri standard ( come si faceva in infngrid, con qualche riduzione) CCR 7 Febbraio 2013L.Perini2

WLCG internazionale Progetto World LHC Computing Grid a cui partecipano tutti gli esperimenti LHC con MoU fin dal Management Board con rappresentanti Tier1, esperimenti, CERN riunioni mensili Mensili anche Grid Deployment Board, piu’ tecnico, anche Tier2, open. WG specifici etc. tutto già discusso da Luca CCR 7 Febbraio 2013L.Perini3

Missioni Intese a permettere la partecipazione a workshop in ambito WLCG EGI, IGI, GARR etc. per due categorie di persone a.Personale dei servizi che collabora alle attività Tier2 senza fare parte degli esperimenti LHC, tipicamente circa 1 FTE per sede, spalmati su più individui. Allocazione fondi 1.5 kE MI e 1.5 kE ME per sede b. Membri di un esperimento che hanno specifiche responsabilità nel calcolo e nelle federazioni dei Tier2, in WLCG e gruppi di lavoro connessi (+2.5 ME, 0.5 MI) CCR 7 Febbraio 2013L.Perini4

Fondi Per le spese di consumo WLCG eredita la richiesta metabolismo farm Tier2 ( 2 kE ) per sede che veniva proposta in INFNGRID. Nella slide seguente il personale di cui al punto b precedente che motiva la richiesta missioni –Tutti salvo 1 (LHCb) partecipano anche al PRIN –Per quanto riguarda invece CNAF, nel PRIN c’e’ partecipazione per garantire link ( C.Vistoli), all’interno di unità di BO CCR 7 Febbraio 2013L.Perini5

Missioni per Tier2 in WLCG BO: Daniele Bonaccorsi, Claudio Grandi, Vincenzo Vagnoni, tutti impegnati in gruppi lavoro WLCG, Grandi inoltre deputy di Boccali ( vedi Pisa) MI : 1 kE ME in piu’ per responabile nazionale WLCG NA: Gianpaolo Carlino, rappresentante in WLCG della federazione Tier2 ATLAS Italia PI: Tommaso Boccali, rappresentante in WLCG della federazione Tier2 CMS Italia Roma1: Alessandro DeSalvo deputy di G. Carlino TO: Massimo Masera e Stefano Bagnasco, rappresentante e Deputy in WLCG della federazione Tier2 ALICE Italia CCR 7 Febbraio 2013L.Perini6

CNAF in WLCG CNAF e’ particolarmente coinvolto in WLCG e non ha finanziamenti via esperimenti –Luca Dell’Agnello rappresenta il CNAF nel MB WLCG e partecipa (con Davide Salomoni) alle riunioni mensili del GDB. –Stefano Zani e’ coinvolto nei progetti di rete LHCOPN/LHCONE In particolare nei WG WLCG riguardanti lo Storage sono impegnati al CNAF: Vladimir Sapunenko e Michele di Benedetto (IGI), in quelli Operations Alessandro Cavalli. CCR 7 Febbraio 2013L.Perini7

CCR 7 Febbraio 2013L.Perini8 Sez. & Suf. MISSCONINVTOTALE Sp BA BO CNAF CT LNF LNL MI NA PD PI RM TO TOTALE

Prin “Calcolo LHC” Il PRIN ha molta sinergia con le attività WLCG –“Sviluppo di tecnologie per l'ottimizzazione dell'accesso ai dati di LHC, trasferibili ad altri domini scientifici, mediante l'approccio del grid e del cloud computing” –12 sedi inclusa una unità INFN (responsabile G. Maron, per LNF, LNL, Pisa), tutti Tier2 in (ALICE, ATLAS, CMS), Tier3: BO (atlas e CMS), GE( ATLAS), PG(CMS), TS(ALICE, CMS)-CNAF con BO –Sinergie certe anche con “Cloud INFN” “Data Preservation”, altro? –P.I. L. Perini MIUR vede questi PRIN come preparazione Horizon2020 Fondi attesi per 1-feb-13, data di inizio ufficiale –In alcune sedi già arrivati anticipi (50% unimi…) CCR 7 Febbraio 2013L.Perini9

CCR 7 Febbraio 2013L.Perini10

CCR 7 Febbraio 2013L.Perini11

Prin area 2 (fisica) Approvati 14 PRIN per un totale di kEuro di contributo MIUR –Noi riduzione da 1400 kE a 886 kE (il costo complessivo era 2 M, ma include il costo mesi persone che e’ il contributo figurativo di Atenei/INFN) –Taglio circa proporzionale su tutte le sedi: tipico 115 kE diventa 72, ma riduzione si scarica su forfettario che in fase richiesta era 60% del costo personale e ora si puo’ usare come si vuole senza rendiconto (quello che resta) –Media sede puo’ fare fino a 2.5 anni A/R e resta poco altro CCR 7 Febbraio 2013L.Perini12

CCR 7 Febbraio 2013L.Perini13 ºSede dell'UnitàResponsabile Scientifico Finanziamento assegnato Costo ritenuto congruo (= contributo / 0.7) 1. Università degli Studi di CATANIA BARBERA Roberto Università degli Studi di GENOVA BARBERIS Dario Università degli Studi di ROMA "La Sapienza" BARONE Luciano Maria Università degli Studi di CAGLIARI DE FALCO Alessandro Università degli Studi di TRIESTE DELLA RICCA Giuseppe Politecnico di BARI MAGGI Giorgio Pietro Istituto Nazionale di Fisica Nucleare MARON Gaetano Università degli Studi di TORINO MASERA Massimo Università degli Studi di NAPOLI "Federico II" MEROLA Leonardo Università degli Studi di MILANO PERINI Laura Università degli Studi di PERUGIA SANTOCCHIA Attilio Università degli Studi di BOLOGNA ZOCCOLI Antonio Totale

Abstract - 1 Questo progetto ha lo scopo di ottimizzare l'accesso ai dati degli esperimenti a LHC nei vari centri che fanno parte della Grid italiana. –Il progetto studierà e ottimizzerà sia la distribuzione dei dati sia i metodi di accesso remoto ai dati mediante protocolli dedicati (GPFS, Lustre; Hadoop, xrootd, http). –A questo scopo faremo anche una sperimentazione con le necessarie reti “private” a livello nazionale e internazionale (LHCONE). CCR 7 Febbraio 2013L.Perini14

Abstract - 2 Il progetto ha anche lo scopo di rendere possibile un'efficiente analisi interattiva: –da condursi attraverso una condivisione delle risorse utilizzate per le applicazioni Grid nei centri Tier-2, per esempio attraverso soluzioni quali PROOF-on-demand, implementando metodi per l'uso ottimale delle risorse di storage e dei dati disponibili in ciascun sito. –Le moderne tecnologie di virtualizzazione e di Cloud computing saranno usate e sviluppate per raggiungere questi scopi. CCR 7 Febbraio 2013L.Perini15

Abstract - 3 Un ulteriore obiettivo importante di questo progetto è il trasferimento della tecnologia di calcolo sviluppata per gli esperimenti a LHC ad aree di fisica esterne a quella (HEP) –Aspiriamo in questo modo a creare delle comunità di utenti con servizi di calcolo uniformi non soltanto a livello nazionale, ma in generale europeo e anche mondiale, promuovendo e rafforzando le collaborazioni internazionali. In prospettiva, queste aggregazioni dovrebbero essere in grado di estendersi ad altre discipline oltre la fisica. CCR 7 Febbraio 2013L.Perini16

Partner Associati La maggior parte delle Collaborazioni indicate dalle Unità di Ricerca in questo Progetto sono comuni e connesse alla partecipazione agli esperimenti LHC. Conseguentemente, la parte iniziale di questa sezione, incluse le lettere di supporto dei partner associati e il testo che le accompagna, è in larga parte comune tra le Unità. Le lettere sono state fornite dai seguenti partner associati: 1. CERN 2. PIC 3. CC-IN2P3 4. EGI.eu 5. IGI CCR 7 Febbraio 2013L.Perini17

Ruolo Associati Questi associati riceveranno le informazioni sui risultati intermedi che il Progetto avrà conseguito nei suoi tre anni di durata, e potranno decidere di diffondere ulteriormente le informazioni al livello nazionale e internazionale. Sulla base di queste informazioni essi, o alcuni dei Tier2 o NGI ad essi connessi, avranno l'opportunità di partecipare alle fase di test dei componenti sviluppati ed eventualmente stabilire accordi specifici in tal senso. L'impegno di questi partner associati è quindi quello di far parte di una rete di scambio di informazioni, aperta a una partecipazione più attiva su punti specifici di reciproco interesse. CCR 7 Febbraio 2013L.Perini18

Es. unità: INFN Ottimizzazione dell'accesso ai dati degli esperimenti CMS e ALICE mediante costituzione di una federazione nazionale tra i centri di analisi dei due esperimenti. Ottimizzazione dell'analisi interattiva dei dati mediante lo sviluppo di un sistema di front-end con autenticazione che metta a disposizione degli utenti l'accesso alle funzioni della GRID e ai sistemi di storage e farming locali. CCR 7 Febbraio 2013L.Perini19

Es. unità: INFN Realizzazione di un sistema di analisi interattiva (ALICE, ATLAS) per lanciare sulle macchine del pool sistemi avanzati di analisi in parallelo basati su PROOF, anche mediante meccanismi di gestione automatica degli slave di ROOT (PROOF on Demand, PoD).. Distribuzione del software di analisi nei vari centri mediante un sistema più flessibile basato sul file system distribuito CERNVM/FS e server SQUID di sito. Data Management per la Federazione Italiana mediante popolazione dello storage INFN con una compia completa degli AOD nei siti; questo richiedera' un'adeguata pianificazione e gestione dei trasferimenti dati, tenendo conto dello spazio nei siti e dei loro interessi di analisi. CCR 7 Febbraio 2013L.Perini20

Es. Unità: Torino Sviluppo di un'infrastruttura interattiva di analisi basata su PROOF integrata nel sito WLCG. L'allocazione delle risorse per l'utilizzazione interattiva invece che attraverso lo scheduler batch PBS, con sottomissione via Grid, avverrà dinamicamente sulla base delle necessità grazie a una completa virtualizzazione delle risorse di calcolo, gestita con un cloud manager standard quale OpenNebula. La tecnologia di aggregazione e distribuzione dei dati sui vari dischi costituenti lo storage sarà una tecnologia “mainstream” come GlusterFS ( ), molto utilizzata in ambito cloud, mentre i dati saranno visibili all'esterno con un'interfaccia standard come xrootd indipendente dal livello sottostante. CCR 7 Febbraio 2013L.Perini21

Es. Unità: Torino Questa infrastruttura di analisi farà parte di una federazione nazionale, in modo da evitare la duplicazione di dati, che potranno essere acceduti su WAN con strumenti quali xrootd e/o GlusterFS. L'infrastruttura cloud sottostante all'Analysis Facility di Torino sarà di uso generale: con lo scopo di verificarne la funzionalità e l'usabilità in ambiti diversi dalla Fisica delle Particelle, sono stati individuati alcuni use case nel campo della Fisica Medica da supportare fin dalle prime fasi. CCR 7 Febbraio 2013L.Perini22

Modi e tempi - 1 L'organizzazione complessiva del lavoro prevede che tali obiettivi vengano perseguiti in larga autonomia dalle singole unità, e per questo sono state volutamente evitate strette dipendenze fra le attività di unità diverse. - PRIMO ANNO: Come linea generale, il progetto prevede che tutte le unità abbiano concluso la fase preliminare del lavoro entro il primo anno del progetto. Tale fase include: –i) installazione e test dei componenti tecnologici costitutivi delle soluzioni che si vogliono utilizzare; –ii) decisione su quali specifiche attività non-HEP si intendono esplorare per verificare la generalità delle soluzioni proposte e dimostrarne l'utilità per comunità diverse da HEP. CCR 7 Febbraio 2013L.Perini23

Modi e tempi SECONDO ANNO: Il secondo anno si focalizzerà sull'implementazione: entro la fine del secondo anno le soluzioni proposte dovranno essere state realizzate in modo che ne permette una significativa verifca e un eventuale utilizzo, senza però necessariamente essere implementate in produzione né estese alla totalità delle risorse di calcolo presenti nelle farm di livello Tier-2. Dovrà essere stata realizzata una documentazione esaustiva del set-up e dei risultati, che sia sufficientemente CCR 7 Febbraio 2013L.Perini24

Modi e tempi - 3 chiara ed estesa da permettere alle collaborazioni nazionali e internazionali (inclusi gli esperimenti a LHC), o a siti specifici che ne fanno parte, di unirsi al Progetto nello sperimentare le soluzioni che sembrino più interessanti e di fornire a loro volta input significativi prima della conclusione del secondo anno del Progetto. - TERZO ANNO: Nel terzo anno del progetto si realizzerà uno studio comparativo delle soluzioni implementate e si deciderà l'estensione di almeno una parte significativa di esse alla totalità delle risorse dei Tier-2 interessati e l'inserimento conseguente nelle attività correnti degli esperimenti. Sempre nel terzo anno si dovrà verificare l'aumentato utilizzo delle installazioni da parte di comunità diverse da HEP. CCR 7 Febbraio 2013L.Perini25

Organizzazione Promesso nel progetto inviato: –Teleconferenza mensile con documentazione stato lavori in corso nelle unità –Brevi riunioni di persona tendenzialmente semestrali –Workshop annuali di un paio di giorni Si potrebbe associare a workshop CCR? CCR 7 Febbraio 2013L.Perini26

Stato Attuale Le attività sono proseguite dopo l’invio della domanda per il PRIN Abbiamo fatto una prima riunione informale a Roma a fine novembre –Per molte unità circa metà del lavoro previsto per il primo anno e’ stato già fatto Seguono alcune slides presentate da CMS alla riunione, quelle di ATLAS piu’ recenti CCR 7 Febbraio 2013L.Perini27

Ottimizzazione per analisi CMS/Italy sta lavorando all’ottimizzazione dei centri di calcolo per l’analisi da circa un annetto 2012: presentato un primo documento ai referees INFN Con ottimizzatione intendiamo un’attivita’ generica che possa essere realizzata sia in un T2 che in un T3 che al T1, e che renda piu’ facile l’analisi da parte degli utenti CCR 7 Febbraio L.Perini

Alcuni esempi Realizzazione di procedure di Login comune per tutta CMS Italia (per esempio, via AAI) Realizzare prototipi di configurazioni di sistemi batch per – UI on demand (via pool di macchine / share con WN) – Richiesta di sistemi multi core per ProofLite – Molti cores per Proof – Code locali ad alto throughput Caching intelligente via Xrootd come frontend di siti di analisi (anche multilayer) CCR 7 Febbraio L.Perini

Sviluppo Tools di analisi distribuita Il tool attuale di CMS (crab2) e’ di origine italiana, anche se nel frattempo I developer principali sono diventati CERN/IT-ES Crab3 e’ in preparazione, in due flavour – Crab3+WMAgent: utilizza il tool di CMS per la produzione distribuita e per il T0 – Crab3+Panda: utilizza le “Common Solutions” con Atlas Perugia ha investito molto in alcune componenti di Crab3, che si vogliono supportare sul PRIN Servono anche modifiche per analisi locali (per esempio interfacciamento diretto di WMA/Panda con il sistema batch locale, bypassando la GRID) CCR 7 Febbraio L.Perini

Cloud Computing  Utilizzo del Cloud Computing per servizi o elaborazione dati  Servizi di grid  Workload Management  Servizi interattivi on-demand  Virtualized WN con Panda  Cluster di analisi su Cloud  Data Preservation  Altri tipi di servizi in alta affidabilità CCR 7 Febbraio L.Perini

Cloud Computing e PanDA  Essenzialmente concentrato su  Produzione MC su Cloud  Funzionante  Testato con vari tipi di cloud (Amazon, HelixNebula, Magellan, OpenStack, …)  Integrato con Panda  Utilizzo di CVMFS per la distribuzione del software e macchine virtuali CERNVM su KVM o Xen Jose Caballero, John Hover, Xin Zhao

Cloud Computing – Stato dell’arte  Integrazione con Panda praticamente completa  Parziale integrazione con le facility di analisi  Necessari vari test di performance, soprattutto con cloud non commerciali come Amazon  Servizi di base su cloud  Gruppo di lavoro INFN in fase di startup  Guidato anche da collaborazioni esterne per attività di trasferimento tecnologico  Data preservation  Non contemplato nelle attività originali del PRIN, ma tema interessante  Ben contestualizzabile con attività di cloud e virtualizzazione

Federazione di HTTP  La federazione i HTTP non è ancora sviluppata così tanto come quella di XROOTD  Mancanza di manpower, non di interesse  Tecnologie standard, ma con implementazioni possibilmente non-standard (ad esempio per l'interazione con LFC)  Esiste un prototipo di redirettore per costruire una federazione di HTTP  Performance ancora non ottimali, ma funzionante  Permette di segmentare anche in sotto-federazioni, anche con tipologie diverse (cosa che non è possibile fare con XROOTD al momento)  Sarebbe interessante provare a costruire una federazione di HTTP italiana, che comprendesse T1, T2 e i T3

PoD per Storm e Panda  Test di PoD su Storm  Successivamente sviluppare un plugin PoD per Panda  Realizzare inizialmente gli stessi test effettuati con PBS e gLite-WMS:  Test di performance di accesso al disco  Test di latenza di startup

PoD per PBS e gLite-WMS  Dedicare alcune risorse di calcolo ad una farm da utilizzare per l'analisi con PROOF.  Sviluppare e perfezionare PoD, Proof on Demand, un insieme di tool pensati per interagire con un RMS locale o globale ed avviare i demoni di PROOF.  Test per provare i plugin di PoD per PBS e gLite- WMS, con i dati acceduti con protocollo XrootD:  Test di performance di accesso al disco  Job che legge circa 40% dell’evento  Test di latenza di startup

EventIndex: Progetto nel PRIN  Studiare la possibilità di semplificare il TagDB di ATLAS trasformandolo in un indice degli eventi (EventIndex) con puntatori allo storage che contiene gli eventi in vari formati (da RAW a NTUP)  EventIndex è l'equivalente del catalogo di una biblioteca  Sostituzione del database in Oracle con storage strutturato (Hadoop)  Divisione delle tre categorie di dati nei Tag odierni:  Identificazione dell'evento e quantità immutabili (lumi block, trigger pattern)  Quantità dipendenti dalla ricostruzione (topologia, particelle, ecc.)  Puntatori ai files con gli eventi (GUID e offset interni)  Utilizzazione della tecnologia più appropriata per ogni categoria di dati  Sviluppo (o adattamento) dei servizi esterni: event counting, picking, skimming, consistency checks  Connessione a ProdSys e DDM per l'upload dei dati e la loro utilizzazione 37 Genov a

LHCONE  Sviluppo di una nuova generazione di reti geografiche di comunicazione dati (overlay L2 network) denominata LHCONE (LHC Open Network Environment)  Configurazione dinamica degli apparati attivi (router o switch multilayer) che costituiscono la rete stessa  Realizzazione di servizi di Bandwidth on Demand (BOD)  Integrazione con il software di esperimento Napoli

LHCONE – Stato dell’arte  Attività già completate  Installazione e deployment dei servizi relativi al monitoring  Monitoraggio e raccolta dati baseline, nella configurazione corrente  Integrazione dei test relativi al Tier-2 di Napoli nella matrice di LHCONE  Riconfigurazione accesso GARR a 10Gbps  Implementazione della fault tolerance sull’accesso GARR  Integrazione con il sistema di configurazione distribuita di Perfsonar (nuova attività)  Monitoraggio e raccolta dati baseline della nuova configurazione

CCR 7 Febbraio 2013L.Perini40 NºResponsabileCodice EnteEnte Costo Congruo Contributo Previsto 1BRACCO Angela2010TPSCSPUniversità degli Studi di MILANO CASATI Giulio2010LLKJBXUniversità degli Studi INSUBRIA Varese-Como CIMATTI Andrea2010NHBSBEUniversità degli Studi di BOLOGNA DEL GUERRA Alberto2010P98A75Università di PISA IACOPINI Enrico2010Z5PKWZUniversità degli Studi di FIRENZE MARRUCCI Lorenzo2010NR4MXAUniversità degli Studi di NAPOLI "Federico II" MARTINELLI Guido2010YJ2NYW Scuola Internazionale Superiore di Studi Avanzati di TRIESTE MATTEUCCI Maria Francesca2010LY5N2TUniversità degli Studi di TRIESTE MORGANTE Alberto20105ZZTSEUniversità degli Studi di TRIESTE PARISI Giorgio2010HXAW77Università degli Studi di ROMA "La Sapienza" PERINI Laura20108T4XTMUniversità degli Studi di MILANO RAGAZZI Stefano2010ZXAZK9Università degli Studi di MILANO-BICOCCA SCIORTINO Francesco2010LKE4CCUniversità degli Studi di ROMA "La Sapienza" VETRANO Flavio20109FPLWNUniversità degli Studi di URBINO "Carlo BO" TotaleTotale