ATLAS PRIN Next Steps Alessandro De Salvo

Slides:



Advertisements
Presentazioni simili
ATLAS PRIN Alessandro De Salvo A. De Salvo – 12 novembre 2015 Cloud Computing Condivisione di risorse tra gruppi EventIndex LHCONE PoD T2D.
Advertisements

Riunione PRIN STOA - Bologna - 18 Giugno 2014 Testbed del T2 distribuito Napoli-Roma Dr. Silvio Pardi INFN-Napoli Riunione PRIN STOA – Bologna 18 Giugno.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
Virtualizzazione nell’INFN Andrea Chierici 11 Dicembre 2008.
IL blueprint e le esigenze per il progetti internazionali (EMI e EGI- InSPIRE) L. Gaido, INFN Torino Riunione del Comitato di Coordinamento IGI Roma, 12.
Multimedia Rapporto di attività Stefano Zani (INFN CNAF) Frascati 5-7 Ottobre 2011.
Sistema Informativo. Mansioni Gestione della piattaforma hardware e sistemistica del sistema informativo INFN In realta’ il mansionario e’ in continua.
Stato Costruzione/Integrazione P. Migliozzi 7/12/2012.
SAL WP10 Bologna – CNAF – 9 Ottobre AGENDA 1.Stato deliverable per il periodo considerato 2.Stato attività descritte nel capitolato tecnico e eventuali.
PRIN «Calcolo LHC» Attività previste Finanziamenti Sinergie CCR12 Dicembre 2012L.Perini1.
Piano finanziario 2010 e incontro con i referee 6/17/20091L. Rossi – Bologna – ATLAS Italia.
Dynamic Farm Espansione Dinamica di una Farm Vincenzo Ciaschini CCR 31/3/2015.
PRIN NAPOLI Enzo Capone, Gianpaolo Carlino, Alessandra Doria, Rosario Esposito, Leonardo Merola, Silvio Pardi, Arturo Sanchez Pineda.
Attività PRIN STOA a Cagliari Alessandro De Falco Università/INFN Cagliari.
KLOE - Referee Luca Lista, Andrea Perrotta, Vincenzo Vagnoni.
Alessandro De Salvo Status dei Tier2 di ATLAS Alessandro De Salvo
Acquisti TIER T2 team e Pistoni per la consulenza sull’hardware.
VO-Neural Project e GRID Giovanni d’Angelo Dipartimento di Scienze Fisiche Università degli Studi di Napoli Federico II Martina Franca 12 – 23 Novembre.
Valutazione proposte di corsi di formazione S. Arezzini, L
Piano di Formazione CCR per il 2017
Evoluzione del collegamento geografico e collaudo della nuova struttura CORE del TIER1 CDG – 06/10/2016 Stefano Zani
Resoconto delle attività del Gruppo di Lavoro DR
Cms.
Status Report Gruppo Storage CCR CCR 14-15/03/2006.
Crea il tuo sistema aziendale sul web a partire dei fogli Excel che usi. ShareXLS
CCR Servizi Nazionali settembre 2016 Stefano Longo (CNAF)
Piani di sviluppo e consolidamento
Comput-ER l'infrastruttura di calcolo distribuito in Emilia Romagna
OR 7 - STUDIO DI METODOLOGIE E STRUMENTI PER LA TRASFORMAZIONE DEI SERVIZI APPLICATIVI, BASATI SULLE COMPONENTI FORNITE DALLA PAAS Stato avanzamento /
SAL WP11 Bologna – CNAF – 5 Giugno 2015.
Attività su middleware Grid e sua evoluzione
Pre-processing e rendering di mappe GIS per IoT platforms
Daniela Vasari Mirco Curzi OCP CTS, 15/09/2016
Risultati ultimi mesi Piano di lavoro prossimi mesi Reclutamento
Richieste di upgrade dei link di accesso alla rete Geografica
Nuovo sito della Commissione Calcolo e Reti
Cloud per HA nei Servizi
Attivita’ e compiti del Servizio Impianti Calcolo e Reti
PRIN Roma1 – status Luciano Barone, Alessandro De Salvo
Richieste preliminari calcolo non LHC
Stato Acquisti Switch/Router T2
CMS T2: monitoring Cosa c’e’ / cosa vorremmo / cosa manca
Introduzione alla sessione sull’analisi per gli esperimenti LHC
Lamberto Luminari CSN Maggio 2005
L’INFN per il Collaborative esteso e distribuito Alessandro De Salvo
OR 7 - STUDIO DI METODOLOGIE E STRUMENTI PER LA TRASFORMAZIONE DEI SERVIZI APPLICATIVI, BASATI SULLE COMPONENTI FORNITE DALLA PAAS Stato avanzamento /
Aggiornamento sullo stato del Tier-2 di Catania
Nuove funzionalità e futura implementazione nella Sezione di Trieste
Attvità Computing – Inverno 08/09
(Breve) Riassunto del workshop WLCG
CNAF e Nuvole Comitato Tecnico del CNAF
INFN-TS INFN - Sezione di Trieste - C. Strizzolo - L. Strizzolo.
Tier2 Milano Gli acquisti di fine 2008 saranno installati in 10 giorni circa Nuovo Storage Element vicino a commissioning No RFIO, cache, GPFS based, usato.
Luciano Gaido (INFN - Torino) Workshop CCR/INFNGRID – Palau
Massimo Masera Catania, 20 dicembre 2012
Considerazioni sull'infrastruttura
Interfacce SRM: l'utilizzo di STORM - Overview e prospettive (ALICE)
R.Gomezel Commissione Calcolo e Reti CNAF
Report giornata di Technology tracking
ATLAS: il calcolo Alessandro De Salvo
Smart City.
 PROTOCOLLO DI INTESA tra Il Ministro per la pubblica amministrazione e l’innovazione e il Ministro della Giustizia per l’ innovazione digitale.
Impresa Formativa Simulata
M-TOOL: uno strumento comune europeo per monitorare progetti
ATLAS Italia Computing Richieste 2007 (Tier-2 e locali)
Il progetto di ricerca Obiettivi ed organizzazione delle attività
ATLAS PRIN Roma1 - status Alessandro De Salvo
1 – 70 1 – Aprile – Maggio – Giugno – Luglio 1985
Commissione Calcolo e Reti
CLOUD.
Transcript della presentazione:

ATLAS PRIN Next Steps Alessandro De Salvo 18-06-2014 A. De Salvo – 18 giugno 2014

Attività Cloud Computing EventIndex HTCondor PoD Cloud per servizi + Tier2 Distribuito EventIndex Studiare la possibilità di semplificare il TagDB di ATLAS trasformandolo in un indice degli eventi (EventIndex) HTCondor Condivisione di risorse a livello utente tramite HTCondor PoD Sviluppare e perfezionare PoD, Proof on Demand, ed integrarlo con le attività di ATLAS LHCONE e Tier2 Distribuito Sviluppo di una nuova generazione di reti geografiche di comunicazione dati (overlay L2 network) Prototipo di Tier2 distribuito (inizialmente NA+RM) 2

Cloud Computing: evoluzioni Storage Test di gluster 3.5 [09/2014] Test di Ceph [12/2014] Test di sincronizzazione in WAN con aumento di latenza (Tier-2 distribuito NA-RM) [07/2014] Infrastruttura di cloud Finalizzazione dei test con LBaaS e AutoScaling [09/2014] Applicazione dei concetti di cui sopra a servizi reali, quali squid, DB cluster nodes, web services e nodi interattivi [12/2014] Estensione della cloud mono-cella al Tier-2 distribuito [08/2014] Estensione della cloud in un ambiente multi-cella (Tier-2 distribuito NA-RM) [12/2014] 3

EventIndex: evoluzioni Giugno-luglio 2014: Assemblare la catena completa per collezionare dati di tutti i tipi per un anno/periodo di dati reali Capire cosa va fatto di diverso per i dati simulati e modificare quello che va modificato Settembre-ottobre 2014: Inserire il producer nei task di simulazione lanciati da ProdSys-2 Stabilire la catena di monitoring e cosa fare quando qualcosa si rompe Iniziare l'operazione continua Novembre-dicembre 2014: Indicizzare tutti i dati del Run1 Gennaio 2015: Prepararsi per il Run2 Stabilire il modello operativo a lungo termine 4

HTCondor: evoluzioni Organizzazione delle risorse utente in pool di HTCondor Aggregazione dei pool in un super-pool Possibile aggiunta di un’area comune Studio di fattibilità di aggiunta di risorse extra attraverso meccanismi di cloud computing 5

PoD: evoluzioni Ripetere i test di benchmark dei sistemi di storage: con protocollo httpd, anche con il redirector httpd istallato al CNAF e, se possibile, con il nuovo redirector di Rucio; test di saturazione dell’accesso ai dati, in funzione del numero di workers allocati. Ripetere i test di startup latency e di analisi utilizzando la nuova funzionalità sviluppata per PROOF di dynamic workers addiction; ovvero la possibilità di aggiungere nuovi core a un’analisi PROOF già avviata. Le nuove macchine vengono configurate non appena si rendono disponibili ed il carico di lavoro ridistribuito. Questo sviluppo di PROOF non è ancora disponibile in PoD. Migliorerà notevolmente l’usabilità del tool, consentendo di lanciare l’analisi senza dover attendere di avere l’intero cluster a disposizione, riducendo i tempi di startup latency: stima preliminare: miglioramento dell’efficienza di PROOF di circa il 30%. Inoltre, eviterà lo spreco delle risorse dovuto all’inattività dei core già allocati nella fase iniziale di completamento del cluster. 6

Rete e Tier2 distribuito: evoluzioni Testare l’architettura al variare della latenza in interazione col GARR, individuando i livelli critici Testare altri filesystem e confrontarli con gluster (CEPH in prima battuta) Test con GlusterFS-3.5 Implementazione di una Cloud distribuita e/o con celle federate test di servizi distribuiti di ATLAS, tramite servizi grid in HA e/o cloud distribuita per l’esperimento 7

Personale La maggior parte delle sedi ha già reclutato il personale Solo Frascati avrà il personale (per 8 mesi) a partire dalla fine del 2014 Nessun intervento particolare necessario in questo ambito 8

Pubblicazioni La maggior parte delle attività sono già state presentate a conferenze CHEP, in prevalenza Si può pensare anche ad altre conferenze e pubblicazioni Ad esempio, una volta che i risultati saranno più quantitativi si potrebbe pensare a veri e propri articoli su rivista Necessarie discussioni e identificazione dei target adeguati 9

Conclusioni Stato dei lavori più che soddisfacente e in linea con le previsioni iniziali Molte attività svole e in fase di svolgimento Risultati utili sia a livello locale che a livello di collaborazione di esperimento Reclutamento già avvenuto con successo nella maggior parte dei siti Necessario un incremento della visibilità dei lavori tramite pubblicazioni 1010