L’INFN per il Collaborative esteso e distribuito Alessandro De Salvo

Slides:



Advertisements
Presentazioni simili
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
Advertisements

Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
Virtualizzazione nell’INFN Andrea Chierici 11 Dicembre 2008.
L’infrastruttura del progetto ReCaS Paolo Lo Re on behalf of ReCaS collaboration.
L’attuazione integrata dei programmi: lezioni dall’esperienza attuale e prospettive per il futuro Enrico Mattei Direttore politiche e programmi comunitari.
IL blueprint e le esigenze per il progetti internazionali (EMI e EGI- InSPIRE) L. Gaido, INFN Torino Riunione del Comitato di Coordinamento IGI Roma, 12.
Progetto pilota LNF L’idea è di «fotografare» i Laboratori evidenziando le competenze e le capacità eccellenti sia delle singole risorse umane che dei.
PRIN NAPOLI Enzo Capone, Gianpaolo Carlino, Alessandra Doria, Rosario Esposito, Leonardo Merola, Silvio Pardi, Arturo Sanchez Pineda.
+ Call di Big Data (EINFRA- 1). + La call … + + Cosa abbiamo in mano (come INFN) 1. L’infrastruttura 1 Tier Tier2 O(25000) cores O(20) PB di Disco.
POLITECNICO DI MILANO FACOLTA’ DI INGEGNERIA SEDE DI CREMONA TESI DI DIPLOMA IN INGEGNERIA INFORMATICA RELATOREAUTORI Prof. Vittorio TrecordiDemicheli.
Attività PRIN STOA a Cagliari Alessandro De Falco Università/INFN Cagliari.
KLOE - Referee Luca Lista, Andrea Perrotta, Vincenzo Vagnoni.
Informativa sull’adempimento degli obblighi di e-cohesion di cui all’art. 122, comma 3 del reg. (UE) 1303/2013 Programma Competitività regionale 2007/13.
Utilizzo e Richieste infrastrutture di calcolo esperimenti LHC & non LHC G. Carlino, INFN Napoli CSN1 – Roma 7 Luglio 2016.
Alessandro De Salvo Status dei Tier2 di ATLAS Alessandro De Salvo
AFS NELLA SEZIONE DI PADOVA aree_utenti: attualmente nessuno ha la proria home in AFS e quasi nessuno utilizza l'area utenti di AFS. /usr/local: si preferisce.
Torino, Andrea Dainese 1 Andrea Dainese (INFN – LNL) Stato del Tier-2 ALICE a Legnaro.
Umane RISORSE PROCEDURE DATI INFORMAZIONI RACCOLTA SELEZIONE ELABORAZIONE COMUNICAZIONE DISTRIBUZIONE ARCHIVIAZIONE Materiali.
Aggiornamenti gruppo WINDOWS CCR Riunione 5-7 ottobre 2010 Gianluca Peco.
20-21/03/2006Workshop sullo storage - CNAF Alessandro Brunengo.
Casa Digitale del Cittadino
Il calcolo ATLAS a Napoli nel 2014/2015
Infrastruttura cloud servizi realizzata nella Sezione di Napoli
Resoconto delle attività del Gruppo di Lavoro DR
Status Report Gruppo Storage CCR CCR 14-15/03/2006.
Progetti integrati per il sistema di emergenza sanitaria
Smart TMS: Smart Tourism & Mobility Solution
Summary di (quasi) tutti gli utenti non presentati…
CCR Servizi Nazionali settembre 2016 Stefano Longo (CNAF)
Bologna – CNAF – 9 Ottobre 2015
IGI BLUEPRINT LAVORI IN CORSO
Servizio Calcolo Alessandro Brunengo.
Comput-ER l'infrastruttura di calcolo distribuito in Emilia Romagna
Metodologie Quantitative per il Calcolo Scientifico
Studente/i Relatore Correlatore Committente Christian Ortega
Richieste di upgrade dei link di accesso alla rete Geografica
La piattaforma di servizi unificati
Matteo Panella PCM !CHAOS 7 Luglio 2015
Cloud per HA nei Servizi
Attivita’ e compiti del Servizio Impianti Calcolo e Reti
PRIN Roma1 – status Luciano Barone, Alessandro De Salvo
27 Febbraio 2014 D. Menasce - La Formazione e le e-infrastructures.
Richieste preliminari calcolo non LHC
Sezione di Napoli GRID-PACS Commissione Calcolo Richieste 2008 Napoli.
Introduzione alla sessione sull’analisi per gli esperimenti LHC
Bando MIUR Smart Cities and Communities and Social Innovation
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
Aurelio LEONE CTS OCP – Bologna 28/07/2016
Aggiornamenti dal Tier-1
Nuove funzionalità e futura implementazione nella Sezione di Trieste
Attvità Computing – Inverno 08/09
CNAF e Nuvole Comitato Tecnico del CNAF
INFN-TS INFN - Sezione di Trieste - C. Strizzolo - L. Strizzolo.
Espansione dei CORE switch del TIER1
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
ATLAS PRIN Next Steps Alessandro De Salvo
Evento moltiplicatore PRESENTAZIONE PROGETTO
“Dalla progettazione alla valutazione”
Report giornata di Technology tracking
 PROTOCOLLO DI INTESA tra Il Ministro per la pubblica amministrazione e l’innovazione e il Ministro della Giustizia per l’ innovazione digitale.
Presentazione Servizi Educativi a cura di Angela Dini 13 luglio 2012
Stato e trend della digitalizzazione in Italia
Innovazione Ecosistema Cultura
Il registro elettronico e gli archivi cloud
ATLAS PRIN Roma1 - status Alessandro De Salvo
Preventivi CCR 2018 INFN Roma Tor Vergata.
ReCaS Catania Progetti
Trasformazione digitale
Commissione Calcolo e Reti
Avvio programmazione europea
Transcript della presentazione:

L’INFN per il Collaborative esteso e distribuito Alessandro De Salvo 11-4-2017 A. De Salvo – 11 aprile 2017

Programma Mirror Copernicus Il programma Mirror Copernicus si inserisce all’interno del piano strategico Space Economy Space Economy nasce dai lavori della Cabina di Regia Spazio, l’iniziativa promossa dalla Presidenza del Consiglio dei Ministri, per la definizione della politica nazionale nel settore spaziale (vedi lettera del 18/06/2014 (prot. num. UCM 0000962) Obiettivo del piano è quello di definire le linee strategiche d’intervento in grado di consentire all’Italia di trasformare Il settore spaziale nazionale in uno dei motori propulsori della nuova crescita del paese Il progetto prevede la definizione di 5 infrastrutture istituzionali complesse, distribuite sul territorio nazionale e articolate in centri nazionali e regionali Reti di misura, capacità di trattamento dei dati satellitari ed in situ, modelli descrittivi e predittivi, infrastrutture di comunicazione tra i diversi centri e proprie interfacce con centri di eccellenza scientifica esterni Nel contesto del Mirror Copernicus, ci si propone di realizzare nuovi servizi “downstream” attraverso l’utilizzo dei dati satellitari e delle complementari misure in situ 2

Collaborative Ground Segment esteso La Piattaforma Collaborative Ground Segment Esteso e Distribuito è l’infrastruttura tecnologica BIG DATA trasversale ai 5 servizi downstream e di supporto allo sviluppo dei servizi istituzionali e commerciali innovativi Infrastruttura abilitante, di interesse nazionale, che intende promuovere e facilitare l’utilizzo sia dei dati che delle informazioni, a diversi livelli di elaborazione, derivanti prioritariamente dalle costellazioni Sentinel e dai servizi Copernicus, con il concorso operativo delle diverse comunità nazionali 3

INFN e Collaborative Ground Segment L’INFN si inserisce nel progetto di Collaborative Ground Segment per fornire supporto tecnologico ed infrastrutturale alle attività di sviluppo e test effettuate in ASI Tramite l’utilizzo delle strutture esistenti, su piattaforma Cloud Sia computing che Storage Tramite consulenze per l’ottimizzazione delle risorse Eventuale accesso anche alle tecnologie sviluppate dai progetti nei quali l’INFN è coinvolto, ad esempio INDIGO L’INFN non è supposto dare quindi un contributo attivo allo sviluppo ma solo di infrastruttura, tramite l’utilizzo ed espansione dei siti già presenti sul territorio nazionale La collaborazione con ASI è iniziata nell’ultima parte del 2016 ed è andata avanti con un pilota, descritto in seguito, in preparazione alla fase operativa vera e propria del progetto che vedrà la luce nei prossimi mesi 4

L’infrastruttura Cloud INFN Infrastruttura cloud basata su OpenStack Infrastruttura IaaS: siti principali Bari Derivato da un PON di infrastruttura per le regioni del meridione (Re.Ca.S.) Infrastruttura in grado di fornire oltre 80 rack di spazio e 1MW di potenza IT Infrastruttura Cloud composta attualmente da ~1100 Core fisici, più di 5 TB di RAM e 110 TB di spazio disco, largamente espandibile CNAF E’ il centro di calcolo principale dell’INFN Si occupa della gestione e dello sviluppo dei principali servizi di trasferimento di informazioni e dati a supporto dell’INFN a livello nazionale e internazionale Ospita il cosiddetto Tier-1 italiano per gli esperimenti di fisica delle Alte Energie del Large Hadron Collider di Ginevra Infrastruttura cloud configurata in alta affidabilità attraverso un back-end basato su GPFS L’infrastruttura cloud attualmente offre ~350 core, 1.5 TB RAM e 16 TB di spazio disco, ampiamente espandibili (il CNAF ha > 20 PB attualmente in GPFS) Infrastruttura PaaS Facility PaaS che garantiscono la gestione automatizzata di Long-Running Services fornendo funzionalità aggiuntive di monitoring e auto-scaling 5

Pilota di Collaborative Ground Segment con INFN A partire dalla seconda parte del 2016 è iniziata la realizzazione di un pilota di Collaborative Ground Segment (Fase 0) Utilizzato come testbed e studio di fattibilità per studi futuri Pilota funzionante a Bari Copia mirror del servizio già presente in ASI Utilizzo di VM (1) su OpenStack e storage CEPH per i dati Replica completa dei dati attivi in ASI Inizialmente aggiornato in parallelo con l’installazione di ASI Switch trasparente delle attività utente da ASI ad INFN effettuato ad inizio 2017 Test di scala necessario Connettività dell’infrastruttura INFN già molto al di sopra delle richieste, nessun problema previsto Possibilità di aggiungere risorse e/o di espandere al CNAF 6

Collaborative Ground Segment e INFN L’INFN può mettere a disposizione risorse IaaS provenienti da Bari e CNAF Storage espandibile in entrambi i siti di alcuni ordini di grandezza Possibilità di conservazione e accesso ai dati Copernicus in entrambi i siti Infrastruttura per Disaster Recovery e High Availability Potenza di calcolo elastica, con grande espandibilità possibile in entrambi i siti Rete > 10 Gbps in tutte le facility, con possibilità di espansione e QoS ove risulti necessario ASI potrà utilizzare le risorse INFN avvalendosi dell’expertise locale dei centri di calcolo interessati Per ottimizzazioni dell’accesso Per automazione … 7

Collaborative Ground Segment e INFN [2] Prossimi step per l’utilizzo effettivo dei siti di Bari e/o CNAF Effettuare il test di carico e ottimizzare l’accesso alle risorse attuali Operazioni di upgrade alle fasi successive Quantificazione delle richieste aggiuntive di CPU e storage Pianificazione delle richieste di DR e HA Definizione dell’architettura e topologia delle nuove facility Richiesta di eventuali servizi accessori necessari per gli utenti e per le attività interne del software ASI (es. backup) 8

Conclusioni Pilot di Collaborative Ground Segment (fase 0) funzionante a Bari Switch trasparente delle attività utente per test di carico effettuato con successo Estensione alle fasi successive del Collaborative Ground Segment Utilizzo dei siti di Bari e CNAF tramite tecnologie Cloud OpenStack Espandibilità possibile di diversi ordini di grandezza Infrastruttura IaaS e SaaS interamente resa disponibile dall’INFN, software sviluppato e gestito da ASI Possibilità di instrastruttura di Disaster Recovery e High Availability Rete adeguata per il futuro prevedibile e aggiornabile quando necessario Possibilità di ottimizzazione dell’accesso alle risorse 9