11 Stato dell’Infrastruttura di GRISU Silvio Pardi – Catania 18/09/2009.

Slides:



Advertisements
Presentazioni simili
Introduzione al prototipo Grid-SCoPE
Advertisements

STATO DEL PROTOTIPO DI SCoPE E DELL’INTEGRAZIONE TRA I 4 PON
1 Progettare e operare nella scuola dellautonomia Attività di formazione del personale del sistema scolastico Tratto da LA SCUOLA per lo Sviluppo Programma.
Progetto Speciale Prototipo Tier1 F. Ruggieri INFN – CNAF I Workshop CMS Italia del SW e Computing Roma 22 Novembre 2001.
Consorzio COMETA - Progetto PI2S2 UNIONE EUROPEA Servizi middleware aggiuntivi URL dellindagine:
Stato e prospettive del Data Center SCoPE (L. Merola, 28 luglio 2009)
1 STATO DELLINTEGRAZIONE TRA I 4 PROGETTI AVVISO 1575/2004 ATTIVITA DEL GRUPPO TECNICO OPERATIVO Riunione del Comitato Tecnico sullInteroperabilità MUR,
1 STATO DELLINTEGRAZIONE TRA I 4 PROGETTI AVVISO 1575/2004 ATTIVITA DEL GRUPPO TECNICO OPERATIVO Riunione del Comitato Tecnico sullInteroperabilità MUR,
REALIZZAZIONE DELLINTEROPERABILITA FRA I PROGETTI DELLAVVISO 1575/2004 Riunione del Comitato Tecnico sullInteroperabilità MUR, 29/11/2007 L. Merola.
Interoperabilità tra i PON Giuseppe Andronico (INFN e Consorzio COMETA)
Comitato Tecnico sullInteroperabilità MUR, L. Merola.
Proposta di integrazione e consolidamento delle risorse presenti nellinfrastruttura Grid dellItalia Meridionale (L. Merola, )
Daniele Mura 25 Ottobre Stato di avanzamento dellinfrastruttura CyberSar.
Roma 30 ottobre 2008 UNIONE EUROPEA 1 Stato dell'interoperabilita' tra i progetti PON 1575 Riunione del Comitato di interoperabilià Roma 30/10/2008 Silvio.
1 STATO DELLINTEGRAZIONE TRA I 4 PROGETTI AVVISO 1575/2004 Riunione del Comitato Tecnico sullInteroperabilità MUR, 20/12/2007 S.Pardi.
Aspetti critici rete LAN e WAN per i Tier-2
Proposta di integrazione e consolidamento delle risorse presenti nellinfrastruttura Grid dellItalia Meridionale (L. Merola, )
1 Riunione del 29 Marzo 2007 IL PROGETTO SCoPE Prof. Giuseppe Marrucci LAvviso 1575/2004 ed i quattro progetti vincitori Lo stato dellarte del progetto.
1 REALIZZAZIONE DELLINTEROPERABILITA FRA I PROGETTI DELLAVVISO 1575/2004 Riunione del Comitato Tecnico sullInteroperabilità MUR, 25/10/2007 L. Merola.
1 Riunione del 29 Marzo 2007 IL PROGETTO SCoPE Prof. Guido Russo I lavori Le apparecchiature Il portale.
REGISTRO DEI REVISORI CONTABILI (cenni)
Workshop CNAF – Bologna 8 Luglio 2011 FARO Accesso Web a risorse e servizi remoti in ambiente Grid/Cloud A. Rocchi, C. Sciò, G. Bracco, S. Migliori, F.
I NUMERI DI SCoPE 15 Dipartimenti e Strutture Specialistiche 128 Docenti e ricercatori strutturati coinvolti 35Assegni di ricerca 30 Contratti di collaborazione.
U N INFRASTRUTTURA DI SUPPORTO PER SERVIZI DI FILE HOSTING Matteo Corvaro Matricola Corso di Reti di Calcolatori LS – Prof. A. Corradi A.A.
Servizi Grid ed agenti mobili : un ambiente di sviluppo e delivering
FESR Trinacria Grid Virtual Laboratory ADAT (Archivi Digitali Antico Testo) Salvatore Scifo TRIGRID Second TriGrid Checkpoint Meeting Catania,
10 azioni per lo scheduling su Grid Uno scheduler per Grid deve selezionare le risorse in un ambiente dove non ha il controllo diretto delle risorse locali,
Test Storage Resource Manager per SC4 Giacinto Donvito Vincenzo Spinoso.
Attivita' Grid in BaBar Workshop sulle Problematiche di Calcolo e Reti nell'INFN Maggio 2004.
1 G. Marrucci Il progetto SCoPE: Sistema cooperativo distribuito ad alte prestazioni per elaborazioni scientifiche multidisciplinari UNIONE EUROPEA.
INFN & sicurezza: aspetti legali Roberto Cecchini Paestum, 11 Giugno 2003.
Workshop CCR Otranto - giugno 2006 Gruppo storage CCR Status Report Alessandro Brunengo.
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
Ing. Giovanni B. Barone Convegno PON RECAS - Napoli, 16 dicembre 2014 ReCaS Napoli.
Progetto "ReCaS" Rete di Calcolo per SuperB e altre applicazioni PON R&C Avviso 254/Ric 1 Workshop CCR/GARR – Napoli, 16 maggio 2012 L. Merola.
BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015.
R. Brunetti INFN - Torino. Contenuti Cosa e’ uno CSIRT Gestione della sicurezza in EGI/IGI e IGI-CSIRT Servizi ed attivita’ previste Collaborazione con.
Il Servizio Calcolo e Reti e le attività grid della Sezione INFN di Torino Luciano Gaido.
Workshop CCR e INFN-GRID Hotel Cala di Lepre Palau, maggio 2009 Il futuro di INFGRID nell'era IGI:
1 Attività per la formazione Scuole INFN Grid Edizione 2008 Valeria Ardizzone INFN Catania.
Il Paese che cambia passa da qui. Il nuovo Piano triennale per l’Italia digitale: la strategia sulle infrastrutture Antonio Samaritani, Direttore generale.
26 Giugno 2007CSN1 - Frascati1 Temi di attualità nella CCR Accanto alla tradizionale attività di controllo dei finanziamenti per le infrastrutture di calcolo.
Riunione PRIN STOA - Bologna - 18 Giugno 2014 Testbed del T2 distribuito Napoli-Roma Dr. Silvio Pardi INFN-Napoli Riunione PRIN STOA – Bologna 18 Giugno.
PON a3_00052 "ReCaS" Rete di Calcolo per SuperB e altre applicazioni G. Andronico 24/10/
PON a3_00052 "ReCaS" Rete di Calcolo per SuperB e altre applicazioni L. Merola riunione di gruppo I Napoli 21/12/2012 Sito e dominio web del progetto:
Workshop della Commissione Calcolo e Reti 28 Maggio 2013 Federazione di risorse Cloud con CLEVER 1.
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
Referaggio sigla CALCOLO D. Bonacorsi, G. Carlino, P. Morettini CCR – Roma 9 Settembre 2014.
Overview del middleware gLite Guido Cuscela INFN-Bari II Corso di formazione INFN su aspetti pratici dell'integrazione.
Sistema di monitoraggio integrato Introduzione a cura di P. Mastroserio Servizio Calcolo & Reti Infn-Napoli P. Mastroserio Workshop CCR - INFN Grid Acireale.
Attività e servizi di calcolo a Roma Tor Vergata R. Kwatera, R. Lulli, R. Sparvoli Roma Tor Vergata.
Progetto iSCSI Report alla CCR 12-13/12/2006 Alessandro Tirel – Sezione di Trieste.
Progetto ReCaS status update Giuseppe Andronico WS CCR, Catania 28 Maggio 2014.
LNGS, Workshop CCR 2008, Giugno Sondaggio Utenti INFN Valeria Ardizzone INFN Catania Ombretta Pinazza CNAF.
Il futuro della infrastruttura Grid INFN : le risorse economiche e le competenze ” Workshop CCR INFN GRID 2011.
1 ALICE I ITER2 DI ALICE IN ITALIA Bologna, 6 marzo 2007 M. Masera
Martedi 8 novembre 2005 Consorzio COMETA “Progetto PI2S2” UNIONE EUROPEA Accesso all’infrastruttura Grid del Consorzio COMETA Grid Open Day alla Facoltà.
19/4/2013 D. Menasce, M. Serra - Referaggio Progetti INFRA e WLCG 1.
1 PROGETTO SCoPE Incontro dei Progetti PON Avviso 1575 con il ROC di INFN Grid Catania 04/07/2008 Silvio Pardi.
SCOPE: stato e piano di integrazione Phd. Silvio Pardi CNAF
Sistema di Monitoraggio Integrato Paolo Mastroserio, Gennaro Tortone, Silvio Pardi Presenta per il gruppo Silvio Pardi.
G. Maggi 24/1/2006 Il Progetto del TIER2 di Bari Giorgio Maggi.
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
Silvia Arezzini 2 luglio 2014 Consiglio di Sezione per Preventivi.
FESR Trinacria Grid Virtual Laboratory Workload Management System (WMS) Muoio Annamaria INFN - Catania Primo Workshop TriGrid VL Catania,
1 Le macchine di questo pool fanno parte di una lan privata (la 125 illustrata a pag.2), di cui t2cmcondor è il gateway. Sono presenti 3 macchine su rete.
L’infrastruttura del progetto ReCaS Paolo Lo Re on behalf of ReCaS collaboration.
L.Perini Milano: 10 Gennaio Ex-ATLAS-Grid (Tier2 incluso) l Ruolo dei Tiers in ATLAS e grid l Le persone di Milano e le attività l Le infrastrutture.
PROGETTO Infra infn-grid Maria Cristina Vistoli INFN – CNAF.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Transcript della presentazione:

11 Stato dell’Infrastruttura di GRISU Silvio Pardi – Catania 18/09/2009

22 GRISU – RISORSE, UTENTI E PERSONALE

33 6 SITI ATTUALMENTE DISPONIBILI CIRCA 1000 CPU A DISPOSIZIONE

44 Attualmente alle 6 VO cometa, cresco, cybersar, matisse, spaci ed unina.it sono iscritti circa 390 utenti

55 IN FUNZIONE LA VO MATISSE, SUPPORTATA ORA SOLO DA ENEA E DA UNINA. OGGI CONTA 12 UTENTI PIU’ UN CERTIFICATO ROBOT

66 People La lista dei tecnici operativi conta ad oggi 30 persone di cui molti sono attualmente senza contratto. In attesa di un finanziamento è necessario organizzare una soluzione di best effort dando priorità ad alcune azioni vitali per l’infrastruttura: Implementazione di tutte le VO in tutti i siti Aggiornamento dei certificati VOMS

77 ATTIVITA’ DI SPERIMENTAZIONI IN GRISU E INTERFACCE UTENTE

88 TEST DEL LINK GARR CRESCO-SCOPE Sono stati effettuati dei test di velocità sul link CRESCO-SCOPE sia con alcuni Benchmark che con GRIDFTP da un worker node di cresco verso uno degli storage element di scope. Trasferiti circa file da 1GB bytes MB/sec avg MB/sec inst bytes MB/sec avg MB/sec inst bytes MB/sec avg MB/sec inst bytes MB/sec avg MB/sec inst UNO DEI CATALYST IN LOAD BALANCING DI SCOPE

99 CLOUD CYBERSAR EyeGrid

10

11 SOLUZIONE CLOUD GENIUS

12 SOLUZIONE CLOUD GRB

13 SOLUZIONE CLOUD GRB SOLUZIONE GRID2WIN

14 INSTANZA TEST DI EYEGRID IN SCOPE

15 INSTANZA GENIUS IN SCOPE

16 IL SITO DI SCOPE DOPO L’AVVISO 1575/2004

17 Governance

18 Collaboratori altri Enti (contributors): INFN Napoli: Giuseppe PASSEGGIO (Impianti), Paolo LO RE (Reti), Silvio PARDI (Middleware Grid, Grisù, IGI, EGI), Alessandra DORIA e Gianpaolo CARLINO (riferimenti per VO ATLAS), Paolo MASTROSERIO (riferimento per INFN-GRID). Progetto EGEE: Vania BOCCIA (EGEE, Middleware Grid, Interoperabilità Grisù, IGI, EGI, middleware applicativo, supporto utenti di tipo specialistico) Contratto - (EGEE) CNR: Maria GELLI, Luisa CARRACCIUOLO e Maria RISPOLI (Middleware Grid, Interoperabilità Grisù, IGI, EGI, middleware applicativo, supporto utenti di tipo specialistico). Dip. Informatica e Sistemistica: Pasquale DI GENNARO (Middleware di sistema), Antonio ACETO (Networking). Dip. Scienze Fisiche: Giuseppe Longo (VO VOBS), Domenico Ninno, Giovanni Cantele (VO MATISSE). Referenti dei progetti: Leonardo Merola (GRISU’), Giuliano Laccetti (EGEE, Matematica), Guido Russo (IGI), Gianpaolo Carlino (ATLAS), Giorgio Ventre (Ingegneria, Imprese), Giuseppe Longo (VOBS), Domenico Ninno (MATISSE), Giorgio Franceschetti (Ingegneria), Giuseppe Marrucci (Ingegneria), Orlando Crescenzi (Chimica), Giovanni Paolella (Medicina).

19 Attività del Gruppo Tecnico Trasversale Il gruppo tecnico trasversale è un gruppo di lavoro in cui sono coinvolti i tecnici CSI impiegati nelle attività di setup e gestione del DataCenter, gli esperti e i ricercatori dell’Ateneo e degli altri Enti (INFN, CNR). Attualmente i punti principali di discussione riguardano le politiche d’accesso e di utilizzo della macchina, di cui distinguiamo una parte di sperimentazione e una parte di gestione. Allo stato attuale gli utenti delle varie VO sono organizzati in 3 macrogruppi: utenti di GRISU`: appartenenti alle Virtual Organizzation (VO) cometa, cybersar, cresco e spaci utenti di EGEEIII: appartenenti alle VO alice, cms, lhcb, biomed, libi, pamela, virgo, ops, infngrid, dteam, gilda (situazione attuale in evoluzione) utenza LOCALE: appartenente alle VO unina.it, atlas, matisse Ogni macrogruppo ha a sua disposizione, in una certa percentuale, le risorse; in particolare: GRISU`: 25% delle risorse EGEEIII: 10% delle risorse, da aumentare al 20 % (per IGI/EGI). LOCALE: accesso a tutte le risorse “senza limiti”

20 Nuovo Portale in fase di test raggiungibile da:

21

22 Nuovo Sistema di Monitoraggio Integrato Negli ultimi mesi si è lavorato all’implementazione di un sistema di monitoraggio integrato per il DataCenter, oggi a buon punto. Tale sistema consente di monitorare tutti gli aspetti principali del DataCenter: impianti, rete, hardware e servizi.

23 A partire dallo stato dei singoli armadi e moduli di raffreddamento è possibile scendere sempre più nel dettaglio dei singoli sistemi

24 Il sistema fornisce: Informazioni aggregate sulle risorse Granularità fino al singolo server Single-Sign-On per autenticarsi in un solo punto e navigare nei vari sistemi Gestione di profili utente, con differenti permessi di visione e di intervento.

25 Networking Rete Interna: Articolata rete locale (LAN), basata su standard Gigabit Ethernet (1 GbE), 10GbE, ma anche su Infiniband e su Fibre Channel. La rete copre tutte le macchine, che sono collegate in più modi, ma con scarsa espandibilità: l’aggiunta di altre macchine (server) richiederà l’aggiunta di nuovi e costosi apparati di rete centrali. Rete di campus: Il DataCenter è ora collegato a regime con link diretti in fibra verso la control room, il centro stella del campus di M.S.Angelo, il Dipartimento di Scienze Fisiche. E’ stato altresì attivato il collegamento diretto dedicato a 10Gbit/s tra le due parti del Tier2 di ATLAS. Rete geografica: E’ attiva e in fase di stress-test il link diretto a 1Gbit con il centro CRESCO dell’ENEA a Portici: è una connessione dedicata, che va meglio gestita ed utilizzata, ai fini della griglia nazionale e soprattutto di quella del Sud (Grisù)

26 SISTEMA DI MONITORAGGIO DELLA RETE DEL TIER2 DI ATLAS SWITCH DEL DATACENTER

27 GARR-G

28 Sono in corso alcune sperimentazioni per configurare dinamicamente le politiche di accesso ed utilizzo delle risorse relativamente a: Fairshare politica di scheduling che consente di intervenire dinamicamente sulla priorità dei job. Tale sistema si basa su osservazioni effettuate nell’arco di finestre temporali in cui si misura l’effettivo utilizzo degli utenti e/o dei gruppi. Reservation meccanismo con il quale MAUI (sw a basso livello di gestione code) garantisce la disponibilità di singole risorse o set di risorse in un particolare momento. Backfill permette allo scheduler di ottenere un migliore impiego delle risorse eseguendo i job sottomessi non in ordine di sottomissione ma basato sul tempo di reservation Preemption consente la sospensione di job nel caso di arrivo di altri processi o in coda con maggiore priorità

29 E’ stato effettuato con successo il test dei certificati robot sulla VO pilota matisse, per l’accesso ai servizi della grid da parte di utenti sprovvisti di certificato. Una user interface speciale consente all’utente di sottomettere job non appena effettuato il login, senza dover provvedere al management del certificato

30 VOMS Extensions Per discriminare il reale utilizzatore di un proxy generato da certificato robot si propone questa straegia: Due livelli di iscrizione al server VOMS: Membri con certificato Membri senza certificato Gli utenti sprovvisti di certificato possono registrarsi al servizio VOMS il quale creerà un ruolo per ogni utente senza certificato. Quando il servizio cloud genera un certificato proxy prenderà il ruolo VOMS all’utente effettivo utilizzatore del certificato. Tale soluzione mantiene la centralità del concetto di VO e del servizio VOMS, introducendo informazioni aggiuntive che aumetano il livello di sicurezza.

31

32 Attività di Formazione Il Data Center SCoPE rappresenta altresì un opportunità per la formazione dei giovani, in particolare lo strumento del tirocinio per le lauree triennali, o con la tesi per le vecchie lauree quinquennali o per le magistrali/specialistiche. L’assegnazione di tesi su temi attinenti il Data Center avviene su iniziativa dei docenti coinvolti nel progetto. Dal settembre 2008 ad oggi, sono state assegnate ben 17 tesi/tirocini, di cui 6 concluse con soddisfazione, e le altre in corso; l’elenco completo è qui di seguito. 1)BELFIORE GiovanniIntegrazione di un sistema di storage Fibre Channel della EMC 2 nel Data Center SCoPE 2)LIBERTI MarcoIntegrazione di un sistema di storage iSCSI della EqualLogic nel Data Center SCoPE 3)FALCONE GiulianoLe problematiche dello storage in un Data Center: tecnologie a confronto 4)COSIMO ArmandoCreazione di portlet per il monitoraggio degli impianti di un data-center 5)ILARDI LuigiMonitoraggio connessioni in fibra del progetto SCoPE 6)DEL PRETE Domenico Integrazione di servizi file transfer dedicati al GRID Computing su NAS Server del Data Center S.Co.P.E. 7)ROSSI Enrico MariaMonitoraggio delle connessioni di rete delle macchine del DataCenter SCoPE 8)RUSSO AlessandroMonitoraggio delle attrezzature hardware del DataCenter SCoPE 9)CERBO FrancescoConfronto tra DPM, StoRM, LUSTRE 10)GERARDO LucaAutenticazione mediante certificati Robot 11)PETRIZZO GiuseppeSoftware PowerFarm per la gestione degli eventi di power failure 12)TOZZI MauroUn sistema integrato di monitoraggio di un data center in ambito Grid 13)NADDEO SalvatoreUn sistema di monitoraggio per il Tier2 di ATLAS a Napoli 15)ALFANO MarcoAutenticazione mediante certificati X.509 e mediante SSO, per l ’ accesso ai servizi di monitoraggio e di accounting 16)COSTANZO Roberto Monitoraggio delle componenti di servizi del Data Center 17)TORRES DavideInterfaccia utente per accesso ai servizi di Grid computing

33 Dottorato/Master Il Data Center si pone come infrastruttura di calcolo avanzato per lo svolgimento di attività di ricerca nell’ambito dei corsi di dottorato nelle varie discipline. E’ anche da prendere in considerazione, per il futuro, l’istituzione di un master universitario in “Computer Science” che abbia il Data Center SCOPE come infrastruttura portante.

34 L’ATTIVITA’ EGEE III A partire dal 4 Maggio 2009 le risorse di UNINA_DATACENTER, destinate ad EGEEIII sono entrate in produzione sotto il nome di UNINA_EGEE (2 contrattisti per 1 anno) Sono state svolte le seguenti attività: 1) Installazione, configurazione e certificazione del sito UNINA_EGEE costituito da: ◦ un Computing Element (CE) con 32 Worker Nodes (WN) ◦ uno Storage Element (SE) di tipo DPM (disk pool manager) per la gestione dello spazio disco 2) Risoluzione di ticket 3) Supporto utenti di 12 Virtual Organization aggiuntive: atlas, alice, cms, lhcb, biomed, libi, pamela, virgo, ops, infngrid, dteam e gilda. I risultati di disponibilità (tempo vivo) ed affidabilità (percentuale di job conclusi con successo) ottenuti nei primi due mesi, secondo le tabelle EGEE, sono stati molto soddisfacenti:

35 Prospettive NGI/EGI Nel mese di luglio l’INFN, come da mandato ricevuto da tutti i membri della JRU IGI, ha formalizzato l’adesione alla EGI europea. La costituzione quindi della EGI andrà avanti per realizzare la sede centrale ad Amsterdam, come previsto, e si concretizzerà nel corso del La EGI avrà quindi una propria struttura operativa, con una stima di 50 unità di personale a regime, e sarà finanziata con i contributi dei soci europei, cioè delle varie NGI, tra cui la IGI italiana. La IGI italiana è invece più lontana: si vuole una concreta a formale adesione del Ministero per l’Università e la Ricerca Scientifica, che deve assumersene la responsabilità, anche ai fini economici, con finanziamenti che non potranno essere solo di investimento, ma anche di spese correnti, in particolare per le esigenze di personale. Al momento il MIUR non è in condizioni di prendere questi passi formali, che comunque dovranno essere presi entro la prima metà del 2010.

36 CONCLUSIONI Occorre un piano per il breve termine al fine di garantire i servizi minimali dell’infrastruttura (ogni sito deve riuscire a dedicare delle ore/uomo) Spingere per l’iscrizione degli utenti alla nuova VO Matisse e alla creazione di nuove VO. Rapporti di GRISU con IGI/EGI e INFN-GRID - Allineare i siti ai test SAM? Portare le sperimentazioni in release INFN-GRID?