Gianluigi Zanetti (gianluigi.zanetti@crsr4.it) Cybersar Overview Gianluigi Zanetti (gianluigi.zanetti@crsr4.it)

Slides:



Advertisements
Presentazioni simili
CYBERSAR Cybersar Cyber-infrastructure per la ricerca in Sardegna AOB Dedicata al supporto della ricerca scientifica e tecnologica –Permette di affrontare.
Advertisements

Infrastruttura & Competenze ICT ENEA
Fanno ormai parte della nostra vita di tutti i giorni….
Il Progetto MIUR-CRESCO Centro computazionale di RicErca sui Sistemi COmplessi Attività di modellistica delle INTERDIPENDENZE tra Reti Complesse SP-III-5.
CRESCO – Kick-off meeting LA II – 23 maggio 2006 CRESCO–Infrastruttura HPC– ENEA 03 aprile Il Progetto.
FESR Consorzio COMETA - Progetto PI2S2 Sala Grid e applicazioni scientifiche Dr.ssa Annamaria Muoio & Dr. Andrea Nigro 16/05/2006.
Radioastronomia in Europa: Connettività digitale nell’era e-VLBI Mauro Nanni a,c Ignazio Porceddu b,c,d a) Istituto di Radioastronomia – CNR (INAF) b)
1 M&O cat A - consuntivo provvisorio modifica del preventivo 2004 M&O cat B ancora non sono previsti. (saranno presentati al RRB di Aprile) Profili.
Online U. Marconi Milano, 21/9/ ~ 9000 optical link 40 MHz PCIe based readout 30 MHz × 100 kB/evt 5 Gb/s, 300 m long fibres from the FEE directly.
17-18 Dicembre 2014 Second Belle II italian collaboration meeting – Dicembre 2014 Networking e calcolo di Belle II a Napoli - Recas Silvio Pardi.
Scienza Cybersar : a personal selection Vincenzo Fiorentini UniCA & SLACS-CNR-INFM.
Progetto CyberSAR Prof. Giuseppe Mazzarella Cons. COSMOLAB & Univ. Cagliari Catania 13/12/05 Cagliari 20/07/05.
Sistema Informativo. Mansioni Gestione della piattaforma hardware e sistemistica del sistema informativo INFN In realta’ il mansionario e’ in continua.
FESR Catania, Trigrid Open Day, Trinacria Grid Virtual Laboratory PROGETTO “ISOSPIN” Supporters : AnnaMaria Muoio, Marcello IaconoManno.
Attività PRIN STOA a Cagliari Alessandro De Falco Università/INFN Cagliari.
Domenico Elia1 Calcolo ALICE: stato e richieste finanziarie (aggiornamenti) Domenico Elia Riunione Referee Calcolo LHC / Bologna, Riunione con.
Claudio Grandi INFN Bologna Centres of Excellence in H2020 Claudio Grandi INFN-Bologna.
RD_FA kick-off workshop
Infrastruttura cloud servizi realizzata nella Sezione di Napoli
Online U. Marconi Bologna, 5/9/2016.
Summary di (quasi) tutti gli utenti non presentati…
GridPACS: INFN Project
Riunione INFN – Bologna, 17 January 2013
Ricostruzione immagini Positron Emission Tomography (PET)
EU-IndiaGrid Project Joining European and Indian grids for escience
Comput-ER l'infrastruttura di calcolo distribuito in Emilia Romagna
Centro di Ricerche Genomiche Università di Modena e Reggio Emila
Engineering Faculty University of Messina, Italy Marco Scarpa
Metodologie Quantitative per il Calcolo Scientifico
ITEM – PERCORSI FORMATIVI obiettivi e contenuti
Calorimetro LAR ATLAS Italia Roma 28 novembre 2008
Luciano Gaido H2020: Evol-EGI status Luciano Gaido
Collegamento a Garr-X Il collegamento alla nuova rete Garr-X dovrà garantire il massimo della efficienza nella gestione della banda. Per identificare opportunamente.
Dichiarazione dei servizi di sito nel GOCDB
Cloud per HA nei Servizi
Alberto Masoni EU-IndiaGrid Project Manager INFN Sezione di Cagliari
PRIN Roma1 – status Luciano Barone, Alessandro De Salvo
Gruppo storage CCR Nuove attivita’ 2007 Alessandro Brunengo CCR - Roma
I progetti PI2S2 e TriGrid VL
Assegnazione risorse Stato INFN CNAF,
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
Analisi dei dati dell’Esperimento ALICE
Aggiornamento sullo stato del Tier-2 di Catania
Care and Feeding of the ALICE Grid
INFN-TS INFN - Sezione di Trieste - C. Strizzolo - L. Strizzolo.
INAF – Osservatorio Astrofisico di Catania
Gigi Cosentino - LNL 20 ottobre 2016
Necessità di calcolo per MEG II e ripartizione dei costi
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
ONEDATA - distributed data caching -
Progetto S.Co.P.E. Applicazioni del GRID computing nel settore delle Tecnologie dell’Informazione e della Comunicazione Giorgio Ventre Napoli, 29 maggio.
Gruppo Proxmox ImoLUG: vedere provare condividere
WARGI-DSS Andrea Sulis, Ph.D.
Aptar Graduate Program “Inspire Me” Engineering
Report giornata di Technology tracking
CYBERSAR CYBERinfrastructure per la ricerca in SARdegna
M.Biasini, P. Checchia 18 Settembre 2008 Riunione CSN1
PROGETTO “ISOSPIN” Supporters : AnnaMaria Muoio, Marcello IaconoManno
Servizi web per la bioinformatica strutturale
analizzatore di protocollo
Roma - 7 marzo 2007 Casi di successo.
Popolazioni stellari e struttura della Galassia
Marcello Iacono-Manno Catania, 6 maggio 2010
Introduzione alla materia sistemi
Presentazione della materia Sistemi
WP2: Protocollo, Gestione esame, Adeguamento Facility
Progetto GARR per SRT Marco Marletta Catania, 10 settembre 2018
ITALIAN NATIONAL AGENCY
Trasformazione digitale
Consiglio Nazionale delle Ricerche - SuPerconducting and other INnovative materials and devices institute
Transcript della presentazione:

Gianluigi Zanetti (gianluigi.zanetti@crsr4.it) Cybersar Overview Gianluigi Zanetti (gianluigi.zanetti@crsr4.it)

CYBERSAR: a cooperative effort for a shared HPC facility Dual purpose Computational Support to RTD RTD on computational infrastructure Members of the co-op CRS4, INAF, INFN, UNICA, UNISS, Nice, Tiscali Partially Funded by MIUR Supported by RAS (Sardinian Regional Authority) access to dark-fibers & regional network (~3MEuro) INFN AOB

Cybersar from afar 1/4 Cpu : 72 cores Cpu : 256 cores Cpu : 408 cores RAM: 0.14 TB Disk: 13 TB Icnct:, IB Cpu : 256 cores RAM: 0.5 TB Disk: 32 TB Icnct: GbE Cpu : 408 cores RAM: 0.8 TB Disk: 66 TB Icnct: GbE, IB Cpu : 488 cores RAM: 1 TB Disk: 100 TB Icnct: GbE, IB Now Installing 450 additional cores

Cybersar from afar 2/4 DWDN Networks 2 lambda 10GbE (+ 4) on dedicated dark fibers

Cybersar from afar 3/4 Dark fiber core Rete Regionale Ricerca RTR DWDM network 2.5Gb/s lambdas Rete Regionale Ricerca Upgraded with 2 10GbE lambdas (2009Q1)

Cybersar from afar 4/4 Upgraded with 2 10GbE lambdas (2009Q1) GARR- X DWDM network 2.5Gb/s lambdas Upgraded with 2 10GbE lambdas (2009Q1) Janna dark fibers GARR- X

Operativo (80%) da dic. 2007 Dicembre 2007 80 partecipanti, E-science 2007 Cybersar a new computational infrastructure for research in Sardinia Cagliari: Workshop di inaugurazione dell’ infrastruttura 80 partecipanti, 40 partecipanti ai tutorials

Cybersar: a cooperative effort for a shared HPC facility Dual purpose Computational Support to RTD RTD on computational infrastructure Members of the co-op CRS4, INAF, INFN, UNICA, UNISS, Nice, Tiscali Partially Funded by MUR Supported by RAS (Sardinian Regional Authority) access to dark-fibers & regional network INFN AOB

RTD computazionale Metodologie computazionali come strumento Vasto spettro settori applicativi: dai nano-materiali alle reti di interazione sociale Metodologie computazionali come oggetto di ricerca Due livelli di parallelismo Macro scala Cluster di nodi interconnessi con canali di varia capacità e latenza (1GbE -> Ib) ‘Micro scala’ Multi-core processors con esplicita località della memoria e.g., CellBE co-processors GPU, FPGA

Cybersar per l’infinitamente piccolo Cybersar nella world grid e per LHC Infrastruttura di Cybersar utilizzata da gruppi di ricerca dell’ INFN impegnati nel progetto e coinvolti in ALICE e LHCb ed avranno un ruolo importante nel supportare il contributo di queste attività di ricerca con la partenza della presa dati. 10

Cybersar per l’infinitamente grande Data intensive Analisi real-time dati SRT Correlatore software per interferometria VLBI (Very Long Baseline Interferometry) Ricerca di pulsar in sistemi binari relativistici Calibrazione automatica di immagini radio Compute intensive Modellazione della fotofisica dei gas interstellari

Cybersar per l’infinitamente numeroso Nanograni: crescita e morfologia (cristallinità, bordi di grano etc.) Mesoscala da simulazioni microscopiche Superconduttività da principi primi Materiali esotici …. annealing polaroni magnetici “di Zhang-Rice” Grafite intercalata CaC6

Cybersar per le bioscienze Simulazioni di biomolecole Nuovi strumenti paralleli per la bioinformatica Analisi dati provenienti da apparati ad alta processività recettori delta-oppioidi Illumina/Solexa flow cell image

Cybersar nell’ atmosfera Predizione di eventi meteorologici estremi Per dettagli presentazione di G. Pusceddu

Cybersar nel sottosuolo Tempo – offset usi queste informazioni per costruire campo velocità Migrazione Dimensione totale dei dati ordine dei 10 tbyte 8-25hz Imaging acustico del sottosuolo

Cybersar verso star-trek Visualizzazione volumetrica diretta su display a campo di luce Huge dataset: 2048^3 Rendering flow: 50Gbit/sec Front-end PC Back-end Rendering Cluster RAM LRU Cache 3 5 9 GPU1 1 (Ids of current working set chunks) (Geometry/color for new chunks) Cache 2 Partitioning and simplification Mmap I/O Adaptive multires. renderer Holovizio wrapper front-end Network Holovizio wrapper back-end 50Mpixel 0.8° resolution 50-70° FOV GPUm n Off-line Cache 4 7 2 Multiresolution DAG Cut Multiresolution structure (data+dependency) Per dettagli vedere poster Agus et al.

Light field display, the movie

Cybersar: a cooperative effort for a shared HPC facility Dual purpose Computational Support to RTD RTD on computational infrastructure Members of the co-op CRS4, INAF, INFN, UNICA, UNISS, Nice, Tiscali Partially Funded by MUR Supported by RAS (Sardinian Regional Authority) access to dark-fibers & regional network INFN AOB

RTD infrastrutturale Tecnologia per infrastruttura computazionale ‘dinamica’ Piano di controllo unico Configurazione della rete, boot/reboot macchine fisiche, deploy agnostico di sistemi operativi Deployment programmabile di cluster fisici e virtuali Sperimentazione di nuovi approcci sull’uso delle risorse computazionali Infrastructure as a service (“cloud computing”) per applicazioni scientifiche Configurazioni ‘non tradizionali’ e.g., map-reduce facilities

Computational control plane Infrastructure as a service capability Effective BW to disk vs n.nodes Coordination and Scheduling Vendor independent Control as WS n. nodes OS Agnostic // Deployment system Per dettagli vedere presentazione P.Anedda e poster M.Gaggero

State of the art control plane computer traditional cluster 4’ from scratch to running 72 phys. nodes 8’ from scratch to running 288 vn on 72 phys. n. (cfr. Amazon EC2 ~1hr) control plane computer Computing site (virtual) non traditional computing e.g., map-reduce facility for biocomputing virtual computing site hosting

There is more than this in cybersar… Un centro di ricerca Regionale Due Istituti Nazionali di Ricerca 10 Dipartimenti Universitari Due industrie high-tech Per un totale di circa 220 persone coinvolte

Grazie ed arrivederci!