+ COSA (COmputing on Soc Architectures ) Michele Michelotto – INFN Padova.

Slides:



Advertisements
Presentazioni simili
Come scegliere un computer?
Advertisements

E835 & Hera-B Concezio Pisa, 21/12/2004. E835 (aka Jet-FNAL) timeline dell'esperimento –Presa dati conclusa nel Alcune analisi tuttora in corso.
Cluster openMosix Linux Day ’04 Caserta Ing. Diego Bovenzi.
Introduzione al calcolo parallelo SISTEMI INFORMATIVI AZIENDALI Pierpaolo Guerra Anno accademico 2009/2010.
MAIS WP5 – Architectures Luca Negri Politecnico di Milano Roma – novembre 05.
Aspetti critici rete LAN e WAN per i Tier-2
1 Riunione del 29 Marzo 2007 IL PROGETTO SCoPE Prof. Guido Russo I lavori Le apparecchiature Il portale.
Riunione CRESCO Infrastruttura HPC Cresco Analisi Preliminare.
Supercalcolo al CILEA: risorse e opportunità CAPI /11/2005 Dr. Claudio Arlandini, PhD HPC System Administrator.
3. Architettura Vengono descritte le principali componenti hardware di un calcolatore.
WP 14 Grid Applications for Geophysics Istituto Nazionale di Geofisica e Vulcanologia INGV Progetto FIRB Grid.it Documento di rimodulazione.
Reti di Calcolatori L-S Un Sistema Decentrato di Allocazione del Carico per Applicazioni di Calcolo Distribuito Mauro Bampo.
Michele Michelotto INFN-Padova
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
Case study Maiora srl.
ICT a Manutenzione ZERO Quante volte vi è capitato di accendere i computer e di riscontrare.
PRESENTAZIONE di RICCARDO
Il computer: struttura fisica e struttura logica
La rete di istituto Maninder Bansal 5Bz Vital Ivo 5Bz Anno scolastico 2005/06.
Il supercalcolo fai-da-te
APPRENDIMENTO DIVERTENTE
3 Aprile CSN1 P. Capiluppi Tier2 CMS Italia.
6 Febbraio 2006CSN1 - Roma1 MEG : relazione dei referees P. Cenci R. Contri P. Morettini M. Sozzi.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
Green LAB Erasmo Mercurio,Mattia Davi, Dario Zucchini, Ivan Bertotto, Claudio Borgogno
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
Linee di evoluzione delle ICT Uno sguardo al futuro dell’ICT nell’impresa Torino, 13 Luglio 2005
Support for Emulation of Services and Applications in Mobile Environments with Bluetooth Gruppo: Davide Bonomo Salvatore Baglieri Referente: Ing. Dario.
Calcolo ad alte prestazioni: situazione e prospettive Gianluigi Bodo INAF Osservatorio Astronomico di Torino.
Workshop CCR Otranto - giugno 2006 Gruppo storage CCR Status Report Alessandro Brunengo.
Grid nelle sezioni: Milano Luca Vaccarossa INFN – Sezione di Milano Workshop sulle Problematiche di Calcolo e Reti nell'INFN.
Calcolo esperimenti LHC 2004 F. Ferroni, P. Lubrano, A. Martin, M. Morandin, M. Sozzi.
PcClusters, ALBERT100 e Grid Roberto Alfieri Parma,
Corso integrato di Matematica, Informatica e Statistica Informatica di base Linea 1 Daniela Besozzi Dipartimento di Informatica e Comunicazione Università.
1 Calcolo e software G. Bagliesi 23/3/01 Riassunto riunione calcolo Bologna 19/3/01 B/tau : futuri miniworkshop.
GPU - Graphics Processing Unit Corso di Sistemi Paralleli Luigi La Torre Giugno 2012.
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
Presentazione Servizi. Di Cosa Ci Occupiamo Hera02 cura per le Aziende i seguenti tre assetti: 1 – I servizi di Telecomunicazioni: Connessione Dati verso.
MS - NA62 TDAQ INFN – Settembre 2011 TDAQ in generale Distribuzione clock/trigger: progetto definito, moduli finali in arrivo (?), installazione prevista.
SEMINARI CAMO 2003 LA SIMULAZIONE NUMERICA COMPIE 50 ANNI
CDF Calcolo Another brick in the wall Paolo Morettini CSN1 Lecce Valerio Vercesi Settembre 2003.
Report R.Gomezel CCR dicembre 2006 Roma.
COSA: Computing on SoC Architecture D. Cesini – INFN-CNAF – CSNV – 30/09/ Ferrara.
Corso linux RiminiLUG presenta Rete a bassissimo budget per il piccolo ufficio architettura di rete LTSP in contesti professionali corso linux 2008.
Memorie flash. La memoria flash, anche chiamata flash memory, è una tipologia di memoria a stato solido, di tipo non volatile, che per le sue prestazioni.
Conosciamo…il computer
Programmazione orientata agli Oggetti Introduzione a Java.
Implementazioni di un analizzatore di protocollo Esistono quattro fondamentali tradeoff per la realizzazione di un analizzatore di protocollo:  Analisi.
Workshop CCR e INFN-GRID Hotel Cala di Lepre Palau, maggio 2009 Il futuro di INFGRID nell'era IGI:
+ COSA (COmputing on Soc Architectures ) Tommaso Boccali – INFN Pisa.
Referaggio sigla CALCOLO Gianpaolo Carlino Antonio Budano Michele Michelotto* Ruggero Ricci CCR – Roma Settembre 2015.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
Test di porting su architetture SoC F. Pantaleo for T. Boccali.
CCR – 9 Settembre 2014 R.Fantechi, M.Gulmini, S.Parlati.
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
FESR Consorzio COMETA - Progetto PI2S2 Il Tier-2 di ALICE a Catania Roberto Barbera Università di Catania e INFN Visita Referee.
Utilizzo della VO di theophys per il calcolo lattice QCD G. Andronico M. Serra L. Giusti S. Petrarca B. Taglienti.
FESR Trinacria Grid Virtual Laboratory Porous Fluid Dynamics Analyzer Supporter : Salvatore Scifo Affiliation : TRIGRID Second TriGrid Checkpoint.
Aggiornamento sui lavori di ampliamento degli impianti infrastrutturali del TIER1 e stato delle risorse Cristina Vistoli – Massimiliano Fiore INFN-CNAF.
Il futuro della infrastruttura Grid INFN : le risorse economiche e le competenze ” Workshop CCR INFN GRID 2011.
1 ALICE I ITER2 DI ALICE IN ITALIA Bologna, 6 marzo 2007 M. Masera
19/4/2013 D. Menasce, M. Serra - Referaggio Progetti INFRA e WLCG 1.
International Research Networking ll progetto ASTRA per ricostruzione di strumenti musicali antichi con GRID su GEANT2 e EUMEDCONNECT Domenico Vicinanza.
P. Morettini. Organizzazione della CCR Le principali attività della CCR consistono da un lato nell’assegnazione di fondi per le infrastrutture di rete.
Silvia Arezzini 2 luglio 2014 Consiglio di Sezione per Preventivi.
Gruppo Server Commissione Calcolo e Reti 15 Marzo 2006.
Alessandro Tirel - Sezione di Trieste Storage servers & TCP Tuning Proposta di studio delle problematiche connesse alla fornitura di servizi di storage.
L’infrastruttura del progetto ReCaS Paolo Lo Re on behalf of ReCaS collaboration.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
HEPMARK2 Michele Michelotto.
Transcript della presentazione:

+ COSA (COmputing on Soc Architectures ) Michele Michelotto – INFN Padova

+ Motivazioni Il calcolo scientifico su larga scala si divide in modo un pò arbitratrio fra calcolo ad alte prestazioni (HPC) e calcolo ad alto thruoghtput (HTC); la differenza è tipicamente nel tipo del problema che si vuole affrontare 2

+ HPC Il calcolo scientifico su larga scala si divide in modo un pò arbitratrio fra calcolo ad alte prestazioni (HPC) e calcolo ad alto thruoghtput (HTC); la differenza [ tipicamente nel tipo del problema che si vuole affrontare Fare un singolo calcolo (semplifico) che necessita una potenza di calcolo enorme, e che un singolo processore non può portare a termine in tempi accettabili Lattice QCD Simulazioni gravitazionali Fluidodinamica HPC è usato per questo: si cerca di simulare un processore molto potente mettendone insieme tanti. Questa simulazione è tanto piu sensata quanto piu’ l’interazione dei processori simuli le funzioni di un unico processore (per esempio multicore) Il fattore più difficile da simulare sono la banda e la latenza fra i singoli core, e la mancanza di una memoria condivisa 3

+ HTC Le macchine “HTC” in pratica non esistono, sono tante macchine standard poco interconnesse, e messe in un unico posto (“PC farm, server farm”) I problemi HTC sono facilmente parallelizzabili (produzione MonteCarlo: task infinitamente divisibili, nessuna interazione fra i nodi di calcolo richiesti, simulazioni meccanica statistica) Il calcolo di LHC è eseguito su sistemi HTC: farm di calcolo che utilizzano componenti standard, estensibili in pratica all’infinito per l’assenza di correlezione fra i nodi 4

+ In entrambi i casi … Questo macchine costano (HTC < HPC), ma non è questo il punto Queste macchine hanno un alto costo di esercizio (TCO) Esempio di un tipico nodo di calcolo HTC ~1000 HS06 (è un’unità di misura di potenza di calcolo, come tante altre, nata da un gruppo di lavoro in HEPiX) ~10000 Euro Vita media 3-4 anni ~ 1kW di consumo ~0.5 kW di costo aggiuntivo per raffreddarla 5

+ Esempio: un nodo di calcolo LHC standard da gara kEur costo di procurement 9 kEur costo di esercizio (1 W*y = Eur) Nel caso dei Tier2 e del Tier1 di LHC, ospitati in una struttura che costa > 1 MEur (soprattutto per i costi dell’infrastruttura di raffreddamento) L’nfrastruttura non è una tantum: va mantenuta e cambiata

+ Unità di misura varie In generale un computer che consuma meno costa meno come costi di esercizio Sia come costo diretto (per tenerlo acceso) Sia come costo indiretto (per raffreddarlo) Sia perché l’infrastruttura costa meno Unità tipiche che misurano la “potenza di calcolo” sono Si2k, HS06, Sf2k, Flops Però dal punto di vista del budget quello che conta davvero è HS06/Eur (per esempio), o limitandosi al consumo elettrico HS06/W In un’ottica più da fisico, un processore che simula 1 evento in 5 min consumando 1 W, è meglio di uno che simula lo stesso evento in 1 min consumando 100 W Events/sec/W

+ (nota: un problema EU e soprattutto IT) Il problema del consumo elettrico è prettamente nostro Italia fino a 2x più cara del resto d’Europa Italia fino a 3x più cara di USA

+ Italia +60% rispetto alla Francia Italia +15% rispetto alla media Europea 9

+ La seconda faccia del problema Per ora ho parlato del problema elettrico, ora passiamo al problema tecnologico Sono finiti i tempi in cui il supercalcolo si progettava le sue CPU Per essere competitivi dal punto di vista del costo (HS06/Eur), è necessario essere sulla cosiddetta “commodity wave”, cioè utilizzare le componenti che Siano prodotte in maggiore quantità, e quindi con minori costi industriali Siano soggetti a maggiore concorrenza Sian in fase espansiva (non un mercato morente)

+

+ Shipment ARM: architettura dominante telefoni e tablet X86: architettura dominante PC Miliardi! 12

+ HEP! 13

+ ARM, ma non solo Le architetture emergenti portatili riescono a avere un basso consumo tipicamente utilizzando soluzioni System On a Chip (SoC) Un solo chip =

+ Ok, ma che ci facciamo? NON stiamo chiaramente pensando a comperare 1000 iPhones e usarli per fare lattice QCD Vogliamo usare queste CPU in configurazione standard (rack di computer in centri di calcolo attrezzati), in ambiente Linux, sia in configurazione HTC che HPC Domanda: si possono fare cose serie con queste CPU? Assolutamente si’!

+ Esiste anche qualcosa di ingegnerizzato … Boston Viridis Boston Viridis, DELL Copper, HP MoonShot In 2U: 48 SoC ARMv7(1.4 GHz) 4-core, each with 4 GB RAM 8x10Gbit/s internal networking; 24x DISK slots Under 300W under load ~ 20kEuro (?) Costo ancora troppo alto per noi A cluster in a single box..

+ Tests di CMS (Pisa + Princeton + CERN) Porting completo dell’ambiente operativo di CMS Simulazione, ricostruzione, analisi Come si fa? Meno complicato del previsto: Il SW di CMS è solo open source: ci sono i sorgenti, basta ricompilare (beh, non così facile) Su questi sistemi è presente un ambiente Linux completo, con lo stesso compilatore usato su sistemi x86 Cosa ci si aspetta da queste CPU? Che vadano più piano (Events/sec per esempio) Che siano però migliori se la metrica è Events/sec/W

+ Risultati dal paper CHEP ARM più lento di un fattore 3-4 in assoluto ARM migliore di un fattore 3-5 relativamente alla potenza usata

+ SoC per HPC? Di nuovo ci salvano i videogiochi. La tendenza dell’ultimo paio di anni è affiancare alle CPU delle GPU sempre più potenti Queste sono niente altro che le stesse GPU dei desktop, ma di nuovo nella versione a basso consumo E necessariamente a basso costo: il CHIP in un cellulare non può costare in tutto piu’ di qualche decina di $ Consumo: ~ 50 volte meno delle schede desktop Potenza (Gflops) ~ 5-10 volte meno Costo: sono sullo stesso silicio delle CPU (è un SoC, per cui ce le hai anche se non le vuoi)

+ Linee di sviluppo per COSA 1. Calcolo HPC 1. Test di architetture per macchine future basate su SoC 2. Sviluppo di interconnessioni specifiche (alla “APE”) per sistemi di questo tipo 2. Calcolo HTC 1. Test di architetture e di possibile utilizzo di questo tipo di calcolo per (una frazione) di centri di calcolo INFN Risparmio annuale di corrente elettrica facilmente stimabile in Meur/anno 2. Preparazione di un cluster da far utilizzare agli esperimenti come testbed 3. Applicazioni 1. Formare una knowledge base INFN sul porting di applicazioni HPC/HTC ai processori SoC 2. Aiutare gli esperienti interessati al porting e al testing delle loro applicazioni

+ Altro possibile utilizzo In COSA potrebbe entrare X-Ray Tomography (UniBo e CH-NET – discussioni in corso), che realizza sistemi portatili di X-ray e TAC per beni culturali. Attualmente si dispone di sistemi portatili per l’acquisizione immagini (difficile spostare una tempio romano in un laboratorio INFN), ma tutta la fase di post processing e di CAD avviene in un momento successivo, per l’impossibilità di avere potenza di calcolo in loco.X-Ray Tomography Tali sistemi sono usati in medicina, nei beni culturali nell'industria. In particolare sono stati sviluppati strumenti tomografici per l'analisi di grandi oggetti, anche trasportabili, e per la microtomografia ad alta risoluzione. Nel progetto ci si occuperà in una prima fase del porting degli algoritmi computazionalmente più complessi su GPU low power. CT analysis of an Ancient Greek Bronze Head

+ WPs WP1: Coordinamento (Cesini/CNAF) WP2: Technology tracking & benchmarking (Michelotto/PD) WP3: Implementazione del prototipo (Lonardo/Roma1 per HPC, Ferraro/CNAF per HTC) WP4: Application Porting (Schifano/FE area teorica, Boccali/PI are Esperimenti) WP5: Technology Transfer and dissemination (Morandin/PD, Maron/CNAF)

+ Sedi /WP – Molto preliminare A PD: Prosegue l’attività di HEPMARK e HEPMARK2 Benchmark per rimpiazzare HS06 Studio delle nuove architetture SoC affiancate a quelle tradizionale x86 Misure di consumi con Fluke Data Logger Dissemination

+ Altri progetti analoghi (ma di respiro molto piu’ lungo)

+ Altra prospettiva H2020 ha una linea specifica su low power computing: la call LEIT-ICT4 del programma Horizon 2020 potrebbe essere il giusto framework per finanziare la seconda fase del progetto COSA nella creazione di un cluster SoC di produzione basato sul know-how ed esperienza acquisiti nella prima fase. La ICT4 è divisa in tre action: Research&Innovation Actions (37 €), Stimulate broad adoption Actions (17 €), Support Actions (3 M€). La nostra proposta potrebbe essere inserita tra le Research&Innovation Actions in particolare nel topic “Integration of HW&SW components” per la creazione di prototipi funzionanti di server low-power per datacenter (la call fa riferimento alla parola "datacentre-in-a-box"). Questo topic prevede proposte finanziate da 5 a 8M€. Un altro topic di interesse è quello dal titolo “Stimulate broad adoption” che ha l’obiettivo di creare una architettura di riferimento per sistemi eterogenei low-power in grado di fornire unzionalità di tipo high performance.

+ Continuazione di COKA....

+ Applicazioni COKA...

+ HEPMARK2 HEPMARK2 in CSN5 nel 2012 e 2013 ed esteso al 2014 in accordo con i referees HEPMARK2 continua le misure e le attività di technology tracking dei processori per Worker Node di calcolo per esperimenti HEP iniziate nella sigla HEPMARK Collaborazione con il gruppo nella comunità HEPiX dove ci sono altri facilities di questo tipo (RAL, CERN, GridKA FZK) Collaborazione con esp. COKA Studio delle prestazioni relative ai consumi HS06 per watt, su architetture ATOM Intel o equivalenti AMD Studio delle prestazioni su architetture non x86 come per esempio ARM

+ Quad core ARM Cortex A9 29 Ultra compact size with full metal enclosure Quad core ARM Cortex-A9 MPCore 10/100Mbps Ethernet with RJ-45 LAN Jack 2 x High speed USB2.0 Host port Android 4.x & Ubuntu $ or for 233$ the full kit HepSpec06 ARMv8/64 bit in 2014