A GRID approach for Gravitational Waves Signal Analysis with a Multi- Standard Farm Prototype CHEP 2004 27 September Dr. Silvio Pardi Università degli.

Slides:



Advertisements
Presentazioni simili
Introduzione al prototipo Grid-SCoPE
Advertisements

ISA Server 2004 Enterprise Edition Preview. ISA Server 2004.
Cluster openMosix Linux Day ’04 Caserta Ing. Diego Bovenzi.
Distributed Object Computing
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
Proposta di integrazione e consolidamento delle risorse presenti nellinfrastruttura Grid dellItalia Meridionale (L. Merola, )
Remote file access sulla grid e metodi di interconnesione di rete M. Donatelli, A.Ghiselli e G.Mirabelli Infn-Grid network 24 maggio 2001.
1 Riunione del 29 Marzo 2007 IL PROGETTO SCoPE Prof. Guido Russo I lavori Le apparecchiature Il portale.
IDUL 2010 RETI E PROTOCOLLI. INTERNET.. IDEE PRINCIPALI IN QUESTA LEZIONE Reti: Aspetto logico della rete e tipologie: peer-to-peer, a hub, a bus Trasmissione.
IDUL 2012 RETI E PROTOCOLLI. INTERNET.. IDEE PRINCIPALI IN QUESTA LEZIONE Reti: Aspetto logico della rete e tipologie: peer-to-peer, a hub, a bus Trasmissione.
IDUL 2009 RETI E PROTOCOLLI. INTERNET. IDEE PRINCIPALI IN QUESTA LEZIONE Reti: Aspetto logico della rete e tipologie: peer-to-peer, a hub, a bus Trasmissione.
Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
Riunione CRESCO Infrastruttura HPC Cresco Analisi Preliminare.
COLT Enterprise Cloud Dionigi Faccenda La visione di COLT.
Polo SBN della Sapienza e della Regione Lazio tra passato, presente e futuro: uno sguardo alla tecnologia Ugo Contino SBN 2004 Vecchio.
Supercalcolo al CILEA: risorse e opportunità CAPI /11/2005 Dr. Claudio Arlandini, PhD HPC System Administrator.
Workshop CNAF – Bologna 8 Luglio 2011 FARO Accesso Web a risorse e servizi remoti in ambiente Grid/Cloud A. Rocchi, C. Sciò, G. Bracco, S. Migliori, F.
La facility nazionale Egrid: stato dell'arte Egrid-Team Trieste, 9 ottobre 2004.
Michele Michelotto INFN-Padova
Il Tutorial INFN-GRID/EDG di Torino Testbed INFN-GRID.
TASK 2: Ftp Partecipanti A. Chierici INFN-CNAF T. Ferrari A. Forte INFN-TO L. Gaido S. Lusso P. Mastroserio INFN-NA G. Tortone Coordinatori A. Forte, G.
Execution benchmarks Obiettivi Test dettagliati e ben caratterizzati Esecuzione di benchmark standard Test di applicazioni dell'esperimento ALICE 20 Novembre.
1 M. Biasotto – Legnaro, 22 Dicembre 2005 Prototipo Tier 2 di Legnaro-Padova INFN Legnaro.
Corso di Informatica per Giurisprudenza Lezione 7
Case study Maiora srl.
Benvenuti a Un incontro informativo di grande valore ed alto contenuto sulla Virtualizzazione e sistemi ad alta disponibiltà per le PMI.
Università degli Studi di Cagliari Corso di Laurea in Informatica PROGETTAZIONE DI UN DATA CENTER ANNO ACCADEMICO Docente di riferimento Candidato.
La rete di istituto Maninder Bansal 5Bz Vital Ivo 5Bz Anno scolastico 2005/06.
U N INFRASTRUTTURA DI SUPPORTO PER SERVIZI DI FILE HOSTING Matteo Corvaro Matricola Corso di Reti di Calcolatori LS – Prof. A. Corradi A.A.
Progettazione ed implementazione di un sistema di calcolo distribuito ibrido multithread/multiprocesso per HPC: applicazione allimaging medico Presentata.
Servizi Grid ed agenti mobili : un ambiente di sviluppo e delivering
TANGO - WP4 - Milano - 27 Febbraio 2003 Progetto TANGO Attività WP 4 Test Bed Sperimentali Milano - 27 Febbraio 2003.
Reti di calcolatori LS Manni Tiziano  IT e nuovi scenari applicativi …  … portabilità dei dati …  … condivisione dati …  … disponibilità.
Il supercalcolo fai-da-te
Dischi in RAID  Redundant Array of Independent Disk Configurazione che permette di combinare più dischi secondo obiettivi di performance e ridondanza.
FESR Consorzio COMETA Pier Paolo CORSO Giuseppe CASTGLIA Marco CIPOLLA Industry Day Catania, 30 Giugno 2011 Commercial applications.
Analysis unibo una proposta. Work flow di una tipica analisi 1.Simulazione di piccoli campioni di eventi per studio segnale 2.Generazione in grande.
Servizio Sistema Informativo - Area Gestione Sistemi e Sicurezza – LNF – Dael Maselli Area Gestione Sistemi e Sicurezza LNF Plenaria Servizio Sistema Informativo.
Extreme Cluster Administration Toolkit Alberto Crescente, INFN Sez. Padova.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
Benvenuti al Un incontro informativo di grande valore ed alto contenuto sulla Virtualizzazione e sistemi ad alta disponibiltà per le PMI.
IDUL 2013 RETI E PROTOCOLLI. INTERNET.. IDEE PRINCIPALI IN QUESTA LEZIONE Reti: Aspetto ‘logico’ della rete e tipologie: peer-to-peer, a hub, a bus Trasmissione.
Attivita' Grid in BaBar Workshop sulle Problematiche di Calcolo e Reti nell'INFN Maggio 2004.
MCSA Mobile Code System Architecture Infrastruttura a supporto della code mobility Pierfrancesco Felicioni Reti di Calcolatori L.S. 2005/2006.
A. Murli - Progetto SCoPE. Middleware applicativo - 29 marzo Riunione del 29 Marzo 2007 IL PROGETTO SCoPE Almerico Murli Middleware Applicativo.
1 Migrazione dei processi: Mosix. 2 Cosa è Mosix/OpenMOSIX ? OpenMOSIX è un è una patch del kernel di Linux che aggiunge funzionalit à avanzate di clustering.
Layered Grid Architecture. Application Fabric “Controlling elements locally”: Access to, & control of, resources Connectivity “Talking to Grid elements”:
La Farm di Atlas a Roma 1 Outline Architettura della farm Architettura della farm Installazione Installazione Monitoring Monitoring Conclusioni Conclusioni.
OpenMOSIX: High performance Linux farm Rosario Esposito INFN-Napoli.
Report HEPiX Spring meeting 2002 Workshop sulle problematiche di calcolo e reti nell'INFN 6-9 Maggio 2002 La Biodola - Isola d'Elba Silvia Arezzini.
Condor III Workshop sul Calcolo INFN F. Semeria INFN Bologna Cagliari
La Farm di Alice a Torino Workshop sulle problematiche di calcolo e reti Isola d’Elba 6-9 maggio 2002 Mario Sitta (Università del Piemonte Orientale e.
LNL CMS M.Biasotto, Bologna, 28 maggio Upgrade farm a RH-7.3  Due anni fa la farm era stata installata usando una versione customizzata di ANIS.
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
Accesso a ShareGrid mediante VPN ing. Sergio Rabellino Dipartimento di Informatica Università degli Studi di Torino.
Licensed under Creative Commons Attribution 3.0 License / ShareGrid Idee per prospettive future
Ing. Giovanni B. Barone Convegno PON RECAS - Napoli, 16 dicembre 2014 ReCaS Napoli.
Alessandro Venturini* e Stefano Ottani ISOF – CNR Area della Ricerca di Bologna.
Corso linux RiminiLUG presenta Rete a bassissimo budget per il piccolo ufficio architettura di rete LTSP in contesti professionali corso linux 2008.
Gaetano Maron, Presentazione T2 LNL-Padova, Legnaro 22 dicembre Il Servizio Tecnologie Informatiche ed Elettroniche dei LNL Gaetano Maron.
Roberto Covati INFN di Parma. Workshop CCR/INFN GRID Palau maggio Sommario VmWare Server (in produzione dal 2004 al 2008) VmWare Infrastructure.
Implementazioni di un analizzatore di protocollo Esistono quattro fondamentali tradeoff per la realizzazione di un analizzatore di protocollo:  Analisi.
Roberto Covati – Roberto Alfieri INFN di Parma. Incontri di lavoro CCR dicembre Sommario VmWare Server (in produzione dal 2004) VmWare ESX.
Riunione PRIN STOA - Bologna - 18 Giugno 2014 Testbed del T2 distribuito Napoli-Roma Dr. Silvio Pardi INFN-Napoli Riunione PRIN STOA – Bologna 18 Giugno.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
Overview del middleware gLite Guido Cuscela INFN-Bari II Corso di formazione INFN su aspetti pratici dell'integrazione.
Attività e servizi di calcolo a Roma Tor Vergata R. Kwatera, R. Lulli, R. Sparvoli Roma Tor Vergata.
Sistema di Monitoraggio Integrato Paolo Mastroserio, Gennaro Tortone, Silvio Pardi Presenta per il gruppo Silvio Pardi.
Alessandro Tirel - Sezione di Trieste Storage servers & TCP Tuning Proposta di studio delle problematiche connesse alla fornitura di servizi di storage.
Engineering Faculty University of Messina, Italy Marco Scarpa
Transcript della presentazione:

A GRID approach for Gravitational Waves Signal Analysis with a Multi- Standard Farm Prototype CHEP September Dr. Silvio Pardi Università degli Studi di Napoli “Federico II” CHEP September Dr. Silvio Pardi Università degli Studi di Napoli “Federico II”

Overview The detection of gravitational waves (GW) is one of the most interesting fields of the modern physics: it will provide a strong proof of the general relativity theory, opening in this way a completely new channel of information on the dynamics and evolution of astrophysical objects. Dr. Silvio Pardi – CHEP 2004 – Interlake Switzerland

The Virgo Experiment Dr. Silvio Pardi – CHEP 2004 – Interlake Switzerland FOCUS Analyses of Data coming from interferometric gravitational wave detector signals coming from coalescing binaries signals coming from neutron stars signals coming from coalescing binaries signals coming from neutron stars

The Virgo Experiment Dr. Silvio Pardi – CHEP 2004 – Interlake Switzerland Computational cost for Matched filter on VIRGO’s data ~300 Gflops for CB ~1 Tflops for NS we need High Performance Computing Computational cost for Matched filter on VIRGO’s data ~300 Gflops for CB ~1 Tflops for NS we need High Performance Computing

Technologies Dr. Silvio Pardi – CHEP 2004 – Interlake Switzerland FOCUS Hardware & Software Technologies Available Bewulf Cluster & Parallel computation GRID COMPUTING Bewulf Cluster & Parallel computation GRID COMPUTING

The Virgo Lab of Napoli Dr. Silvio Pardi – CHEP 2004 – Interlake Switzerland SWITCH GIGABIT SWITCH FAST ETHERNET PC SUPERMICRO PENTIM III PC APPRO XEON

Hardware 20 Node Dual Processor 12 with Pentium III 1 Gz 8 With Xeon 2.4 Gz –RAM (512 Mb) 20 Node Dual Processor 12 with Pentium III 1 Gz 8 With Xeon 2.4 Gz –RAM (512 Mb) Dr. Silvio Pardi – CHEP 2004 – Interlake Switzerland Network – –Fast Ethernet (100 Mbps) – –Gigabit Ethernet (1Gbps) Network – –Fast Ethernet (100 Mbps) – –Gigabit Ethernet (1Gbps) High Troughtput

Linux Farm Operativing system Linux RedHat Distribution S.O. stable library of parallel calculation available Free S.O. stable library of parallel calculation available Free Dr. Silvio Pardi – CHEP 2004 – Interlake Switzerland

Linux Farm Every node can work in two possible configuration: Local Cluster (MPI & OpenMosix) GRID (Testbed of GRID-it) Local Cluster (MPI & OpenMosix) GRID (Testbed of GRID-it) Dr. Silvio Pardi – CHEP 2004 – Interlake Switzerland

Diskless Cluster Advantages of a diskless cluster Easy Management Single File system Low costs (Beowulf) Easy Management Single File system Low costs (Beowulf) Dr. Silvio Pardi – CHEP 2004 – Interlake Switzerland

GRID ARCHITECTURE Dr. Silvio Pardi – CHEP 2004 – Interlake Switzerland USER INTERFACE STORAGE ELEMENT USER FARM COMPUTING ELEMENT GRI D vovo

Dr. Silvio Pardi – CHEP 2004 – Interlake Switzerland MASTER NODE1 NODE2 … … … NODE10 NODE11 APPRO MASTER APPRO NODE 1 … … APPRO NODE 7 SWITCH FASTETHERNET 10/100 SWITCH 10/100 UP LINK SERVER ALPHA SWITCH GIGABYTE PUB CE UI SE LCFG ng

GRID Configuration MASTER NODE1 … … NODE10 NODE11 APPRO MASTER APPRO NODE1 … APPRO NODE7 LCFG ng SERVER DHCP DHCP REQUEST IP ADDRESS + LOCAL BOOT … Dr. Silvio Pardi – CHEP 2004 – Interlake Switzerland

MASTER NODE1 … … NODE11 APP MASTER APP NODE1 … APPNODE7 LCFG ng SERVER DHCP DHCP REQUEST IP ADDRESS + NEXT SERVER MASTER … TFTP REQUEST KERNEL Local Cluster Configuration Dr. Silvio Pardi – CHEP 2004 – Interlake Switzerland

Cosa hanno in comune? Prof. Guido Russo - FOCUS ON RESEARCH 2003

Conclusion Dr. Silvio Pardi – CHEP 2004 – Interlake Switzerland This double configuration of the cluster’s node :GRID and Local FARM, allow to a laboratory with limited resources to participate to the GRID plans limited resources to participate to the GRID plans without to renounce to a local farm when without to renounce to a local farm when is necessary. is necessary. This double configuration of the cluster’s node :GRID and Local FARM, allow to a laboratory with limited resources to participate to the GRID plans limited resources to participate to the GRID plans without to renounce to a local farm when without to renounce to a local farm when is necessary. is necessary.

THE END

Esigenze principali Elevata potenza di calcolo Velocità di esecuzione Disponibilita’ di risorse Costi Ridotti Elevata potenza di calcolo Velocità di esecuzione Disponibilita’ di risorse Costi Ridotti Prof. Guido Russo - FOCUS ON RESEARCH 2003 COME FARE?

Paradigma di risoluzione GRID CAMPUS GRID BEOWULF CALCOLO PARALLELO GRID CAMPUS GRID BEOWULF CALCOLO PARALLELO Prof. Guido Russo - FOCUS ON RESEARCH 2003 Livelli stratificati che poggiano l’uno sull’altro Livelli stratificati che poggiano l’uno sull’altro GRID Beowulf Calcolo parallelo Campus GRID

Cos’e’ GRID Prof. Guido Russo - FOCUS ON RESEARCH 2003 Middleware per la gestione delle risorse di calcolo distribuite sul territorio. GRID

Perche’ GRID? La rete GRID, condividendo risorse dislocate, permette di ottenere una potenza di calcolo che difficilmente puo’ essere concentrata in un unico laboratorio Prof. Guido Russo - FOCUS ON RESEARCH 2003 Disponibilita’ di risorse Modularita’ Scalabilita’ Disponibilita’ di risorse Modularita’ Scalabilita’ Vantaggi

I servizi GRID Prof. Guido Russo - FOCUS ON RESEARCH 2003 Distributed Computing On-Demand Computing Data-Intensive Computing Collabborative Computing Distributed Computing On-Demand Computing Data-Intensive Computing Collabborative Computing Una struttra tipo GRID fornisce servizi indispensabili per la ricerca.

Osservazione Prof. Guido Russo - FOCUS ON RESEARCH 2003 Per ottenere prestazioni migliori con GRID occorrono line veloci e alta disponibilita’ di risorse

Problema Ci sono un Chimico un Fisico e un Matematico in un campus Prof. Guido Russo - FOCUS ON RESEARCH 2003 Come fanno a condividere le proprie risorse di calcolo? Zermelo Einstein Mendeleev Domanda

Campus GRID Prof. Guido Russo - FOCUS ON RESEARCH 2003 I D E A! Una rete GRID di CAMPUS ovvero: Una Virtual Organization tra Dipartimenti

Campus GRID Prof. Guido Russo - FOCUS ON RESEARCH 2003 Reti Veloci Interdisciplinarieta’ Test e sviluppo GRID Reti Veloci Interdisciplinarieta’ Test e sviluppo GRID QUALI SONO I VANTAGGI?

Campus GRID Prof. Guido Russo - FOCUS ON RESEARCH 2003 CDS Dip di Chimica Dip di Fisica Dip di Matematica INFN CDS Dip di Chimica Dip di Fisica Dip di Matematica INFN PARTECIPANTI

Campus GRID Prof. Guido Russo - FOCUS ON RESEARCH 2003 Cablaggio Stellare Dorsale in Fibra ottica monomodale Cablaggio Stellare Dorsale in Fibra ottica monomodale Specifiche della Rete Matematica CDS Chimica Fisica INFN Banda 1 Gbit Banda 1 Gbit

Piantina del Campus Prof. Guido Russo - FOCUS ON RESEARCH 2003 CDS Dip di Chimica Dip di Fisica /INFN Dip di Matematica Fibra ottica CDS Dip di Chimica Dip di Fisica /INFN Dip di Matematica Fibra ottica Campus Grid Di Monte Sant’Angelo Campus Grid Di Monte Sant’Angelo

Campus GRID Prof. Guido Russo - FOCUS ON RESEARCH 2003 User Interface macchina a cui collegarsi per mandare i job sulla GRID Information Index servizio che contiene le informazioni sulle risorse della GRID Resource Broker macchina che distribuisce e monitorizza i job sulle risorse disponibili sulla base delle informazioni ricevute dal Information Index Monitoring e Support macchina che monitorizza la funzionalita’ dei nodi e notifica eventuali anomalie User Interface macchina a cui collegarsi per mandare i job sulla GRID Information Index servizio che contiene le informazioni sulle risorse della GRID Resource Broker macchina che distribuisce e monitorizza i job sulle risorse disponibili sulla base delle informazioni ricevute dal Information Index Monitoring e Support macchina che monitorizza la funzionalita’ dei nodi e notifica eventuali anomalie Macchine e servizzi

Campus GRID Prof. Guido Russo - FOCUS ON RESEARCH 2003 Richiesta sottomissioni job User Interface Resource Broker Monitor & Suppot Information Index User Farm CICLO DI VITA DI UN JOB SOTTOMESSO SULLA GRID

Risorse de Campus GRID Prof. Guido Russo - FOCUS ON RESEARCH 2003 Cosa c’e’ sotto la sovrastruttura di Campus GRID? Macchine SMP Molto veloci ma limitatamente scalabili Cluster BEOWULF La soluzione migliore? Macchine SMP Molto veloci ma limitatamente scalabili Cluster BEOWULF La soluzione migliore?

Cluster Beowulf Cluster di PC costituito con materiale facilmente reperibile sul mercato. Prof. Guido Russo - FOCUS ON RESEARCH 2003 Bassi costi di implementazione Alte prestazioni Versatilita’ Scalabilita’ Bassi costi di implementazione Alte prestazioni Versatilita’ Scalabilita’ QUALITA’ PRINCIPALI

Network nei Beowulf Prof. Guido Russo - FOCUS ON RESEARCH 2003 Nei cluster Beowulf si prediligono schede di rete performati ma di basso costo Fast Ethernet Gigabit Ethernet Fast Ethernet Gigabit Ethernet High Troughtput

Problema Prof. Guido Russo - FOCUS ON RESEARCH 2003 Il TCP/IP satura il 90% della banda teorica

Problema Prof. Guido Russo - FOCUS ON RESEARCH 2003 Come si fanno a configurare ed amministrare semplicemente i nodi di un cluster? IDEA!

Tecnologie di Calcolo Parallelo Obiettivo: Bilanciamento del carico di lavoro sui nodi. Prof. Guido Russo - FOCUS ON RESEARCH 2003 Distribuzione statica dei processi con MPI Bilanciamento dinamico del carico dei nodi con OpenMosix Distribuzione statica dei processi con MPI Bilanciamento dinamico del carico dei nodi con OpenMosix PRINCIPALI TECNICHE

Open Mosix per Beowulf Open Mosix e’ un estensione del kernel di linux che permette di far migrare in maniera trasparente i processi sui nodi disponibili per garantire un dinamico Load-Balancing Prof. Guido Russo - FOCUS ON RESEARCH 2003

Conclusioni Beowulf Prof. Guido Russo - FOCUS ON RESEARCH 2003 BEOWULF OPENMOSIX DISKLESS S.S.I. (Single System Image) TIRANDO LE SOMME S.S.I.

Requisiti richiesti Prof. Guido Russo - FOCUS ON RESEARCH 2003 Le tecniche utilizzate per l’estrazione del segnale gravitazionale dal fondo di rumore strumentale richiedono 300 Gflops per le Binarie Coalescenti 300 Gflops per le Binarie Coalescenti 1 Tflop per Stelle di Neutroni 1 Tflop per Stelle di Neutroni 300 Gflops per le Binarie Coalescenti 300 Gflops per le Binarie Coalescenti 1 Tflop per Stelle di Neutroni 1 Tflop per Stelle di Neutroni Necessarie archietture di calcolo Parallelo Necessarie archietture di calcolo Parallelo

Virgo & GRID Prof. Guido Russo - FOCUS ON RESEARCH 2003 Per frontegiare un tale costo computazionale il lab Virgo di Napoli si avvale di Cluster Beowulf locale (cluster diskless di pc) Cluster Beowulf locale (cluster diskless di pc) GRID (il Virgo partecipa al testbed di EDG) GRID (il Virgo partecipa al testbed di EDG) Cluster Beowulf locale (cluster diskless di pc) Cluster Beowulf locale (cluster diskless di pc) GRID (il Virgo partecipa al testbed di EDG) GRID (il Virgo partecipa al testbed di EDG)

Multistandard Farm Prof. Guido Russo - FOCUS ON RESEARCH 2003 Il Beowulf di Virgo e’ un esempio di Multistandard Farm capace di lavorare su Grid ed In locale con MPI o OpenMosix. CARATTERISTICHE Alte prestazioni Flessibilita’ Alte prestazioni Flessibilita’

Campus GRID Prof. Guido Russo - FOCUS ON RESEARCH 2003 Il cluster di Virgo e’ un esempio di risorsa utilizabile nella rete di campus COS’E’ LA SINERGIA?

Campus GRID & Beowulf Prof. Guido Russo - FOCUS ON RESEARCH 2003 E’ integrazione di varie attività produttive e organizzative allo scopo di raggiungere una maggiore efficienza e risultati più vantaggiosi == CAMPUS GRID

Prof. Guido Russo - FOCUS ON RESEARCH 2003 FINEFINE