GNU/Linux (e il software libero) nella fisica delle particelle elementari Roberto Ferrari Parma GLUG GNU/Linux Day 2011 22 ottobre 2011.

Slides:



Advertisements
Presentazioni simili
Cluster openMosix Linux Day ’04 Caserta Ing. Diego Bovenzi.
Advertisements

Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
Riunione CRESCO Infrastruttura HPC Cresco Analisi Preliminare.
Supercalcolo al CILEA: risorse e opportunità CAPI /11/2005 Dr. Claudio Arlandini, PhD HPC System Administrator.
Grid Computing Sergio Andreozzi (INFN-CNAF). A chi interessano i dati prodotti da LHC? Circa 5,000 scienziati –sparsi nel mondo –appartenenti ad istituzioni/università
Grid Computing Sergio Andreozzi. Chi è interessato ad analizzare i dati generati da LHC? Circa 5,000 scienziati –distribuiti nel mondo –appartenenti ad.
Linux e la ricerca scientifica Roberto Ferrari Parma LUG Linux Day ottobre 2009.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
Report HEPiX Spring meeting 2002 Workshop sulle problematiche di calcolo e reti nell'INFN 6-9 Maggio 2002 La Biodola - Isola d'Elba Silvia Arezzini.
Il CERN Km di circonferenza 90m di profondità Collisioni p+p a 7+7 TeV 2.
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
Virtualizzazione nell’INFN Andrea Chierici 11 Dicembre 2008.
Aggiornamento attività gruppo Windows Gian Piero Siroli, Dip. di Fisica, Univ. di Bologna e INFN CCR, Giugno 2009.
CCR, LNF ott 2011 Proposte assegnazioni server & storage L. Carbone, A. Gianoli, M. Serra.
Progetto CyberSAR Prof. Giuseppe Mazzarella Cons. COSMOLAB & Univ. Cagliari Catania 13/12/05 Cagliari 20/07/05.
Aggiornamento attivita’ gruppo Windows Gian Piero Siroli, Dip. di Fisica, Università di Bologna e INFN CCR, ottobre 2007.
Sistema Informativo. Mansioni Gestione della piattaforma hardware e sistemistica del sistema informativo INFN In realta’ il mansionario e’ in continua.
FESR Catania, Trigrid Open Day, Trinacria Grid Virtual Laboratory PROGETTO “ISOSPIN” Supporters : AnnaMaria Muoio, Marcello IaconoManno.
Istituto Nazionale di Fisica Nucleare Gruppo Collegato di Cosenza UNIVERSITÀ DELLA CALABRIA Dipartimento di Fisica BENVENUTI alle INTERNATIONAL MASTERCLASSES.
+ Call di Big Data (EINFRA- 1). + La call … + + Cosa abbiamo in mano (come INFN) 1. L’infrastruttura 1 Tier Tier2 O(25000) cores O(20) PB di Disco.
Linux e la ricerca scientifica Roberto Ferrari Parma LUG Linux Day ottobre 2010.
D. Talia - UNICAL 1. 1 Sistemi Operativi Domenico Talia Facoltà di Ingegneria Università della Calabria.
Corso di Alta formazione in TL&OS Modulo 1.3 Reti e Servizi - lezione 1 Modulo 1.3 Reti e servizi 1. Introduzione al Networking Connettere il PC in rete;
Il calcolo per l’esperimento GERDA: prospettive per la Fase II Luciano Pandola INFN, Laboratori del Gran Sasso e Laboratori del Sud Workshop della CCR,
Smart HMS: Smart Health Management System
Dip. di Fisica & INFN - Univ. Del Salento
Infrastruttura cloud servizi realizzata nella Sezione di Napoli
Riccardo Veraldi - Massimo Donatelli CCR 3-4 Marzo 2008
Online U. Marconi Bologna, 5/9/2016.
Summary di (quasi) tutti gli utenti non presentati…
!CHAOS: un prototipo nazionale di infrastruttura open source per il controllo di sistemi distribuiti. 101° Congresso Nazionale della Societa' Italiana.
EU-IndiaGrid Project Joining European and Indian grids for escience
Comput-ER l'infrastruttura di calcolo distribuito in Emilia Romagna
Centro di Ricerche Genomiche Università di Modena e Reggio Emila
G. Carlino, D. Lucchesi, V. Vagnoni
Richieste di upgrade dei link di accesso alla rete Geografica
Collegamento a Garr-X Il collegamento alla nuova rete Garr-X dovrà garantire il massimo della efficienza nella gestione della banda. Per identificare opportunamente.
Microcontrollori e microprocessori
Attivita’ e compiti del Servizio Impianti Calcolo e Reti
Halina Bilokon Vitaliano Chiarella Simonetta Gentile
PRIN Roma1 – status Luciano Barone, Alessandro De Salvo
Pisa.
Introduzione alla sessione sull’analisi per gli esperimenti LHC
Lamberto Luminari CSN Maggio 2005
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
Analisi dei dati dell’Esperimento ALICE
Attvità Computing – Inverno 08/09
INFN-TS INFN - Sezione di Trieste - C. Strizzolo - L. Strizzolo.
MC-INFN.
INAF – Osservatorio Astrofisico di Catania
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
* Il Sistema Operativo GNU/Linux * Sistema Operativo e Applicazioni
Risultati del questionario sui servizi middleware aggiuntivi
Università degli Studi di Catania
PROGETTO “ISOSPIN” Supporters : AnnaMaria Muoio, Marcello IaconoManno
La richiesta si basa sulle seguenti considerazioni:
analizzatore di protocollo
Organizzazione di una rete Windows 2000
Marcello Iacono-Manno Catania, 6 maggio 2010
Il protocollo elettronico (e altri servizi informatici)
ATLAS LHC (Large Hadron Collider)
Ricerca di oscillazioni di neutrino
Job Management Systems ovvero
Riunione Nazionale dei Referenti 3Missione
Physics: Produzione risonante di ZV in ll+jets
Analisi automatica di immagini
Trasformazione digitale
Commissione Calcolo e Reti
CLOUD.
Transcript della presentazione:

GNU/Linux (e il software libero) nella fisica delle particelle elementari Roberto Ferrari Parma GLUG GNU/Linux Day ottobre 2011

Parma, 22 ottobre ACRONIMI: INFN: Istituto Nazionale di Fisica Nucleare CERN: European Organization for Nuclear Research

Parma, 22 ottobre Coordina e finanzia la ricerca in fisica nucleare e sub-nucleare in Italia sezione gruppo laboratorio l'INFN

Parma, 22 ottobre il CERN Laboratorio europeo per la fisica delle particelle

Parma, 22 ottobre dal CERN al Gran Sasso (INFN) punto medio ~ monte Maggiorasca (confine Parma-Piacenza-Genova) vicino a Bardi

Parma, 22 ottobre dove è nato il Web ? nel 2009 ha festeggiato i 20 anni

Parma, 22 ottobre LHC

Parma, 22 ottobre ATLAS: un microscopio alto 22 e lungo 46 m Barrel Toroid Muon DetectorsSolenoid ElectromagneticCalo rimeter End Cap Toroid Shielding Inner Detector Hadronic Calorimeter Forward Calorimeter

Parma, 22 ottobre ~ 3000 scienziati di 174 istituti da 38 paesi diversi più di 1000 studenti di dottorato!

Parma, 22 ottobre Dati 2011 ‏ ~ 400 eventi/s 1 evento ~ 1.5 MB -50% “zip” in volo ~ 1 TB/ora live time ~ 33% → ~3 PB/anno [ 4 miliardi di eventi ]

Parma, 22 ottobre il Calcolo in ATLAS/LHC - ONLINE: ‏ interattivo / real time (?) 1. selezione e acquisizione dati (DAQ) 2. trasferimento e storaggio - OFFLINE: ~ non interattivo (code batch) ‏ 3. ricostruzione eventi 4. analisi 5. simulazione

Parma, 22 ottobre Problematiche - ONLINE ‏ → efficienza, velocità, robustezza, stabilità, enormi flussi di dati, controllo strumentazione - OFFLINE → precisione, ripetibilità rete, storage, database, fogli elettronici, … versioning, documentazione … “event display”

Parma, 22 ottobre Real Time ? REAL TIME O.S. : massimo ritardo di risposta definito Il kernel “standard” UNIX non è real time: una chiamata di sistema può richiedere un tempo lungo a piacere...

Parma, 22 ottobre UNIX “Real-Time” Low-latency patch (Ubuntu Studio): linux kernel interrompibile RTAI: il kernel linux gira come una applicazione a priorità maggiore

Parma, 22 ottobre S.L.C. (x86) Scientific Linux: release creata e mantenuta da FermiLab e Cern (più altre università e laboratori nel mondo) Nata nel 2004 a Fermilab “Red Hat Enterprise Linux” ricompilata e integrata con pacchetti specifici: Scientific Linux Cern: sottovariante CERN

Parma, 22 ottobre ATLAS Selezione eventi “on-line” - Elettronica e computer dedicati - migliaia di processori in parallelo (hardware) ‏ - decine di migliaia di processi da controllare (software) ‏

Parma, 22 ottobre la Sala di Controllo i Rack

Parma, 22 ottobre SFO = Online Storage (cache) 6 macchine: 24 dischi 1 TB = 144 TB 2x4 core (16 “processori” ind.) 24 GB RAM

Parma, 22 ottobre fra la via Emilia e il West E4 Computer Engineering - Scandiano

Parma, 22 ottobre Software... Trasferimento, processamento, monitoraggio dati: C/C++ (protocolli di rete: UDP, TCP) ‏ GUI:Java / JS / Qt / Python (tk/tcl) ‏ Sistema Esperto: Common Lisp Inter Process Communication: CORBA Configurazioni/Calibrazioni/Allineamenti/Geometrie: file, OKS (xml), COOL, ORACLE, SQLITE, Python … largo uso di Proxy Documentazione, gestione problemi: WWW, Twiki, Savannah... Nagios (monitoraggio !), IPMI (controllo !)... Parole chiave: Macchine a Stati Finiti, Scalabilità, Partizionabilità, Configurabilità, Sicurezza

Parma, 22 ottobre Run Control Macchina a Stati Finiti

Parma, 22 ottobre Monitoraggio Online Information Service

Parma, 22 ottobre JavaScript + Web

Parma, 22 ottobre System Management

Parma, 22 ottobre Offline O(1 miliardo) di eventi all'anno da ricostruire e analizzare ~ Altrettanti da simulare STORAGE ~3 PB/anno CPU ~ 7000 kSi2k*anno

Parma, 22 ottobre Analisi Eventi Ambiente complesso … ogni livello richiede competenze specifiche: Dall'online arrivano informazioni “grezze” (numeri): → misure di tempi, cariche elettriche, tensioni Ricostruzione a più stadi (attività centralizzata): → informazioni fisiche (posizioni, velocità) ‏ → identificazione particelle, energia, quantità di moto Analisi fisica (attività caotica): → criteri di separazione fondo / segnale (selezione eventi) → analisi statistica

Parma, 22 ottobre Simulazione, Ricostruzione e Analisi Dati Attività distribuita verticalmente e orizzontalmente:: Tier-0 (CERN) → Tier-1 (grossi centri nazionali) → Tier-2 (centri regionali) → Tier-3 (istituti) Ampio uso della virtualizzazione Dati distribuiti con ridondanza (almeno due copie di ogni dataset) ‏ Cataloghi (database) per tenerne traccia Esecuzione delocalizzata: nuovo strato software (middleware) che indirizza gli eseguibili dove si trovano i dati, raccoglie e assembla i risultati la GRID

Parma, 22 ottobre la Griglia (GRID) ‏ WWW: accesso a informazione archiviata in diverse località geografiche GRID: accesso a risorse di calcolo e di archiviazione dati distribuite su tutto il pianeta Dati LHC equivalenti a ~20 milioni di CD (una pila alta 20 km) all’anno Per l'analisi necessari ~100mila dei più veloci processori odierni

Parma, 22 ottobre il Middleware un ulteriore livello di astrazione: connette applicazioni, componenti, sistemi, su scale regionali, nazionali, internazionali hardware → software → middleware permette di analizzare dati o eseguire applicazioni su macchine distribuite in tutta la rete

Parma, 22 ottobre Tier-1: CNAF (Bologna) unico per tutti gli esperimenti LHC (e non solo) ‏ Tier-2: ~10 (Roma, Legnaro, Torino, Napoli, Catania, CNAF, Pisa, Milano) ‏ Investimento (ad oggi) ~ 30 M Euro (incluse infrastrutture CNAF) ‏ + molti anni uomo di sviluppo sw (anche grazie a finanziamenti europei) ‏ Il Calcolo LHC in Italia

Parma, 22 ottobre Il Portale di Monitoring

Parma, 22 ottobre Italian Grid Infrastructure

Parma, 22 ottobre La GRID in casa BOINC : Open-source software for volunteer computing and grid computing.volunteer computinggrid computing Note: if your computer is equipped with a Graphics Processing Unit (GPU), you may be able to use it to compute faster.

Parma, 22 ottobre Il Valore Aggiunto della Collettività … Risultati altrimenti impensabili possono essere raggiunti grazie al contributo di tutti … BOINC Berkeley Open Infrastructure for Network Computing es: … ricerche in campo medico, farmacologico, …

Parma, 22 ottobre TheoPhys/TheoMPI

Parma, 22 ottobre dalla Fisica Teorica al Super-Computing ovvero il progetto APE N. Cabibbo Calcolo Parallelo...

Parma, 22 ottobre QUOnG: GPU-based HPC system QUantum chromodynamics ON Gpu PC clusters + GPU + 3D network APEnet+ boards 42U rack system: 60 TFlops/rack peak 25 kW/rack (i.e. 0.4 kW/TFlops) 300 k€/rack (i.e. 5 k€/TFlops)

Parma, 22 ottobre High Performance Supercomputing 20

Parma, 22 ottobre Conclusioni - il mondo gnu/linux/free sw ha un legame doppio con la ricerca in fisica delle particelle elementare - è una formidabile piattaforma di crescita sia individuale che collettiva - la condivisione della conoscenza è un valore primario che si riflette anche nelle modifiche delle politiche di accesso alle pubblicazioni scientifiche → “Open Access” - la condivisione delle risorse permette di ottenere risultati significativi sia dal punto di vista scientifico che da quello sociale