Fisica Subnucleare – Esperimento ATLAS Progetto S.Co.P.E. – WP4 Fisica Subnucleare – Esperimento ATLAS M. Biglietti Università di Napoli Federico II
Large Hadron Collider (LHC) Collisionatore protone - protone Energia nel centro di massa di 14 TeV Circonferenza di 27 km Programma di fisica Studio della fisica delle particelle nel range del TeV Ricerca del bosone di Higgs di Modello Standard Ricerca di particelle supersimmetriche Misure di precisione Partenza prevista nel 2008 CMS LHCb ALICE ATLAS Workshop SCoPE - Stato del progetto e dei Work Packages Sala Azzurra - Complesso universitario Monte Sant’Angelo 21-2-2008
L'Apparato Sperimentale ATLAS Apparato sperimentale in grado di investigare un ampio spettro di misure fisiche Lunghezza di 46 m, diametro di 22 m Struttura a strati concentrici, 2 endcaps, barrel 22 m Muon chambers Hadronic calorimeter Electromagnetic calorimeter Inner detector µ e K0,n p,p n g 46 m Inner Tracker, calorimetri, spettrometro per muoni Inner Tracker contenuto in un solenoide (max 2 T), spettrometro per m integrato in un toroide (air core, max 3.9 T nel barrel, 4.1 T negli endcaps) 108 canali di elettronica Workshop SCoPE - Stato del progetto e dei Work Packages Sala Azzurra - Complesso universitario Monte Sant’Angelo 21-2-2008
Evento di LHC Incrocio dei fasci ogni 25 ns rate 109 Hz p Incrocio dei fasci ogni 25 ns rate 109 Hz 25 interazioni per incrocio Sono necessari rivelatori con un'alta granularita' 108 canali di elettronica event size ~1 MB Rate di input 1PB/s ! Siamo in grado di scrivere su disco ~100 MB/s Sistema di trigger che selezione eventi con particelle con alta energia reiezione 107 Eventi scritti file da max 2 GB, 16k file al giorno 10 TB/giorno ! p p Workshop SCoPE - Stato del progetto e dei Work Packages Sala Azzurra - Complesso universitario Monte Sant’Angelo 21-2-2008
Esigenze nell'uso di HPC Complessità del software di esperimento Esigenza di un framework (ATHENA) comune per tutti i task di un esperimento di High Energy Physics (HEP) Problemi di storage efficiente dei dati (e di spazio disco) Esigenza di distribuire efficientemente i dati (Distributed Data Management tools) Ottimizzazione del formato dati (Event Data Model) Esigenza di rendere semplice l'accesso alle risorse ed ai dati Tools di analisi distribuita (GANGA) Workshop SCoPE - Stato del progetto e dei Work Packages Sala Azzurra - Complesso universitario Monte Sant’Angelo 21-2-2008
Il Software di ATLAS: ATHENA Richieste Flessibilità e Mantenibilità (≈ 20 anni) Modellizzazione dei dati e algoritmi comune Separazione concettuale tra dati e algoritmi Algoritmi guidati dal framework attraverso esecuzione di sequenze Sviluppato con tecniche OO/C++ Configurazione via linguaggio di scripting (Python) Varie distribuzioni (releases) prodotte dall'esperimento Sviluppo Produzione nigthlies (DEV, VAL, BUGFIX) Dimensione di una release ~10 GB Diviso in ~20 sotto-progetti O(103) sviluppatori Piattaforma Linux (RedHat SCL4) ATHENA Monte Carlo Ricostruzione eventi Analisi Identificazione Simulazione Rivelatore Workshop SCoPE - Stato del progetto e dei Work Packages Sala Azzurra - Complesso universitario Monte Sant’Angelo 21-2-2008
Esempi di Task del Software ATLAS Framework conversione dei dati nei vari formati passaggio informazioni tra gli algoritmi configurazione delle condizioni e parametri servizi (misura di CPU time, memory usage) Simulazione Monte Carlo (Generatori HEP & Geant4) generazione eventi Trasporto delle tracce Simulazione delle interazioni tra le particelle e la materia Descrizione dettagliata della geometria del rivelatore e materiali inerti (DB) Descrizione del Campo Magnetico Ricostruzione pattern recognition (globali, locali, Kalman Filter) clustering extrapolazione delle tracce ( straight line, parametrizzazione elicoidale,metodi numerici) combinazione delle tracce risoluzione delle ambiguità track fit calibrazione Analisi Navigazione semplice degli oggetti strumenti per calcoli cinematica associazione oggetti ricostruiti – oggetti MC istogrammi, fit, procedure di minizzazione, visualizzazione (ROOT) Event Display necessità di algoritmi ad alte prestazioni CPU: Simulazione 800kSI2K/evento Ricostruzione 25kSI2k/evento Memoria La ricostruzione usa 2GB RAM per la mappa del campo magnetico Workshop SCoPE - Stato del progetto e dei Work Packages Sala Azzurra - Complesso universitario Monte Sant’Angelo 21-2-2008
Esempio – Ricostruzione di Tracce Traiettorie curve in campo magnetico misura dell'impulso Posizione misurata in un certo numero di stazioni (“hits”) Pattern recognition : assegnazione degli hits a una traccia Kalman Filter (Inner Detector) Metodi globali, Hough Trasform (Spettrometro a muoni) Fondo derivante da tracce di basso impulso (ID) e da interazioni delle tracce con strutture di supporto (MS) algoritmi per il ricoscimento dei fakes tempi di digitizzazione Holes on tracks Track fit : determinazione dei parametri (geometrici) di una traccia e calcolo dell’impulso Algoritmi di minimizzazione In piu’ Scattering multiplo (Coulomb), ionizzazione, Bremsstrahlung…. Caso dello spettrometro a muoni CSC MDT RPC TGC MDT mutilayer Workshop SCoPE - Stato del progetto e dei Work Packages Sala Azzurra - Complesso universitario Monte Sant’Angelo 21-2-2008
Event Data Model RAW ESD AOD DPD AOD ESD Nelle varie fasi di ricostruzione e analisi ATLAS utilizza diversi formati di dati: 10% di AOD 1.6 MB 500 KB 100 kB RAW ESD AOD DPD Analysis Object Data: rappresentazione ridotta degli eventi per l’analisi: oggetti “fisici” ricostruiti (elettroni, muoni, jet) Derived Physics Data: informazioni ridotte per analisi specifiche in ROOT. Event Summary Data: output della ricostruzione (tracce e hit, celle e cluster nei calorimetri). Raw Data: dati in output dal sistema di trigger AOD ESD Raw Data Object Prepared RawData Measure- mentBase Track Track- Particle SpacePoint Track Segment Clustering DriftCircle- Formation Combined Reconstruction Workshop SCoPE - Stato del progetto e dei Work Packages Sala Azzurra - Complesso universitario Monte Sant’Angelo 21-2-2008 (local) Pattern Recognition Track extension and fit
Computing Model Tier0 20/30 MBps 120 MBps 320 MBps. Workshop SCoPE - Stato del progetto e dei Work Packages Sala Azzurra - Complesso universitario Monte Sant’Angelo 21-2-2008
Il Tier2 di Napoli Risorse ATLAS per Potenza di Calcolo: Storage Simulazioni Monte Carlo Analisi Distribuita Potenza di Calcolo: 26 Worker Nodes 16 Biprocessori e 10 Biprocessori Dual Core 72 cores in totale 100 kSI2k Storage 40+30 TB di disco 4 Rack installati attualmente: 2 Tier-2 ATLAS e 2 PON SCoPE Espansione fino a 10 Rack Workshop SCoPE - Stato del progetto e dei Work Packages Sala Azzurra - Complesso universitario Monte Sant’Angelo 21-2-2008
Analisi Distribuita - GANGA Strumento per sottomettere-gestire-monitorare i job in GRID Applicazioni (basate su ATHENA) Produzione, Simulazione, Riconstruzione, Analisi Scelta della release Sottomissione sorgente o librerie per l'analisi Backend LCG e NorduGrid Possibilità di specificare i siti Possibilità di ottenere informazioni sulla completezza dei dataset nei siti Input Dataset Local file system DQ2 Possibilità di usare dataset incompleti specificare il numero minimo di files per dataset Output Dataset File system locale, retrieve alla fine del job Scelta Storage Element Splitter – Merger Definizione di subjobs, numero eventi per subjob Possibilità di unire i file ROOT di output Blocchi Funzionali: un job puo' essere configurato da un insieme di blocchi funzionali, ognuno dei quali si occupa di un aspetto diverso Workshop SCoPE - Stato del progetto e dei Work Packages Sala Azzurra - Complesso universitario Monte Sant’Angelo 21-2-2008
Creazione dei Jobs di Analisi Workshop SCoPE - Stato del progetto e dei Work Packages Sala Azzurra - Complesso universitario Monte Sant’Angelo 21-2-2008
Configurazione e Sottomissione dei Job GANGA è stato opportunamente modificato per poter usare il CE e l'RB del prototipo S.Co.PE I job ATHENA sono stati lanciati e testati sul prototipo Workshop SCoPE - Stato del progetto e dei Work Packages Sala Azzurra - Complesso universitario Monte Sant’Angelo 21-2-2008
Installazione delle Release in GRID L'installazione delle release nei siti GRID/ATLAS è gestita da un autorità centrale Procedura automatica tramite job di installazione Le release obsolete possono essere rimosse quando non sono piu' usate per la produzione (o su richiesta) Il sistema di installazione è capace di gestire richieste di singoli utenti (gruppi) Procedura automatica di validazione delle installazioni Stiamo lavorando per applicare la stessa procedura automatica di installazione in S.Co.PE e negli altri PON in vista dell'interoperabilità Per ora esiste una installazione manuale di una delle release di produzione usate per le analisi Workshop SCoPE - Stato del progetto e dei Work Packages Sala Azzurra - Complesso universitario Monte Sant’Angelo 21-2-2008
Applicazione del Software Radiografia dello spettrometro a muoni con dati simulati I test sono stati effettuati nell'ambito di "Data Challenge" di ATLAS (Computing System Commissioning) Analisi di campioni di eventi simulati al fine di mettere a punto il sistema di analisi distribuita dell'esperimento di ottimizzare gli algoritmi di selezione online (trigger) in vista dell'imminente presa dati. I risultati di queste analisi sono in via di pubblicazione Event Display di un evento reale (cosmici) selezionato dal trigger dei muoni Workshop SCoPE - Stato del progetto e dei Work Packages Sala Azzurra - Complesso universitario Monte Sant’Angelo 21-2-2008
Conclusioni Complessità del sw ATLAS molti task Molti sviluppatori Vita lunga necessità di flessibilità e mantenibilità Utenti distribuiti geograficamente Grossa quantità di dati prodotti che devono essere distribuiti e processati world wide Il sw ATLAS è concepito per utilizzare un computing model basato sui paradigmi GRID Sistema per la gestione distribuita dei dati event data model tools per l'analisi distribuita Sistemi adottati ri-adattati per funzionare su S.Co.Pe e gli altri PON estende la sua esportabilità su grid diverse (interoperabilità) consente di studiare meglio ed ottimizzare il computing model, sistema di analisi distribuita, algoritmi Workshop SCoPE - Stato del progetto e dei Work Packages Sala Azzurra - Complesso universitario Monte Sant’Angelo 21-2-2008