Dott. Pierluigi Paolucci

Slides:



Advertisements
Presentazioni simili
Valutazione Del Read-Out System (ROS) Del Sistema Di Acquisizione Dati Di ATLAS Candidata Valentina Ferrara Relatore Fernanda Pastore.
Advertisements

Silvia Arcelli 1 Metodi di Ricostruzione in fisica Subnucleare Corso di Metodologie Informatiche Per la Fisica Nucleare e Subnucleare A.A. 2009/2010 I.
Rivelatori di Particelle1 Lezione 22 Trigger Trigger: Trigger: seleziona gli eventi interessanti fra tutte le collisioni. Decide se levento deve essere.
Esperimenti di fisica delle alte energie 1 Esperimenti di Fisica delle Alte Energie Periodo didattico : II semestre CFU : 6 Ambito disciplinare : FIS/04.
UNIVERSITA` DEGLI STUDI di LECCE
Vincenzo Vagnoni per il gruppo di Bologna
Ricostruzione delle tracce di muone nello spettrometro dell’esperimento ATLAS Il lavoro di questo tesi ha come oggetto la ricostruzione delle tracce di.
M. Biglietti Università degli Studi di Napoli “Federico II”
Tecniche di Acquisizione dati I (DAQ) Leonello Servoli
27/5/2004 P. Morettini 1 Computing per il DAQ di ATLAS Workshop CCR, Castiadas (CA) 27 Maggio 2004 Nell’ambito della CCR (come pure della CSN1) si affronta.
Laboratorio II, modulo 2 (Fisica) Tecniche di Acquisizione Dati (Informatica) Giovanni Ambrosi Matteo Duranti
Trigger ideale: seleziona tutti gli eventi interessanti, scarta quelli che non ci interessano; Trigger reale : alta efficienza per gli eventi interessanti,
Laboratorio II, modulo Conversione Analogico/Digitale ( cfr.
1 Ottobre 2009Roberto Crupi1 XCV Congresso Nazionale Bari, 28 Settembre – 3 Ottobre Roberto Crupi INFN Lecce & Dipartimento di Fisica, Università del Salento.
I dispositivi di rete. La Scheda Di Rete La scheda di rete, o LAN adapter è un circuito stampato che collega il cavo per il collegamento internet al PC.
Corso di Alta formazione in TL&OS Modulo 1.3 Reti e Servizi - lezione 1 Modulo 1.3 Reti e servizi 1. Introduzione al Networking Connettere il PC in rete;
1 14 marzo 2006 sommaruga andrea Fondazione Ordine Ingegneri di Milano VPN: Reti Private Virtuali VPN: RETI PRIVATE VIRTUALI LE POSSIBILITA' DI ACCESSO.
10 Mev e S(e)-S(mu) = % DS(mu)/S(mu) = 5-70 % Streamer.
Università degli Studi - “ G. d'Annunzio ” Chieti - Pescara FACOLTÀ DI ECONOMIA Corso di laurea in Economia Informatica/s Seminario di: Giovanni Placentino.
Rappresentazione dell’ Informazione Digitale e Binario
Michele Iacovacci (Napoli),
Laboratorio II, modulo Matteo Duranti
Online U. Marconi Bologna, 5/9/2016.
Lepton Flavour MEG A. Baldini CSN1 22 Nov. 2011: GGI.
Sezione di Milano: Mauro Citterio, Stefano Latorre, Massimo Lazzaroni
Laboratorio II, modulo Conversione Analogico/Digitale (cfr. e
Elezione Responsabile Nazionale ATLAS
Esperimento CMS.
Richieste 2017 HMPID e LHC_IF
Microcontrollori e microprocessori
Stato e prospettive del lavoro sulle memorie associative.
The FOOT Calorimeter No TOF, high density and good energy resolution -> BGO TOF asks for 1.2 m lever arm -> R = 20 cm with 100 angular aperture of the.
Gagliardi Università degli Studi e INFN Torino
Assegnazione risorse Stato INFN CNAF,
Riconoscimento di Eventi 2° parte Andrea Bocci, CERN/CMG
FOOT Pixel tracker daq view.
Analisi dei dati dell’Esperimento ALICE
Misura della velocità dei muoni dei raggi cosmici
Introduzione L0.
INFN-TS INFN - Sezione di Trieste - C. Strizzolo - L. Strizzolo.
LHCB : proposte dei referees
Stato di Tilecal al 10/09/2008 (primo fascio)
ONEDATA - distributed data caching -
Università di Pisa INFN – Sezione di Pisa
L’esperimento ATLAS a LHC
Stato pCT e test LNS M. Bruzzi, C. Civinini, G. Maccioni, F. Paulis, N. Randazzo, M. Scaringella, V. Sipala, C. Talamonti.
Atlas Milano Giugno 2008.
analizzatore di protocollo
Sistemi d’acquisizione dati, di monitoring e di controllo per “grandi apparati” Dott. Pierluigi Paolucci Istituto Nazione di Fisica Nucleare Napoli.
Modulistica per l’elettronica nucleare
MODULO 1 – Computer essentials
Caratteristiche e funzioni della scheda Arduino
Sistemi di Acquisizione dati
Rivelazione e misura di mesoni 0 con il rivelatore ICARUS T600
Programmare.
ATLAS LHC (Large Hadron Collider)
ESSERE CITTADINI DI EUROPA PROGETTO INTERDISCIPLINARE CLASSI TERZE.
Concetti introduttivi
Il trigger per muoni dell’esperimento CMS
Il trigger di muoni ad RPC P. Paolucci - I.N.F.N. Road Map
ATLAS LHC (Large Hadron Collider)
L3 silicon vertex detector
Le reti informatiche di Roberto Minotti 17/01/2019.
Le reti informatiche di Roberto Minotti 15/02/2019.
Processi e thread in Windows 2000
Dr. Pierluigi Paolucci - INFN di Napoli
Dr. Pierluigi Paolucci - INFN di Napoli
Laboratorio II, modulo “Skype”.
Report dei referee di Kloe
Scheduling (Schedulazione)
Transcript della presentazione:

Dott. Pierluigi Paolucci Large Hadron Collider CMS Aleph LEP - LHC Alice Opal L3 Two superconducting magnet rings in the SPS LEP tunnel. LHCb Delphi PS ATLAS Experiments at LHC ATLAS A Toroidal LHC ApparatuS. (Study of Proton-Proton collisions) CMS Compact Muon Solenoid. (Study of Proton-Proton collisions) ALICE A Large Ion Collider Experiment. (Study of Ion-Ion collisions) LHCb (Study of CP violation in B-meson decays at the LHC collider) 16/09/2018 Dott. Pierluigi Paolucci

Dott. Pierluigi Paolucci Gli esperimenti di LHC Gli apparati sperimentali sono molto grandi e composti da almeno 4 sottosistemi (Tracciatore, Calorimetri e spettrometro per muoni) Ogni sottosistema ha il suo sistema di Trigger, DAQ e DCS indipendenti (locali) I trigger ed i DAQ locali convergono poi in un unico sistema centrale dove i dati vengono visti come un unico insieme. Vista la grande quantità di dati che i sistemi locali devono trattare in un tempo così breve (25 ns) nasce l’esigenza di avere dei sistemi di trigger e di DAQ che siano molto veloci (40 MHz) e che possano scambiare dati ad una velocità elevatissima  NETWORKING A questa va poi aggiunta la necessità di avere un’enorme quantità di dati memorizzata definitivamente … in qualche modo. 16/09/2018 Dott. Pierluigi Paolucci

Problematiche generali N (canali) ­ O(107); 20 interazioni ogni 25 ns enorme numero di connessioni networking Dati di sotto-rivelatori devono corrispondere sincronizzazione dei dati in 25 ns Segnali/time of flight del rivelatore > 25 ns identificazione del bunch crossing • Bisogna memorizzare i dati a 100 Hz selezione degli eventi 16/09/2018 Dott. Pierluigi Paolucci

Trigger con eventi “poco” frequenti Semplice: supponiamo di avere una collisione/evento ogni 20 ms. dobbiamo costruire un trigger che impieghi meno di 20 ms per decidere se l’evento e’ buono o no Se l’evento non e’ OK  e’ pronto per il prossimo Se l’evento e’ OK  bisogna acquisirlo e questo significa un certo “tempo morto” sicuramente maggiore dei 20 ms che comportata la perdita di qualche evento successivo. 16/09/2018 Dott. Pierluigi Paolucci

Qualche numero utile per Trigger-DAQ collisioni adroniche (pp  X; hN  X) stot ≈ 30 ÷ 60 mb L ≈ 1030 cm-2 s-1 (“vecchi” collider pp) L ≈ 1034 cm-2 s-1 (targhetta fissa) L ≈ 1034 cm-2 s-1 (LHC con freq. di 40 MHz) rate di eventi 105 ÷ 109 eventi/s sphy ≈ nb ÷ pb  reiezione di 10-8 ÷ 10-11 collisioni leptoniche (e+e-  X; n + targhetta  X) stot ≈ 20 ÷ 50 nb L ≈ 1031 cm-2 s-1 (“vecchi” collider LEP con freq. di 45 KHz) L ≈ 1033 cm-2 s-1 (“nuovi” collider PEP II con freq. di 250 MHz) rate di eventi 10-1 ÷ 102 eventi/s sphy ≈ stot  reiezione del background “semplice” 16/09/2018 Dott. Pierluigi Paolucci

Come quantificare il Trigger-DAQ I Una volta note le caratteristiche della macchina acceleratrice (tipo di macchina, luminosità e frequenza) e della fisica che si vuole studiare (rate di eventi prodotti e rate di eventi da studiare) e progettato il rivelatore necessario per lo studio della fisica prescelta si può iniziare a progettare il trigger: Esempio I: PEP II: L ≈ 1033 cm-2 s-1, freq. di 250 MHz di collisioni e+e-; Fisica: circa 30 ÷ 50 Hz BaBar: 2·105 canali da acquisire (fili, cristalli, strips, pixel…) Sappiamo quindi che dobbiamo passare da 250 MHz a 30 Hz usando uno o piu’ trigger e che dobbiamo fare “in teoria” questa operazione di trigger in 4 ns (1/freq) leggendo i dati provenienti da 2 ·105 canali. 16/09/2018 Dott. Pierluigi Paolucci

Come quantificare il Trigger-DAQ II Logicamente e’ impossibile generare un trigger in soli 4 nsec e quindi si introduce un tempo morto (latency) pari al tempo necessario a generare il trigger e quindi a decidere di acquisire i dati relativi a quel particolare evento. Questo tempo morto si “annulla” introducendo un buffer (memoria) lunga quanto la latency del trigger per ogni canale del rivelatore. Supponiamo di avere 2 livelli di trigger (BaBar) che ci consentono di passare da: 250 MHz  L1  2 KHz  L3  100 Hz Se ogni canale necessita di 2 bytes abbiamo che il DAQ (FARM di PC con circa 50 nodi) deve “trattare” circa: 2·105 x 2 Bytes = 4·105 Bytes = 400 KB x 100 Hz = 40 MB/s Con alcuni algoritmi (zero-suppresion) la dimensione finale di un evento si riduce a circa 25 KB corrispondente a circa 2.5 MB/s da salvare in memoria. 16/09/2018 Dott. Pierluigi Paolucci

Dott. Pierluigi Paolucci Secondo Esempio (LHC) Esempio II: LHC: L ≈ 1034 cm-2 s-1, freq. di 40 MHz di collisioni p-p; Fisica: circa mHz ÷ kHz su un totale di GHz di eventi (pb ÷ nb su un totale di 10-1 barn). Esempio h  gg ha una sezione d’urto prevista di circa 10-1 pb che corrisponde a mHz) CMS: > 2·106 canali da acquisire (fili, cristalli, strips, pixel…) Questa volta abbiamo bisogno di una reiezione che va da 10-8 a 10-12. Per fare cio’ si usano almeno 2 livelli di trigger ottenendo una riduzione di 40 MHz  L1  105 Hz  L3  102 Hz La latency in questo caso e di 2-3 ms mentre un evento e’ di circa 1 MB. 1 MBytes x 100 Hz = 100 MB/s 16/09/2018 Dott. Pierluigi Paolucci

DAQ-Trigger per grandi apparati ­ 30 Collisions/25ns ( 10 9 event/sec ) 10 7 channels (10 16 bit/sec) Luminosity = 10 34 cm -2 sec -1 25 ns Calorimetro 107 sensori 40 MHz Muoni 106 sensori 40 MHz sottoinsieme di dati LV1 - Trigger clock 25 ns durata ~ ms front-end con pipeline …. celle da 25 ns 105 Hz …. celle da 25 ns 105 Hz readout buffer readout buffer LV3 - Trigger durata ~ sec network Farm 102 Hz network Farm 102 Hz 16/09/2018 Dott. Pierluigi Paolucci

Trigger con eventi “molto” frequenti Collisione/evento ogni 25 ns. E’ chiaramente impossibile generare un trigger in 25 ns. Si introduce quindi il concetto di pipe-line e cioè di una FIFO dove vengono “inseriti” i dati in attesa del trigger. La pipe-line deve essere lunga almeno quanto la trigger latency e cioè il tempo per generare il trigger (qualche ms). Il trigger lavora con un clock di 25 ns ed analizza più eventi insieme (in serie). Quando si ha un trigger si acquisisce tutto l’evento e quindi le celle delle pipe-line corrispondenti. Viste le distanze diventano molto importanti anche le tecnologie usate per la trasmissione dei segnali (fibre ottiche su lunghe distanze ~ 100 metri) 25ns 40 MHz 10 5 Hz 2 Lvl-1 HLT Front end pipelines Readout buffers Processor farms Switching network Detectors µsec sec 16/09/2018 Dott. Pierluigi Paolucci

Il Trigger per i grandi apparati Possibilità di avere più livelli di trigger susseguenti con lo scopo di disaccoppiare le problematiche. 16/09/2018 Dott. Pierluigi Paolucci

Dott. Pierluigi Paolucci Dal LEP ad LHC Il bunch crossing e quindi il rate di collisioni e’ andato sempre aumentando dal LEP dove si aveva una collisione ogni 22 ms (30 kHz), al Tevatron dove si e’ passati a 3.5 ms per finire con LHC dove si ha un bunch crossing di 25 ns che corrisponde a 40 MHz. 16/09/2018 Dott. Pierluigi Paolucci

Esempio di DAQ di CMS Vedi schema successivo In CMS si e’ deciso di adottare: un livello di trigger hardware (Level 1) che opera una riduzione di un fattore 1000; un High Level Trigger software (FARM di computer) che riduce di un altro fattore 1000 arrivando ai 100 Hz  su disco; Vedi schema successivo 16/09/2018 Dott. Pierluigi Paolucci

Dott. Pierluigi Paolucci Detectors 40 MHz 16 Million COLLISION RATE channels Charge Time Pattern 3 Gigacell buffers 100 kHz LEVEL-1 TRIGGER Energy Tracks 1 Megabyte EVENT DATA 1 Terabit/s 200 Gigabyte BUFFERS (50000 DATA CHANNELS) 500 Readout memories EVENT BUILDER A large switching network (512+512 ports) with a total throughput of approximately 500 Gbit/s forms the interconnection between the sources (Readout Dual Port Memory) and the destinations (switch to Farm Interface). 1 Terabit/s Networks EVENT FILTER 5 TeraIPS It consists of a set of high performance commercial processors organized into many farms convenient for on-line and off-line applications. The farm architecture is such that a single CPU processes one event Gigabit/s SERVICE LAN Computing services Petabyte ARCHIVE 16/09/2018 Dott. Pierluigi Paolucci

Dott. Pierluigi Paolucci Event building A communications network, such as the public switched telephone network, in which any user may be connected to any other user through the use of packet switching. It is the process of routing and transferring data by means of addressed packets so that a channel is occupied during the transmission of the packet only, and upon completion of the transmission the channel is made available for the transfer of other traffic. 16/09/2018 Dott. Pierluigi Paolucci

Dott. Pierluigi Paolucci Processor farms 16/09/2018 Dott. Pierluigi Paolucci

Controllo e monitoring Nei grandi esperimenti, con tanti rivelatori, elettronica, cavi, sistemi di alimentazioni, sistemi del gas e del raffreddamento, rack e crate ….. diventa estremamente importante disegnare un sistema di DAQ “lento” che controlli e monitori tutte queste grandezza necessarie per il corretto funzionamento dell’apparato sperimentale. Nel passato si sono usati per questo scopo una serie di programmi “custom” sviluppati dai singoli esperimenti, programmi che alla fine sono sempre risultati pesanti e difficili da mantenere. Nei laboratori, per esperimenti piccoli, si e’ sempre più andato diffondendo LabVIEW che da la possibilità di fare molte cose semplici in poco tempo. Al Fermilab e’ stato invece sviluppato un pacchetto SCADA per acceleratori e grandi esperimenti che si chiama EPICS e che si basa sulla tecnologia UNIX – CPU – VME. Questo e’ stato molto usato in BaBar ed altri grandi esperimenti. Ad LHC si e’ deciso di usare un framework “custom” sviluppato da un progetto CERN il cui core e’ un programma commerciale PVSS II. 16/09/2018 Dott. Pierluigi Paolucci

Controllo e monitoring I sistemi SCADA usano una serie di middleware (protocolli di comunicazione) per comunicare con il mondo hardware. L’OPC ed il DIM sono oggi molto usati per comunicare con apparecchiature commerciali e con moduli VME. Per i sensori “lenti” e la lettura di segnali analogici “lenti” sono molto diffuse schede ADC dotate di un protocollo di comunicazione seriale come il CANbus ed il Profibus. 16/09/2018 Dott. Pierluigi Paolucci

Dott. Pierluigi Paolucci Middleware OPC (OLE for Process Control) Industrial solution Reduce diversity of drivers Supported by a large number of companies Support for Filed buses, PLC and SCADA Three kinds of access: Read/Write (synchronous) Subscription (asynchronous) Refresh (forced read) DIM (Distributed Information Manager) Developed by Delphy and used by BaBar and others Client/server with publish/subscribe mechanism on top of TCP/IP Multi-platform support C/C++ libraries 16/09/2018 Dott. Pierluigi Paolucci

Dott. Pierluigi Paolucci Run Control Al di sopra di tutti questi sottosistemi in cui abbiamo suddiviso il DAQ: Trigger di primo livello; Trigger successivi; Sistema di acquisizione dati (VME e/o custom) Calibrazione e Sincronizzazione; Detector Control and Monitoring; Ricostruzione degli eventi si ha il Run Control e cioe’ un package software, dotato di una GUI, capace di gestire tutte queste diverse componenti, sincronizzandone le operazione e gestendo tutti i diversi processi che ogni sottosistema genera. Il Run Control viene in genere sviluppato dai singoli esperimenti sulla basi di software commerciali e non. 16/09/2018 Dott. Pierluigi Paolucci

Dott. Pierluigi Paolucci Conclusioni I grandi esperimenti del primo decennio del 2000 si basano su di un sistema d’acquisizione dati che ha le seguenti caratteristiche peculiari (“novità”): Decine di milioni di canali; Pipeline o buffer con celle da 25 ns e profondità totale di ms; Trigger di primo livello (hardware) veloci  ms; Altri livelli di trigger per passare di 40 MHz a 100 Hz; Livelli di trigger “software” con necessita’ di FARM e network di altissime prestazioni; Event builder basati su large switching network con prestazioni fino a Terabit per sec. Ricostruzione degli eventi con FARM di personal computer dotati del sistema operativo Linux. 16/09/2018 Dott. Pierluigi Paolucci