Atlas TDAQ status. USA15 SDX1 Gigabit Ethernet Event data requests Delete commands Requested event data Regions Of Interest LVL2 Super- visor Network.

Slides:



Advertisements
Presentazioni simili
Mario Paolo Giordani 1 Pixel Online Monitoring Responsabile ATLAS: Mario Paolo Giordani Scopo: verifica in tempo reale del funzionamento del.
Advertisements

ATLAS Muon Trigger Slice Francesco Conventi per il gruppo sw ATLAS/Napoli Riunione Gruppo1, Napoli 17/12/2007.
Paolo Bagnaia - 10 January invecchiamento. elettronica di read-out; shielding (MDT, RPC, …); HLT + DAQ; _________________________ NB :non include.
RPC muon trigger 3 concentric cylindrical layers of RPC at 5, 7.5 and 10m radius 2 gas gaps and 2+2 readout planes for each detector element 2 mm gas gap.
1 TrigMoore: Presente e Futuro. 2 Moore e MuId sono stati adattati per funzionare nel framework di HLT Due modalità di funzionamento: Wrapped : pieno.
Monitoring online - dove monitoriamo, - su quali e quanti eventi (Callot…) - con quali strumenti - cosa vogliamo monitorare (timing, efficienza, allineamenti…)
CMS RPC R&D for phase 2 Two types of upgrades proposed for the CMS RPC muon system: 1.Aging and longevity: installed in 2007, must continue to operate.
Gruppo1 - Lecce 24/09/2003 S.Falciano - INFN Roma1 ATLAS High Level Trigger/DAQ S.Falciano - INFN Roma1.
News da LHC… *** Discussion title: CMS Commissioning Notes from 09:00 meeting Current fill (1182) has now been in stable beams for >12 hours. Delivered.
CMS RPC R&D for phase 2 Two types of upgrades proposed for the CMS RPC muon system: 1.Aging and longevity: installed in 2007, must continue to operate.
Attivita` di TileCal 2013 C.Roda Universita` e INFN Pisa Riunione referees ATLAS Roma 1 C.Roda Universita` e INFN Pisa.
CSN1 Assisi - 23/09/2004 S.Falciano - INFN Roma1 ATLAS High Level Trigger/DAQ INFN and Univ. di Genova, Lecce, LNF, Napoli, Pavia, Pisa, Roma1, Roma2,
ATLAS HLT/DAQ Stato e prospettive Valerio Vercesi CSN1 Settembre 2005.
Il commissioning dell’esperimento ATLAS a LHC A. Andreazza Università di Milano e I.N.F.N. a nome della Collaborazione ATLAS.
ATLAS HLT/DAQ Valerio Vercesi on behalf of all people working CSN1 Aprile 2006.
ATLAS HLT/DAQ V. Vercesi for the ATLAS Italia HLT/DAQ Group CSN1 Trieste Settembre 2006.
23 Settembre 2004Nino Del Prete1 TileCal, Stato del rivelatore Stato dei lavori in corso: Commissioning/Installazione Test Beam Combinato Analisi Cosa.
Lecce, 25 Settembre 2003 Gruppo I C.Roda for the Pisa ATLAS group 1 ATLAS – TileCal Sommario : Verso un Tile calorimeter intero: preassemblaggio e commissioning;
27/5/2004 P. Morettini 1 Computing per il DAQ di ATLAS Workshop CCR, Castiadas (CA) 27 Maggio 2004 Nell’ambito della CCR (come pure della CSN1) si affronta.
Halina Bilokon ATLAS Software di fisica DC1 – DC2 DC1 aprile fine 2003 (versioni di software  3.x.x – 7.x.x)  Validation del Software  Aggiornamento.
P5  2009 shifts VS shifts until the end of 2009  2010 plan.
Online U. Marconi Milano, 21/9/ ~ 9000 optical link 40 MHz PCIe based readout 30 MHz × 100 kB/evt 5 Gb/s, 300 m long fibres from the FEE directly.
CMS RPC ITALIA' , Settembre Ischia-ITALIA RPC DCS Giovanni Polese.
News LHC recommissioning is continuing Sucessfully achieved so far 4 TeV beams, 0.6 m beta* (at least with few bunches) Some beam splashes last week; still.
18/5/20101L. Rossi – CSN1 - Torino Leonardo Rossi (INFN Genova) CSN1, Torino, 18 Maggio 2010 Stato di ATLAS Il run a 7 TeV Il run a 7 TeV funzionamento.
Stato di Atlas Maggio Outline Attivita’ sul rivelatore –Verifica di funzionamento e timing –Interventi per riparazioni e completamento installazioni.
Atlas TDAQ E. Pasqualucci INFN Roma. Sommario Attivita’ di fine 2008 – inizio 2009 Preparazione per i run con fasci Trigger con luminosita’ iniziali 16/9/20092E.
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
TGC upgrade for SLHC (ATL-P-MN-0028 ) Fra le parti più colpite dall’aumento di rate previsto a SLHC ci sono le Small Wheels Le TGC con catodo a bassa resistività.
TOTEM review a LHCC C. Cecchi CSN1, Parma 24/09/2010 CSN1, Parma 23/09/10C. Cecchi  STATO DELL’ESPERIMENTO & PHYSICS PLAN 2010/2011  INSTALLAZIONE DI.
1 Commissioning di CMS con i cosmici, Padova 19 Maggio Marco Zanetti CERN PH Marco Zanetti CERN Commissioning di CMS con i cosmici.
1 Ottobre 2009Roberto Crupi1 XCV Congresso Nazionale Bari, 28 Settembre – 3 Ottobre Roberto Crupi INFN Lecce & Dipartimento di Fisica, Università del Salento.
III Physics WS ATLAS ItaliaMuon Trigger Performance1 III Physics Workshop di ATLAS Italia Bologna, 16-17/6/2009 A. Ventura INFN Lecce & Università del.
Sommario richieste CSN1 Consiglio di Sezione 28/06/2013 Attilio Andreazza.
Domenico Elia1 Calcolo ALICE: stato e richieste finanziarie (aggiornamenti) Domenico Elia Riunione Referee Calcolo LHC / Bologna, Riunione con.
Michele Iacovacci (Napoli),
Online U. Marconi Bologna, 5/9/2016.
Run 3 Statistics EEE Run coordination meeting esteso alle scuole
Lepton Flavour MEG A. Baldini CSN1 22 Nov. 2011: GGI.
Stato di RPC e LVL1-barrel di ATLAS
Stato generale di Atlas Maria Curatolo
Elezione Responsabile Nazionale ATLAS
Atlas CSN1 25 Novembre 2008.
Calorimetro LAR ATLAS Italia Roma 28 novembre 2008
LHCB : proposte dei referees
Richieste 2017 HMPID e LHC_IF
Dichiarazione dei servizi di sito nel GOCDB
The FOOT Calorimeter No TOF, high density and good energy resolution -> BGO TOF asks for 1.2 m lever arm -> R = 20 cm with 100 angular aperture of the.
PRIN Roma1 – status Luciano Barone, Alessandro De Salvo
(Università del Salento & INFN Lecce) per la Collaborazione ATLAS
E. Pasqualucci INFN Roma
Analisi dei dati dell’Esperimento ALICE
JetWalk: Agenda e review committee
Gigi Cosentino - LNL 20 ottobre 2016
Responsabilita’ INFN in Atlas
Stato di Tilecal al 10/09/2008 (primo fascio)
Stato del rivelatore di Mu Gruppo 1 – Pisa – Settembre 2008
le Attivita' Computing Analisi Muoni: Detector(s) e Trigger
Accelerator Disision March 3rd 2015
LHCb: Stato del Rivelatore di Muoni
Status della attività ATLAS TDAQ a Napoli
M.Biasini, P. Checchia 18 Settembre 2008 Riunione CSN1
Atlas Milano Giugno 2008.
ATLAS Italia Computing Richieste 2007 (Tier-2 e locali)
SWORD (School and WOrk-Related Dual learning)
Study of Bc in CMSSW: status report Silvia Taroni Sandra Malvezzi Daniele Pedrini INFN Milano-Bicocca.
Z+b(b) production at LHC with ATLAS
Preliminary results of DESY drift chambers efficiency test
Physics: Produzione risonante di ZV in ll+jets
CdS 2017: embargo fino a TAUP2017
Transcript della presentazione:

Atlas TDAQ status

USA15 SDX1 Gigabit Ethernet Event data requests Delete commands Requested event data Regions Of Interest LVL2 Super- visor Network switches Second- level trigger pROS ~ 500 stores LVL2 output LVL2 farm UX15 Read- Out Drivers ( RODs ) First- level trigger Dedicated links VME Data of events accepted by first-level trigger Read-Out Subsystems ( ROSs ) USA Read- Out Links RoI Builder ~150 PCs Event data ≤ 100 kHz, 1600 fragments of ~ 1 kByte each Timing Trigger Control (TTC) DataFlow Manager Event Filter (EF) ~1600 Network switches Event data pulled: partial ≤ 100 kHz, full ~ 3 kHz SDX1 dual-CPU nodes CERN computer centre Event rate ~ 200 Hz Data storage 6 Local Storage SubFarm Outputs (SFOs) ~100 Event Builder SubFarm Inputs (SFIs) Trigger / DAQ architecture

DAQ e HLT hw Parte di readout completata –Solo il ROD delle CSC non e’ integrato –Lucid e BCM nel run Commissioning dei nuovi rack HLT –23 nuovi rack (720 nodi), 27 (881) in totale –Sistema completo per il 2008 –Commissionato in Giugno secondo la schedula prevista –3% macchine offline con problemi HW –Inserimento nel run durante M8 (Luglio) Event building completato –SFI Sistema finale completo –SFO 400 MB/s sostenuti raggiunti (specifiche: 300 MB/s) Online monitoring e DQ online –In place, to be tuned for beam operations

Trigger 1 livello Stato generale: –Trigger utilizzati durante i primi run –Trigger calorimetro completo –Muon endcap trigger completo Entrambi gli endcap utilizzati –Muon barrel trigger completo Ancora qualche problema di readout sul settore 6 A volte qualche problema di readout sui settori –Ultimi settori RPC commissionati –Minimum Bias Trigger Scintillator –BCM (ancora fuori tempo) –Lucid I segnali di trigger di lucid sono connessi al CTP –hit in A, hit in C, coincidenze AC

Muon barrel trigger  Trigger cabling completed on all sectors  64/64 RX/Sector-logic boards fully tested with cosmics  Firmware optimizations for timing alignment still under development  32/32 ROD boards and 32/32 ROD Buses installed and working stably  Since February we are providing cosmic trigger to ATLAS 5 Few weeks ago we have been able to run the system in the ATLAS partition with a 100 kHz trigger random. We are at the present the only trigger and read-out system which has achieved this goal At the moment we play a key role in the high rate test of ATLAS and we are the reference for the TDAQ high speed test. We think the system has still margin of speed improvement

Item “caldi” Primi fasci e stabilita’ del sistema Trigger primo livello –Timing con il fascio –Calibrazione temporale HLT –Data streaming –Trigger menu per la fisica –Efficienze –Strategia per il 2008 –Strategia per il 2009

Primo evento con fascio

TDAQ e primo giorno Sistema molto stabile –2 run ininterrotti (mattina e pomeriggio) Trigger rate controllato tramite pre-scaling –Primo evento triggerato da L1 calo Osservato online! –Dopo gli splash Primo timing con fascio stabile –Trigger preso dal pickup (BPTX) –Messo in fase con minimum bias trigger (MBTS) Riferimento per il timing dei detector/trigger HLT girati offline su dati di singolo fascio

Evento con trigger mu (beam 2)

Time calibration This is a multi step procedure 1.Alignment of layer within the same CM 2.Alignment between CM (eta vs phi) within the same PAD 3.Alignment between PAD within the same Trigger 4.Alignment between Trigger Sector A first rough alignment within 1-2 BC (25ns) between PADs in the same trigger sector has be done. The global alignement between sector is still ongoing. At the LHC peak luminosity the global alignement has to be within 1 BC

Data streaming Basato su Level 1 per i run con singolo fascio bit0: Random trigger bit1: filled bunch trigger (BPTX) bit2: L1Calo bit3: TGC in-time with beam bit4: RPC in-time with beam bit5: MBTS, BCM, LUCID bit6: RPC/TGC out-of time (cosmics) Attivo dal primo run con fascio Punto di partenza per i run con collisioni

Trigger menus ● Main effort until now is the implementation of comprehensive trigger menus for various luminosity scenarios (10 31, 10 32, cm -2 s -1 ) ● Assemble trigger needs of collision data from all areas: physics, calibration (detector, combined performance, trigger), monitoring ● Exercise and debug HLT software with large trigger menus (offline and online) ● Develop tools for large menu configuration and rate calculation ● Provide reasonable trigger menus for FDR and offline analyses ● Now the main focus is on menu preparation for collisions ● Develop strategies of menu evolution with real detector: cosmic running  commissioning with collision  first physics data taking ● How to go from ~40 trigger chains (current cosmic trigger menu) to ~200 chains (10 31 menu)? ● Get the tools and the infrastructure in place for rapid deployment and validation of trigger menus

10 31 cm -2 s -1 Trigger Menu ● Designed for early physics data-taking (detector performance, SM physics) ● Physics data come through a few low thresholds, loose selections triggers, others are mainly calibration and validation triggers (many pre- scaled and pass-through triggers) ● 6 data streams: egamma, jetTauEtmiss, muons, express, minbias, calibration ● Total ● L1: 12 kHzL2: 650 Hz L3: 200 Hz ● Some un-prescaled chains e1219 Hz g207 Hz mu1018 Hz tau6010 Hz j1209 Hz 2e57 Hz 2mu42.3 Hz e10+mu60.5 Hz 4j237 Hz t25i+xE303.5 Hz 2b233 Hz

Trigger start-up Alcune funzionalita’ testate on-line –Con dati simulati –Con run di cosmici Commissioning finale solo con collisioni –Alcuni test possono essere fatti con beam halo –Col fascio, per quanto possibile in parallelo al detector Ma un po’ di tempo dedicato sara’ necessario Strategie allo startup per determinare le efficienze –Minimum bias trigger –Streaming secondo Lvl 1 –HLT in pass-through –Trigger di calorimetro con trigger di traccia in pass-through E naturalmente l’opposto… –Determinazione efficienza con metodi “tag and probe”

Punti critici Grande differenza tra run con cosmici e con fascio Incremento della flessibilita’ –Facilita’ di utilizzo dei tool di configurazione –Facilita’ di adattamento degli algoritmi “Pronta reazione”… Test di robustezza –Rispetto alle condizioni del detector “Bad channels” –Rispetto alle condizioni della macchina Esempio: punto di interazione spostato Ottimizzazione infrastruttura –Bilanciamento a livello di farm –Robustezza rispetto alle condizioni di rete Monitoring e diagnostica per HLT –Molti tool sono pronti, ma vanno esercitati “sul campo”

Strategia HLT per il 2008 Primi run in “physics mode” 4 fasi –Singolo fascio, L1 + HLT dummy Validazione offline –In corso –HLT hanno girato sui dati gia’ nel primo giorno –Potranno essere dichiarati “pronti” dopo aver visto sufficienti eventi –Singolo fascio, L1 + menu minimale in pass-through Pochi item, tuning per beam halo –Collisioni, L1 + menu minimale in pass-through Pochi item, tuning per collisioni –Collisioni, L1 + full menu (900 GeV/10 Tev) Ancora in pass-through Rate controllati con pre-scaling del livello 1 Streaming secondo la risposta HLT Evoluzione dei menu tramite pre-scaling –Permette di caricare la configurazione completa –I menu posso essere attivati/disattivati durante il run

Strategia per 2009 Shutdown activities –Review dei risultati –Major release (daq e HLT) Partenza presa dati con menu per 10**31 –Pass-through per monitorare efficienza Pre-scaling a livello 1 –Attivazione risposta HLT Non appena finita la fase di validazione/calcolo efficienze –Monitor continuo di efficienza e reiezione Tramite inclusione di eventi pre-scalati Evoluzione con LHC Evoluzione e test dei menu con pre-scaling