Monitoring online - dove monitoriamo, - su quali e quanti eventi (Callot…) - con quali strumenti - cosa vogliamo monitorare (timing, efficienza, allineamenti…)

Slides:



Advertisements
Presentazioni simili
Italiano Da quando siamo passati al corso di metallurgia (3^o ) abbiamo cominciato a lavorare utilizzando i maniera didattica tecnologie di tipo hardware.
Advertisements

INFORMATICA Altre Istruzioni di I/O
1 Analisi di Veto ed identificazione di glitches Marina Del Prete.
Run I Distribuzione inclusive di Min Bias (Mult. Carica, Pt). Correlazioni dello stato finale ( -Mult) + mini-jet (soft hard physics). Campioni utilizzati:
UNIVERSITÀ DEGLI STUDI DI PARMA
Accoppiamento scalare
Mario Paolo Giordani 1 Pixel Online Monitoring Responsabile ATLAS: Mario Paolo Giordani Scopo: verifica in tempo reale del funzionamento del.
Time Sharing Il termine “Time Sharing” proviene dall'inglese e significa letteralmente “partizione di tempo”. Questa è una tecnica sviluppatasi negli.
5-1 Protocolli ad accesso multiplo Crediti Parte delle slide seguenti sono adattate dalla versione originale di J.F Kurose and K.W. Ross (© All.
U.Gasparini, Bologna 8/11/06 1 Canali di fisica di interesse… Discussione in seno alla comunita italiana di CMS a Bologna, Giovedi mattina 23 Novembre,
1 Muon commissioning & prospettive Global Runs - Attivita di commissioning con i cosmici (run locali, indipendenti dal resto di CMS): - check sistematico.
Alessandra Doria III Workshop Software e Calcolo Moderno Martina Franca Ottobre 1999 La presentazione degli istogrammi nel sistema di Monitoring.
Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
La stazione di test a raggi cosmici di Napoli per gli RPC di ATLAS
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
Ricostruzione e visualizzazione di raggi cosmici nei rivelatori MDT
Valutazione Del Read-Out System (ROS) Del Sistema Di Acquisizione Dati Di ATLAS Candidata Valentina Ferrara Relatore Fernanda Pastore.
Silvia Arcelli 1 Metodi di Ricostruzione in fisica Subnucleare Corso di Metodologie Informatiche Per la Fisica Nucleare e Subnucleare A.A. 2009/2010 I.
ATLAS Muon Trigger Slice Francesco Conventi per il gruppo sw ATLAS/Napoli Riunione Gruppo1, Napoli 17/12/2007.
Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
10/6/2003b e tau Identificazione di b e Tommaso Boccali SNS Pisa Fabrizio Parodi INFN Genova.
UNIVERSITA` DEGLI STUDI di LECCE
-1- CdSez prev /7/03 Un caso ideale: K l Unici per theoretical cleanliness u Contributi long range assenti u Correzioni QCD ben calcolabili u H eff.
LA CATENA DI ACQUISIZIONE DI (2.0 version). La catena di acquisizione... La catena di acquisizione del tracker: JINJ 192 LADDERS... 8 PIANI 8 JINF 24.
Queuing or Waiting Line Models
Limiti al trasferimento di informazione u Il tempo necessario per trasmettere dellinformazione dipende da: –la velocita di segnalazione (cioe quanto velocemente.
www-lia.deis.unibo.it/materiale/retilogiche
Calibrazione DT primo sguardo alla calibrazione per v drift parametrizzata non lineare semplice strategia di calibrazione nellipotesi lineare primi risultati.
Il software delle DT Attività in corso Stato della simulazione e ricostruzione hit in ORCA Calibrazione Validazione con dati di Testbeam Testbeam Ottobre.
A. Di Ciaccio Riunione RPC 17 luglio 2002 Lecce Test ad X5-GIF (3-10 luglio 2002) Scopi del test (discussi tra di noi,con i referee ed al GruppoI a giugno)
1 DAQ Layout VME Readout Unit (XDAQ) TTCvi TTCex TRG BSY Builder Unit (XDAQ) Monitor (ORCA) BSY TRG CCB MiniCrate DT Chamber 1 ROB CCB MiniCrate DT Chamber.
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
Meeting MDT Italia - Pavia 30 settembre Integrazione del vecchio prototipo di EF nella DAQ Integrazione del vecchio prototipo di EF nella DAQ integrazione.
Daniela Rebuzzi, Riunione MDT Italia, Pavia,
Analisi e tesi a Pisa Fabrizio Palla. Tesi e analisi a PisaFabrizio Palla INFN-Pisa La situazione tesi TESI di LaureaTESI di Laurea (finite nel 2003)
Modulo 1 - Concetti di base della Tecnologia dell'Informazione
Come fanno i ricercatori a vedere le particelle?
Sistema automatico di misura della resistività. QC HPL Gennaio – Novembre 2004.
TESI DI LAUREA STUDIO DI UN NUOVO ALGORITMO DI TRIGGER SUI VERTICI SECONDARI PER L’ESPERIMENTO BTeV AL FERMILAB STUDIO DI UN NUOVO ALGORITMO DI TRIGGER.
Il nucleo del Sistema Operativo
1 TrigMoore: Presente e Futuro. 2 Moore e MuId sono stati adattati per funzionare nel framework di HLT Due modalità di funzionamento: Wrapped : pieno.
Ricostruzione dei muoni: Stato e piani futuri. Roma, 13 settembre 2001 Gruppo Moore Gruppo 1 Premesse Nel panorama della ricostruzione dei muoni il package.
Opzioni tecnologiche per l’elettronica di front-end del Gigatracker Angelo Rivetti – INFN Sezione di Torino.
Attivita` di TileCal 2013 C.Roda Universita` e INFN Pisa Riunione referees ATLAS Roma 1 C.Roda Universita` e INFN Pisa.
Accoppiamento scalare
Conversione Analogico/Digitale Le grandezze fisiche che vogliamo misurare variano con continuità in un dato intervallo ed in funzione del tempo: sono descrivibili.
F. C. 14/9/ Verificare orientamento verso il NORD (se ne parla in seguito) 2.Verificare allineamento delle camere (anche con il filo a piombo)
Algoritmo di Level-2 muon trigger Seminari Atlas Napoli 15/7/2011.
Filtri del secondo ordine e diagrammi di Bode
Off-line Cool Folders Description 1 Due sorgenti per le informazioni di Monitoring/Calibrazione e Data Quality per l’off-line, Tier0 e Calibration Stream.
P5  2009 shifts VS shifts until the end of 2009  2010 plan.
Michele Bianco 05/05/2009 Conditional Data Base general info Limite massimo di informazioni replicabili giornalmente da Tier0 a Tier1 ~ 80 MByte. Altre.
Online U. Marconi Milano, 21/9/ ~ 9000 optical link 40 MHz PCIe based readout 30 MHz × 100 kB/evt 5 Gb/s, 300 m long fibres from the FEE directly.
CMS RPC ITALIA' , Settembre Ischia-ITALIA RPC DCS Giovanni Polese.
Stima back of envelope dell’efficienza di segnale per particelle di carica frazionaria e reiezione del bkg – Segnale muon-like con ionizzazione media (1/3)^2.
MasterClass: monitoraggio dei telescopi 2.0 D. De Gruttola Centro Fermi Roma.
Attilio Andreazza 1 Milano 27/07/2009 Attività sul tracking Software pixel Attilio: responsabilità generale del software offline pixel –simulazione, ricostruzione,
Study of coincidences due to 40 K photons between adjacent OMs Paolo Fermani & ROMA group Catania Università di Roma «La Sapienza» – INFN Roma.
Firmware per il Trigger del RICH Cristiano Santoni Università degli studi di Perugia INFN - Sezione di Perugia Meeting generale GAP 13/01/2014.
Triggers and actions L’inizializzazione di un trigger permette di avviare delle azioni automatiche a partire da eventi significativi. Possibili azioni.
Atlas TDAQ E. Pasqualucci INFN Roma. Sommario Attivita’ di fine 2008 – inizio 2009 Preparazione per i run con fasci Trigger con luminosita’ iniziali 16/9/20092E.
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
1 OUTLINE CSN I, Roma 19-20/1/2015 RICH&THGEMSilvia DALLA TORRE Impegni per costruzioni – bilancio 2014 Read-out rivelatori ibridi ottobre 2014 – gennaio.
Torre fase II: un aggiornamento M.Anghinolfi km3_IT collaboration meeting ROMA Novembre 2013.
Algoritmi Avanzati a.a.2011/2012 Prof.ssa Rossella Petreschi Algoritmi distribuiti Lezione n°9.
P. Morettini 19/5/ Paolo Morettini - ATLAS Italia - Napoli.
Il calcolo per l’esperimento GERDA Luciano Pandola INFN, Laboratori del Gran Sasso Riunione della CSN2, LNF Frascati, 29 Novembre 2011.
TOTEM review a LHCC C. Cecchi CSN1, Parma 24/09/2010 CSN1, Parma 23/09/10C. Cecchi  STATO DELL’ESPERIMENTO & PHYSICS PLAN 2010/2011  INSTALLAZIONE DI.
STMan Advanced Graphics Controller. What is STMan  STMan is an advanced graphic controller for Etere automation  STMan is able to control multiple graphics.
Dichiarazione dei servizi di sito nel GOCDB
Transcript della presentazione:

Monitoring online - dove monitoriamo, - su quali e quanti eventi (Callot…) - con quali strumenti - cosa vogliamo monitorare (timing, efficienza, allineamenti…) - su quali “oggetti” monitoriamo (tutti gli hit, hit mu, tracce mu) # Cosa ci serve nella fase di commissioning e cosa pensiamo di monitorare sempre durante il data taking - quando / con che frequenza (una tantum, a inizio run, in continuazione) - Abbiamo bisogno di Run speciali ? # schedula temporale per scrivere il software di monitoring # suddivisione del lavoro / responsabilita` Roma

Dove – come - su quali eventi # Nel Frontend (40 MHz) nelle ODE “monitor ECS” # Nel TELL1 (1 MHz) Noi abbiamo tools nell’ elettronica che ci permettono di fare monitoring che altri pensano di fare su eventi triggerati. Occorre studiare (perche’ da una parte e` utile avere ridondanze ma bisogna evitare sprechi) # Nella farm EFF (~2000 CPU) L1-HLT (1MHz  2 kHz) Il monitor richiede risorse costose (non tanto per gli algoritmi ma per l’accesso e la somma di istogrammi da 2000 nodi….)  da evitare a meno che non sia necessario monitorare dati non disponibili piu` tardi. # Nella EFF- Calibration - Parte della Event Filter Farm dedicata al processamento di eventi speciali di calibrazione in genere da non scrivere su storage (calibrazione continua della risposta del Calorimetro) Noi non pensiamo di utilizzare questa possibilita` (??) (- Calibration pulse ciclati sui canali fisici. - Empty events …..)

# Su gli eventi selezionati per il DAQ (2 kHz) quando sono pronti per essere inviati a un writer. (~ 200 Hz del main stream fully reconstructed Hz di altri stream che overall contengono ~1500 Hz di Muoni selezionati con gli algoritmi di HLT)  Task semplici di alta priorita` (event size, rates..) si possono effettuare su tutti gli eventi (nei server che li mandano ai writer?)  Un monitoring server spedisce una frazione di questi eventi ad una Monitoring Farm MF (~~ 50 CPU) La MF sta in baracca con la EFF ma non e` connessa al readout network. Non c’e` un output evento per evento. L’ output sono solo statistica e istogrammi. La MF deve poter leggere eventi da file per test fuori data taking, ma il suo main input sono i dati online. L’ input di ogni nodo puo` essere al livello di ~100Hz. Per diminuire il carico sulla rete (a prezzo di sviluppo di software dedicato) si puo` anche mandare solo parte di un evento…

Alcuni nodi della MF saranno dedicati esclusivamente al rivelatore Mu. (~ 5 ? dipende anche da quanto vogliamo pagare). Qui possiamo fare quello che ci pare, per esempio se vogliamo idividuare quali hit sono associati a muoni, si possono effettuare algoritmi tipo fast tracking mu in HLT (il risultato del tracking gia` fatto e` andato perduto). Per il monitor del timing si puo` ragionevole pensare a ~ 500 Hz di eventi in totale che dovrebbero essere divisi tra diverse CPU. Warning di Callot: “In case of need, the same code could run on several nodes, provided each node gets different events. This complicates the handling of events, and of histograms from this task: they have to be summed before being used. Our idea is to try to avoid this complication as much as possible”  Se si vogliono eventi ricostruiti (full tracking, PID…) si puo` contare su Hz in tutto (mu e non mu) che possono essere mandati alla MF. Probabilmente questi eventi saranno anche salvati temporaneamente sui dischi online (dell’ordine del milione di eventi al giorno…)

Histograms produced spontaneously by the monitoring tasks are processed in the general computing infrastructure, where anomalies are detected and alarms generated for the Shift Crew. Histograms are also accessible online by the histogram system, for presentation. PVSS is not the appropriate tool to handle histograms  An activity to produce a histogram handling system should be started in the collaboration, well integrated with the Online and Computing projects - FORMAT ROOT - ACCESS using DIM protocol (access mechanism should perform an automatic addition of the histograms) - Histograms produced in electronics boards will have to be converted to the ROOT framework by the access system. This should be implemented in the CCPC or Control PC. - PRESENTER : Fitting, superimposing, addition of plots, efficiency computation from raw counters, are all useful features. ROOT ? (layout, histogram scale… should not be modified by every person on shift). - ANALYSIS code will be SD specific, but based on common tools, and should be integrated in the common histogramming framework. ISTOGRAMMI

Per evidenziare canali morti o inefficienti e canali rumorosi. (+ rough check of the system stability, efficiency) Questo tipo di monitoring puo` anche essere fatto con maggiore statistica sui contatori del DIALOG che sono accessibili via ECS (per di piu’ sui canali fisici ) Bisogna vedere come si puo` monitorare via ECS e decidere (se/) come farlo anche online. Esempio M5: sul DIALOG abbiamo ~10 MHz x 5 hit / fis.ch.  ~ 2500 hit/sec per canale in media Gli istogrammi si riempiono rapidissimamente (overflow – stop a tutti i canali – trasferimento – azzeramento) Ogni quanto si interrogano gli istogrammi? Banda di trasf. disponibile? La occupancy misurata con ECS nei canali poco popolati contiene piu` noise della occupancy misurata online sugli eventi triggerati (soprattutto all’inizio se si lavora a bassa luminosita`) Cosa vogliamo monitorare Occupancy

occupancy ON LINE Histogrammi di illuminazione dei canali logici (26k) Se consideriamo 500 Hz (di eventi selezionati per il DAQ inviati a ~ 5 CPU della MF) ~1.5x x10 4 hit/ora per canale. in M2 ~3x10 3 – 1.3x10 4 in M3 Ci basterebbero ~ 100Hz? “Bisogna fare delle slice intelligenti delle regioni accorpando opportunamente i canali per evidenziare buchi (canali morti o inefficienti) e picchi (canali rumorosi). Su ciascun istogramma cosi' costruito andranno segnalati quei canali che si distaccano troppo dal comportamento medio tipico della regione/stazione, con un taglio a N sigma o cose simili”

Cluster size Monitoring del Cross-Talk (non si puo` fare via ECS) Il cluster size CS locale (average n. of adjacent hits fired per logical channel hit) puo` essere fatto su tutti gli hit. Con Xtalk 10% ~300 – 1000 eventi /canale ora in M3 Se si vuole fare una misura piu’ precisa del xtalk si possono selezionare hit di mu (per i quali si possono anche ragionevolmente sottrarre effetti di geometria e valutare il xtalk capacitivo). Misura da fare per calibrare la simulazione…Pero` un monitor sugli hit di mu canale per canale sarebbe lento. Un monitor rapido si puo` fare sul CS integrato della camera (utile test di buon funzionamento insieme con l’efficienza) Con xtalk 10% camera per camera in M3 su tutti gli hit > ~ 7x10 3 eventi/ora su gli hit mu > ~ 500 eventi/ora

Fine Timing Non si puo` fare via ECS Misura del TDC per gli hit assegnati ad una traccia Mu (bisogna fare un tracking nella MF) (gli hit di fondo hanno una distribuzione piu` larga e con massimi spostati nelle varie stazioni e regioni mentre gli hit di Mu hanno una distribuzione stretta e omogenea) # Operazione da fare nella fase di commissioning (fine tuning della sincronizzazione dei canali) # durante il data taking monitor continuo del lavoro delle camere  Average time and RMS for each logical channel. - The average allows to check that the channel is well time-aligned inside the 25 ns. - The RMS (must be ~4 ns) is a good monitor of the correct MWPC working. Considerando una rate di 500 Hz di eventi Mu  In 1 ora ~ 1.8 million muon hits per station (in M2, M3 ~ 5000 logical channels  ~~ hit/chan).

Bisogna tenere una mappa di efficienza del rivelatore Mu da aggiornare continuamente  La efficienza locale del rivelatore e` in qualche modo gia` monitorata dai tool considerati - canali morti…. (occupancy, eventualmente sistema di impulsaggio). - camere (timing e crosstalk)  Non farei misure vere e proprie di efficienza di tracking online  Bisogna studiare altri indicatori utili - stabilita` di trigger rate destra sinistra, in zone del detector. - rapporti di occupancy integrata in stazioni, regioni, … camere efficienza

Debugging e test Nella monitoring farm sara` bene preparare anche toolings software che non saranno necessariamente usati nel monitor del rivelatore a regime ma che serviranno per debugging iniziale e test. Probabilmente lo stesso manpower che prepara una cosa e` adatto a preparare l’altra. In particolare le CPU della MF sembrano il luogo ideale per test che richiederanno la acquisizione di eventi. Ci vuole una comunicazione tra i nostri PC di controllo dell’ECS e le nostre CPU della MF ?

Allineamento All’inizio durante il commissioning si avra` probabilmente molto a lungo il magnete Off. Per di piu’ sarebbe bene poter essere non dipendenti dal OT che potrebbe non essere tunato. Se si potesse fare un allineamento senza campo magnetico (ed eventualmente senza OT) sarebbe probabilmente molto utile. In seguito l’allineamento si potra` fare meglio con l’ OT e con il campo magnetico On. Quindi entrambe le procedure (allineamento con e senza campo magnetico) dovrebbero essere studiate e previste (se l’allineamento senza campo magnetico risulta significativo). Oltre a verificare se l’allineamento hardware e` adeguato (~1 mm in R1 altrimenti va rifatto), dobbiamo decidere se vale la pena di fare un allineamento software per HLT ???. In questo caso bisognerebbe prevedere un Run iniziale ogni volta che si e` aperto il detector Mu, dopo il quale si aggiornano i parametri della posizione delle camere. Per il VELO un Run speciale iniziale e` previsto dopo ogni fill (Oppure selezione di eventi tipo “Velo Alignment” dal readout supervisor ODIN, oppure uso di Nodi dedicati alla Farm)

# schedula temporale per scrivere il software di monitoring Non credo sia necessario fare del lavoro di sviluppo software urgentemente visto che sia il frame generale in cui si deve lavorare sia alcuni tool comuni non sono ancora pronti e neanche del tutto decisi. Pero` Sarebbe bene seguire da vicino gli orientamenti che si stanno formando e i progressi che si fanno nel gruppo commissioning e online. Sarebbe opportuno trovare qualcuno che possa fare lavoro vero a partire probabilmente da Settembre. # suddivisione del lavoro / responsabilita`