Stato di Atlas Maggio 2009. Outline Attivita’ sul rivelatore –Verifica di funzionamento e timing –Interventi per riparazioni e completamento installazioni.

Slides:



Advertisements
Presentazioni simili
Mario Paolo Giordani 1 Pixel Online Monitoring Responsabile ATLAS: Mario Paolo Giordani Scopo: verifica in tempo reale del funzionamento del.
Advertisements

1 Muon commissioning & prospettive Global Runs - Attivita di commissioning con i cosmici (run locali, indipendenti dal resto di CMS): - check sistematico.
L.Mandelli _CSN1_Settembre 02 LAr 2003 Stato della calorimetria Elettromagnetica Stato delle responsabilità INFN. Attività e responsabilità future del.
P. Capiluppi Organizzazione del Software & Computing CMS Italia I Workshop CMS Italia del Computing & Software Roma Novembre 2001.
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
G. Pugliese Bari, 20 May 2005 I rivelatori a Resistive Plate Chambers G. Pugliese per la Collaborazione CMS di Bari.
ATLAS Muon Trigger Slice Francesco Conventi per il gruppo sw ATLAS/Napoli Riunione Gruppo1, Napoli 17/12/2007.
Queuing or Waiting Line Models
A. Di Ciaccio Riunione RPC 17 luglio 2002 Lecce Test ad X5-GIF (3-10 luglio 2002) Scopi del test (discussi tra di noi,con i referee ed al GruppoI a giugno)
Paolo Bagnaia - 10 January invecchiamento. elettronica di read-out; shielding (MDT, RPC, …); HLT + DAQ; _________________________ NB :non include.
Sistema automatico di misura della resistività. QC HPL Gennaio – Novembre 2004.
M. Biglietti Università degli Studi di Napoli “Federico II”
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
Simone Gennai INFN Sez. di Pisa I.F.A.E Strategie di trigger per eventi SUSY a LHC.
Commissione 1, Roma, 3 Aprile 2007M. Villa Stato del LUCID M. Villa per il LUCID group Storia recente Nuova strategia rivelatore Tests su fascio Tests.
1 referee-ATLAS CSN I, Roma 2-3/4/2007 RELAZIONE DEI REFEREE DI ATLAS F. Bedeschi, R. Carlin, S. Dalla Torre, N. Pastrone 3 aprile 2007.
CMS RPC R&D for phase 2 Two types of upgrades proposed for the CMS RPC muon system: 1.Aging and longevity: installed in 2007, must continue to operate.
16 Maggio CSN1 Computing-Software-Analysis CMS-INFN TEAM Analisi in CMS: stato e prospettive del supporto italiano.
Sezione di Padova Contributo alla costruzione dei layers 6,7 Possibili task per PADOVA:  precedente proposta: R&D della procedura di assemblaggio degli.
G. Costa, Roma 16 maggio 2006 Commissione I LAr: status report 1.
News da LHC… *** Discussion title: CMS Commissioning Notes from 09:00 meeting Current fill (1182) has now been in stable beams for >12 hours. Delivered.
CMS RPC R&D for phase 2 Two types of upgrades proposed for the CMS RPC muon system: 1.Aging and longevity: installed in 2007, must continue to operate.
Stato del progetto RPC Trieste 6 Luglio 2005 Riunione CSN1 R. Santonico.
Attivita` di TileCal 2013 C.Roda Universita` e INFN Pisa Riunione referees ATLAS Roma 1 C.Roda Universita` e INFN Pisa.
G. Martellotti Roma RRB 16 Aprile Presentazione M&O cat A (per LHCb i M&O cat B sono gestiti autonomamente e non sono scrutinati fino al 2005/2006)
1 LHCb Computing Angelo Carbone, INFN-CNAF CSN1, 21/9/06 Aggiornamento richieste Tier Richiesta Tier-2 al CNAF Stato e risultati DC06.
M. Citterio Roma 10 Gennaio 2006 Costo per l’upgrade del Calorimetro Elettromagnetico ad Argon Liquido di Atlas Mauro Citterio INFN Milano.
Preparazione RRB Commissione Scientifica Nazionale I 1-2 aprile 2003 S. Patricelli Consuntivo fondi M&O 2002 Divisione tra subdetectors dei fondi extra-CORE.
ATLAS Status Report S. Patricelli 6 aprile Sommario Commissione Scientifica Nazionale I 5-6 aprile 2004 S. Patricelli Highlights and concerns dei.
SUMMARY Time domain and frequency domain RIEPILOGO Dominio del tempo e della frequenza RIEPILOGO Dominio del tempo e della frequenza.
Il commissioning dell’esperimento ATLAS a LHC A. Andreazza Università di Milano e I.N.F.N. a nome della Collaborazione ATLAS.
I sistemi di gas dei rivelatori di muoni del barrel di CMS (DT e RPC) Paolo Giacomelli - INFN Bologna.
23 Settembre 2004Nino Del Prete1 TileCal, Stato del rivelatore Stato dei lavori in corso: Commissioning/Installazione Test Beam Combinato Analisi Cosa.
Lecce, 25 Settembre 2003 Gruppo I C.Roda for the Pisa ATLAS group 1 ATLAS – TileCal Sommario : Verso un Tile calorimeter intero: preassemblaggio e commissioning;
MUG-TEST A. Baldini 29 gennaio 2002
Halina Bilokon ATLAS Software di fisica DC1 – DC2 DC1 aprile fine 2003 (versioni di software  3.x.x – 7.x.x)  Validation del Software  Aggiornamento.
CSN M. Diemoz CMS – RRB24 SOLDI INVESTITI BENE...
P. Paolucci - I.N.F.N. di Napoli 1 31 agosto 2006 L. Lista – INFN - 100%F. Fabozzi - Univ Bas - 100% S. Mele – INFN - 100%N. Cavallo - Univ Bas - 100%
SUMMARY Transmission and distribution of the electric energy RIEPILOGO Trasmissione e distribuzione dell’energia elettrica RIEPILOGO Trasmissione e distribuzione.
INFN-ITSupgrade meeting CERN, 24 Aprile 2013 V. Manzari Agenda:  Stato del progetto con particolare riguardo alle attività di nostra pertinenza  Proposta.
P5  2009 shifts VS shifts until the end of 2009  2010 plan.
L. Carminati - P. GovoniIII Workshop sull fisica di ATLAS-CMS1 sessione di discussione uno spunto: la calibrazione in situ dei rivelatori CALORIMETRI ELETROMAGNETICI:
1 6 maggio 2009Attivita' e richieste CSM Frascati - Stefano Bianco 1 Closed Loop e Gas Gain Monitoring Il Closed Loop e’ in operazione stabile dopo lo.
Presentazione documenti inviati al RRB e piani futuri Commissione Scientifica Nazionale I 13 ottobre 2003 S. Patricelli Punti principali in discussione.
CMS RPC ITALIA' , Settembre Ischia-ITALIA RPC DCS Giovanni Polese.
ATLAS al SLHC ( L=10 35 cm -2 s -1 √s= 14 TeV) Cosa è stato fatto: - Giugno 2004 : creato uno Steering Group “leggero” con il compito di organizzare workshop.
Storage (ieri, oggi e domani) Luca dell’Agnello INFN-CNAF.
News LHC recommissioning is continuing Sucessfully achieved so far 4 TeV beams, 0.6 m beta* (at least with few bunches) Some beam splashes last week; still.
News da ATLAS Sintesi del run performance - risultati Intervento di manutenzione Prospettive 2011 e implicazioni 1/24/20111Leonardo Rossi - ATLAS.
Atlas Italia - Milano, 17/11/2009 G. Carlino – News dal Computing 1 1 News dal computing Gianpaolo Carlino INFN Napoli Atlas Italia, Milano, 17/11/09 Nuovo.
Atlas status report. Status of the Atlas detector The detector is fully installed (leaving out only parts staged according to 2004 plan : TRT wheel C,
Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 1 ATLAS Attività di TeV Attività di computing Attività di computing.
Riunione su Fisica W e Z Contributo del gruppo di Roma ATLAS-PHYSICS-ITALIA Roma-1, 1° Aprile 2008.
Interessi e richieste finanziarie per IBL. 2 IBL Lay-out 2  Since IBL is an additive layer, its radiation length has to be extremely small  Geometry.
Atlas TDAQ E. Pasqualucci INFN Roma. Sommario Attivita’ di fine 2008 – inizio 2009 Preparazione per i run con fasci Trigger con luminosita’ iniziali 16/9/20092E.
Lina, Paolo, Tonino, Riccardo.   An assessment of the need for a photo-production facility and its design  The neutron part should not exceed 20 pages.
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
ATLAS Italia – Sestri Levante, 15 Giugno 2010 G. Carlino – Richieste Run Efficiency = time for physics / total time LHC Efficiency = time with colliding.
TGC upgrade for SLHC (ATL-P-MN-0028 ) Fra le parti più colpite dall’aumento di rate previsto a SLHC ci sono le Small Wheels Le TGC con catodo a bassa resistività.
TOTEM review a LHCC C. Cecchi CSN1, Parma 24/09/2010 CSN1, Parma 23/09/10C. Cecchi  STATO DELL’ESPERIMENTO & PHYSICS PLAN 2010/2011  INSTALLAZIONE DI.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Atlas TDAQ status. USA15 SDX1 Gigabit Ethernet Event data requests Delete commands Requested event data Regions Of Interest LVL2 Super- visor Network.
Atlas CSN1 25 Novembre 2008.
Calorimetro LAR ATLAS Italia Roma 28 novembre 2008
Stato di Tilecal al 10/09/2008 (primo fascio)
ONEDATA - distributed data caching -
Accelerator Disision March 3rd 2015
Atlas Milano Giugno 2008.
Study of Bc in CMSSW: status report Silvia Taroni Sandra Malvezzi Daniele Pedrini INFN Milano-Bicocca.
Preliminary results of DESY drift chambers efficiency test
Transcript della presentazione:

Stato di Atlas Maggio 2009

Outline Attivita’ sul rivelatore –Verifica di funzionamento e timing –Interventi per riparazioni e completamento installazioni Computing Preparazione alla fisica

Il rivelatore Atlas e’ stato pronto quando si sono avuti i primi fasci circolanti in LHC con tutte le sue parti funzionanti. Sono stati raccolti eventi prodotti dai fasci che sono stati usati per il timing delle diverse parti del rivelatore. Alla fermata di LHC, si sono fatti run di cosmici per diverse settimane per accumulare un’alta statistica di eventi per il debugging e la messa a punto del rivelatore. A novembre si e’ aperto il rivelatore e si e’ proceduto agli interventi per effettuare le riparazioni necessarie e completare l’installazione di componenti. Overview dell’attivita’ sul rivela tore

Beam Splash Events Tertiary 140 m Beam 175 m Minimum Bias Trigger Scintillators

E’ chiaramente visibile la struttura a 8 picchi in φ indotta dal toroide endcap a grandi raggi ( S1, S2, S3). La struttura a 16 picchi e’ dovuta a materiale addizionale e agli schermi a piccoli raggi) (Presampler PS). Calorimetro a LAr La somma di 100 ‘splash events’ del 10 settembre 2008

La struttura in φ (8 picchi) visibile nel plot ottenuto dagli eventi di ‘beam splash’ registrati il 10 settembre 2008 e’ dovuta al materiale del toroide EC davanti al Tilecal per particelle che colpiscono Atlas dal side C. Anche la asimmetria up -down e’ dovuta a differenti materiali davanti al rivelatore. Calorimetro a Tile

Trigger Timing with Single Beams L1 trigger timing distribution, Sep 10 th BPTX trigger for stable time reference wrt LHC (BC 0) Poor beam quality – large numbers of muon and calorimeter triggers Two-peak structure in TGC (endcap muon) trigger due to time of flight of muons  length of ATLAS ~5 bunch crossings! L1 trigger timing distribution, Sep 12 th Triggered by MBTS (BC 0), which had been timed in relative to BPTX  good overlap between these triggers Few other triggers – indication of improved beam quality. RPC (barrel muon) trigger had not been timed in prior to this run.

LUCID Durante lo shutdown si stanno effettuando controlli, riparazioni e migliorie (controllo di alcuni canali malfunzionanti, di gas leaks, miglioramento isolamento termico cavi, controllo remoto gas system, etc.) Segnale di LUCID, 10 settembre 2008

‘Combined Running’ con Cosmici Allineamento tra differenti detectors Misura di ‘hit efficiency’ Ampio range di energia Spettro di E T con cosmici –Somma di tutte le celle con |E| > 2  –MC normalizzato ai dati tra GeV –Eccesso alle E T piu’ alte probabilmente dovuto a air showers (non inclusi nella simulatione )

Cosmic rays data v. presentazione di A.Andreazza

Shutdown A meta’ novembre decisione di ‘aprire’, accedere all’interno del rivelatore iniziando il primo periodo di ‘full shutdown’ di Atlas A meta’ dicembre 2008 il rivelatore era in ‘full open configuration’ Side ASide C Side A Side C

Action taken End of November 2008 decision to retrofit for the second time 66 FE-LVPS All devices removed and sent to the selected firm As of today all but 2 PS back and installed Barrel and 1 end cap fully instrumented and qualified Second end cap will be ready in one week This is driving the detector closing schedule LVPS backup solution plan has started Companies have been contracted to develop a new FE-LVPS as part of this process 2 firms have been selected to provide prototypes in 2009 for a deep investigation, green light given, the process has started If all positive we have the possibility to finish mass production by the second half of 2010 All this as part of the existing financial plans (M&O B) Low Voltage power supplies for the LAr

ID evaporative cooling plant (compressors) From end of July to beginning of November the installation has been running for 96% of the time for an overall of hours Major events occurred in October (after ~2000 h): four cracks on compressor collectors. The system was kept operational under strict surveillance to keep the ID cosmic runs operational The mechanical problems where associated to stress due to vibration & excitation of pipes and collectors by pressure oscillations of the gas at the rotational frequencies All compressors were sent back to the producer for a major rework of the piping and their welding, after a major review of the piping geometry and their welding qualification

ID evaporative cooling plant (compressors) 4/7 compressors are back in place, reinstalled and operational. The system will be put in operation in the next few days At the same time we have worked on the distribution racks in the main cavern to allow a better functionality and more modularity in the operation. Mid May all this will be operational again and the ID can restart The cooling compressor plant represents a clear single point of failure, very complex to operate. its reliability is unpredictable We plan to R&D, design and then implement a new plant using a different technology, it will take 2-3 years of work. We will come back in October with more detailed plans

Shutdown 08/09 problems fixing Fix various electronics/LV problems on the calorimeters Consolidation work on the ID cooling and environment gas systems (fix some loops if possible, fix/improve distribution racks, thermal analysis at the level of the ID end plate, fix some optical readout problems,…) Turn on and check the Small Wheels chambers, in particular TGCs, access possible damages, change few EIL4 broken TGC chambers Fix as much as possible all gas leaks in the RPC and MDT chambers (1 tower was problematic), finish barrel hardware commissioning for RPCs Change to RADHARD the optical fibers in the MDT wheels (this requires opening the wheels) Fix small problems in electronics front end systems (FEB in the LAr, Drawers in the Tiles, CSM boards in the Muons, Optical links in the SCT,….) Goal : bring known problems from % to % 0 where possible

EE muon chambers Un anello di camere di precisione nel barrel (EE chambers) ‘ staged’ per essere costruite e istallate in seguito, per la ‘nominal Luminosity’ (secondo il ‘plan of staging’ di Atlas) Le camere EE sono state costruite e trasportate al Cern nel 2008, pronte per essere integrate, qualificate e installate Dopo lo stop di LHC si e’ deciso di usare il lungo shutdown 2008/2009 per anticipare di un anno l’istallazione Il piano e’ di istallare 7 delle 16 stazioni e la maggior parte delle strutture di supporto prima di chiudere Atlas in Agosto Tutto cio’ ha richiesto molto lavoro ingegneristico e di preparazione di materiali

TDAQ I principali componenti del sistema di trigger e data acquisition (Level1-Calo, Level1-Muon, CTP, HLT, DAQ e DCS) sono stati in operazione al Point-1 di continuo, per molti mesi. L’intera catena funziona bene e continua ad essere testata e ottimizzata sia con dati reali (run di cosmici) che effettuando ‘technical runs’ speciali, per testare e spingere il sistema a performance sempre migliori, oltre i limiti di progetto. Durante il periodo di shutdown é stata prodotta una nuova versione del tdaq –I principali miglioramenti introdotti riguardano la protezione del ‘configuration database’ del DAQ e l’implementazione di procedure di ‘ recovery ’ –In preparazione release di SLC 5 e full 64 bits –1 giorno a settimana viene dedicato a tdaq test/maintenance Ricominciati runs regolari –‘System integration weeks’

TDAQ HLT –Aggiunta possibilità di pre-scaling dinamico Attualmente sotto test –Riprogettato il monitoring –Studiata la ‘robustness’ rispetto alle condizioni del detector –I menus evolvono e si adattano sempre piu’ alla fase di data taking In preparazione la documentazione per ‘operation maintenance’ Piani generali –Tutto secondo la pianificazione di fine 2008 –Network re-cabled Preparazione per estendere il sistema 10 racks da istrumentare per fine anno

next few months Shutdown Schedule

Plans to get the detector fully operational for October

Pixel Insertable b-layer (IBL) -Una Task Force interna ad Atlas ha elaborato una strategia per IBL (2008) Attualmente tutto e’ pronto per definire tecnicamente il progetto. Nei prossimi 8 mesi e’ prevista la sottomissione di un TDR a LHCC per approvazione Nominato dal CB un Project Leader (G.Darbo), con il mandato di proporre e implementare un progetto per realizzare, istallare e mettere in funzione l’IBL per il 2014 Il piano di Atlas e’ di preparare, in parallelo con la scrittura del TDR, un MOU tra i vari istituti partecipanti, da presentare entro un anno

Computing

Xmas 2008 and Spring 2009 campaings attività di ricostruzione dei dati: cosmici e single beam (caratteristiche peculiari: accesso al tape e ai conditions data) la sw release e il contenuto del conditions DB validati dal Data Preparation Coordination Output (DPD, AOD, ESD, TAG, N-tuples) distribuiti nei T1 eT2 secondo il CM Target: efficienza > 99% T1CACERNDEESFRITNDNLUKUSSum Tot jobs Done % Aborted % Xmas Spring Netto miglioramento del rate di errori 0.3% contro 3.5% Il CNAF ha superato entrambe le validazioni. Error rate 0.5% (contro 4.4%) dovuto soprattutto a un task che richiedeva >2GB di memoria

Commissioning di Analisi Distribuita (Hammer Cloud) stress test iniziato in Italia, prima cloud in Atlas, in novembre AOD based analysis (soprattuttomuoni), use-cases definiti da alcuni utenti, 2 italiani. ~ 200 job lanciati contemporaneamente per saturare un Tier2 medio un test alla settimana, permette di verificare la stabilita’ dei siti o evidenziare problemi temporanei Risultati ottenuti ottimizzazione delle configurazioni dei siti LAN. Verificata la necessita’ di avere una connessione a 10Gbps tra WN e Storage 3 Hz di event rate con LAN a 1 Gbps, 10 Hz a 10 Gbps modalita’ di trasferimento degli input file sui WN ottimizzazione dell’accesso ai dati accesso diretto ai dati nello storage (protocollo RFIO) Athena File Stager: copia dei file su WN Esempio: Efficienza dei job (%) e Event Rate (Hz)

Replica Database del Catalogo locale LFC ogni Tier1 ospita il catalogo LFC che contiene le informazioni sulla locazione dei file nell’intera cloud LFC non e’ normalmente replicato altrove per cui se il Tier1 e’ down l’intera cloud e’ costretta a fermarsi. Pericoloso Single Point of Failure in Italia abbiamo avuto molti problemi nel 2008 a causa dell’instabilita’ del CNAF, soprattutto nella prima parte dell’anno, si e’ reso quindi necessario individuare un sistema di failove con l’aiuto del CNAF si e’ messa a punto un replica in standby del DB oracle al Tier2 di Roma (con il sistema DATAGUARD). Questa replica viene constantemente aggiornata real time e, quando il DB principale al CNAF viene spento, ne assume automaticamente le funzionalita’. Ritorno automatico al DB del CNAF quando questo ritorna in operazione Test effettuato durante lo spegnimento del CNAF a marzo/aprile per lo spostamento delle risorse del Tier1 nella sala finale: il DB di Roma e’ entrato in funzione immediatamente e non c’e’ stata alcuna interruzione di attivita’ in Italia Attualmente il CNAF e’ l’ unico Tier1 di Atlas ad avere la replica dell’LFC

Programmi futuri: STEP09 Commissioning Combinato del Computing degli esperimenti LHC (ex CCRC08 ) Cosa si vuol testare: Full Computing Model: Data Distribution Detector data reprocessing MC simulation and re-reconstruction Analysis Scrittura e lettura simultanea su tape Priorita’ di processamento e shares nei T1 e T2 Tutto al rate nominale per 2 settimane Simultanemante con tutti gli altri esperimenti Quando? Week 0: Maggio setting up dei test a basso rate Week 1: 1-8 Giugno Week 2: 8-12 Giugno Week 3: Giugno contingenza reporting

Preparazione alla Fisica Mantenimento del buon profilo dei gruppi italiani nella fisica di ricerca (Higgs, SUSY, Esotici). Intensificazione e organizzazione dello sforzo su attivita' legate alla fisica iniziale: - W/Z: vasta comunita' con forte impatto sul gruppo di fisica di Atlas sia a livello di preparazione degli strumenti comuni, sia nello sviluppo di analisi complete. Eccellente integrazione con attivita' di comprensione rivelatore, in particolare muoni. - top: sforzo rivolto alle analisi di commissioning, posizione leader nel gruppo misura sezione d'urto. - jets: partecipazione in prima linea alla ridefinizione dell'approccio di ATLAS alla ricostruzione dei jet e alla calibrazione in situ della loro energia attraverso gli eventi gamma-jet. - Etmiss: posizione guida nell‘attivita' di Etmiss commissioning. - fotoni diretti: trasferimento di eccellente esperienza su ricostruzione e calibrazione del calorimetro LAr a canale di fisica Standard Model.

SPARES

Brief History First refurbishing campaign of LVPS was made between Failure of three LVPS on detector within 24h April 2008 Failed LVPS were exchanged before closing of ATLAS During the 2008 running period: ALL LVPS ON and working One failed (INHIBIT mechanism) and was repaired in situ Two failed and redundancy has been operational LVPS architecture modules delivering +4V, -4V, +6VA, +6VD, +7V, -7V, +11V N+1 redundancy built in: sourcing full power even if one module fails During 2008: three types of failures Single Point of Failure at the Over-Temperature Internal Interlock Failure of the pulse modulator soft-startup capacitor Arching underneath power transformer between PCB copper traces Low Voltage power supplies for the LAr

Calorimeter Timing with Beam Tile signal timing Time dispersion within partitions ~2ns Differences between partitions < 1 BC Raw timingTOF corrected Horizontal muons from halo & splash provide checks on timing LAr physics vs calibration pulse timing Measure time from pulse profile + TOF Predict timing from calibration pulses + cables Most agree < 2ns

TDAQ After the cosmic run –Trigger operation –Support of detector operation –System maintenance New version of tdaq produced during shutdown –Main improvements: Automatic check and protection of daq configuration database Stop-less recovery implementation cleanup –Preparation for SLC 5 and full 64 bits release –1 day/week dedicated to tdaq test/maintenance Regular runs restarted –System integration weeks

TDAQ HLT –Possibility of dynamic pre-scale added Currently under test –Monitoring re-designed –Study of robustness wrt detector conditions –Evolution of menus for data taking Documentation for operation maintenance –1 dedicated week planned mid May General plans –Proceeding as planned at the end of 2008 –Network re-cabled Prepared to expand the system 10 racks to be instrumented by the end of the year