Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:

Slides:



Advertisements
Presentazioni simili
Fisica Subnucleare – Esperimento ATLAS
Advertisements

E835 & Hera-B Concezio Pisa, 21/12/2004. E835 (aka Jet-FNAL) timeline dell'esperimento –Presa dati conclusa nel Alcune analisi tuttora in corso.
Run I Distribuzione inclusive di Min Bias (Mult. Carica, Pt). Correlazioni dello stato finale ( -Mult) + mini-jet (soft hard physics). Campioni utilizzati:
Halina Bilokon ATLAS Proposta di studio h + - Motivazione usare tools di DC2 (Geant4, Athena, root) per studiare un canale poco inflazionato Collaborazione.
23/01/01Alberto Masoni – GR1 - Roma1 I MODELLI DI CENTRI REGIONALI POSIZIONE DI ALICE ITALIA CENTRO ITALIANO: CPU 450 KSI95, DISCO 400 TB (INSIEME TIER-1.
L. Perini CSN1 -Roma 23 Gen Centri Regionali per il calcolo di ATLAS in Italia Tier-1 e Tiers-N : funzioni, localizzazione, necessita di h/w, personale.
ALICE-Italia: IL CALCOLO
P.Capiluppi I Workshop CMS Italia del Computing & Software Roma Novembre 2001 Scopo del Workshop u Fare il punto sulle attivita italiane.
P.Capiluppi I Workshop CMS Italia del Computing & Software Roma Novembre 2001 Qualche conclusione e pianificazione per il prossimo futuro.
P. Capiluppi Organizzazione del Software & Computing CMS Italia I Workshop CMS Italia del Computing & Software Roma Novembre 2001.
Progetto EGEE “Enabling GRID for E-Science in Europe”
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
Workshop su GRID computing e calcolo avanzato Napoli, 6 maggio 2003
Stato del Tier2 di Atlas a Napoli Il ruolo dei Tier2 in Atlas La Federazione Italiana dei Tier2 Il Tier2 di Napoli Napoli, 21 Dicembre 2006 – A.Doria.
ATLAS Muon Trigger Slice Francesco Conventi per il gruppo sw ATLAS/Napoli Riunione Gruppo1, Napoli 17/12/2007.
Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
Grid Computing Sergio Andreozzi (INFN-CNAF). A chi interessano i dati prodotti da LHC? Circa 5,000 scienziati –sparsi nel mondo –appartenenti ad istituzioni/università
Grid Computing Sergio Andreozzi. Chi è interessato ad analizzare i dati generati da LHC? Circa 5,000 scienziati –distribuiti nel mondo –appartenenti ad.
Calcolo per LHCb Italia
Vincenzo Vagnoni per il gruppo di Bologna
Tier1 - cpu KSI2k days ATLAS KSI2k days CMS. Tier1 - storage CASTOR disk space CMS requires: T1D0, T0D1 ATLAS requires: T1D0, T0D1 and T1D1.
Software Computing & Challenges nei Tier 2 - ATLAS - Gianpaolo Carlino INFN Napoli IV Workshop ATLAS & CMS Bologna, Novembre 2006.
W( μ n )H( bb) Riccardo Ranieri INFN e Università di Firenze TISB Firenze Gennaio
Sviluppo di uninterfaccia grafica per la certificazione delle camere MDT al CERN Andrea Palaia Tesi di laurea di primo livello in Fisica.
Preparazione di un pannello per visualizzare e modificare le condizioni di operazione delle camere a muoni di ATLAS Gianluca Blankenburg Tesi di laurea.
1 Riunione Testbed - 17 gennaio Agenda - stato del testbed di INFN-GRID (L. Gaido) - le risorse del CNAF (A. Italiano) - report sullo stress test.
P.CapiluppiMilano 6 Marzo 2000 Paolo Capiluppi Dipartimento di Fisica e INFN - Bologna Preliminary CMS GRID-INFN.
Execution benchmarks Obiettivi Test dettagliati e ben caratterizzati Esecuzione di benchmark standard Test di applicazioni dell'esperimento ALICE 20 Novembre.
Il software delle DT Attività in corso Stato della simulazione e ricostruzione hit in ORCA Calibrazione Validazione con dati di Testbeam Testbeam Ottobre.
Il calcolo distribuito in ATLAS
Conclusioni M. Paganoni workshop CMS Italia, Napoli 13-14/2/07.
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
1 M. Biasotto – Legnaro, 22 Dicembre 2005 Prototipo Tier 2 di Legnaro-Padova INFN Legnaro.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
Alessia Tricomi Università & INFN Catania
Stato del computing Andrea Sciabà Riunione del consorzio INFN Firenze, 7 settembre 2001 Farm italiane Produzione Monte Carlo b/ Progetti di GRID.
* * Data Challenge 04 Stato dei centri di produzione in Italia.
7 ottobre 2002P. Checchia Padova Cons. di sezione1 Resoconto CSN1 Lecce settembre 2003 Cosiderazioni generali Bilancio 2004: 28 M€ (era 38.5 compreso l’anticipo.
M. Biglietti Università degli Studi di Napoli “Federico II”
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
ATLAS Distributed Analysis Lamberto Luminari CSN1 – Roma, 16 Maggio 2006.
Analysis unibo una proposta. Work flow di una tipica analisi 1.Simulazione di piccoli campioni di eventi per studio segnale 2.Generazione in grande.
1 TrigMoore: Presente e Futuro. 2 Moore e MuId sono stati adattati per funzionare nel framework di HLT Due modalità di funzionamento: Wrapped : pieno.
Ricostruzione dei muoni: Stato e piani futuri. Roma, 13 settembre 2001 Gruppo Moore Gruppo 1 Premesse Nel panorama della ricostruzione dei muoni il package.
Computing Model ATLAS & CMS
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
LNF Farm E. V. 9/8/2006. Hardware CE, LCFG, HLR, 3 WN: DL 360 1U; SE: DL 380 2U 5 WN: BL 25 P In totale 25 jobs general purpuse (coda Atlas) + una coda.
1 LHCb Computing Angelo Carbone, INFN-CNAF CSN1, 21/9/06 Aggiornamento richieste Tier Richiesta Tier-2 al CNAF Stato e risultati DC06.
Tier-2 Tier-2 ATLAS (Osservazioni sulla proposta dei referee del calcolo LHC) Lamberto Luminari CSN1 – Roma, 3 Aprile 2006.
27 gennaio 2004V. Chiarella : Calcolo ATLAS-LNF1 ATLAS-LNF CALCOLO: IL PASSATO Forze scarse; Attenzione alle attivita’ generali: Atlsim, Atlfast, Geant3/4,
Calcolo esperimenti LHC 2004 F. Ferroni, P. Lubrano, A. Martin, M. Morandin, M. Sozzi.
Halina Bilokon ATLAS Software di fisica DC1 – DC2 DC1 aprile fine 2003 (versioni di software  3.x.x – 7.x.x)  Validation del Software  Aggiornamento.
ATLAS Computing Model Lamberto Luminari CSN Gennaio, 2005.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Lecce 30 Settembre 2015.
Atlas Italia - Milano, 17/11/2009 G. Carlino – News dal Computing 1 1 News dal computing Gianpaolo Carlino INFN Napoli Atlas Italia, Milano, 17/11/09 Nuovo.
Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 1 ATLAS Attività di TeV Attività di computing Attività di computing.
Il primo anno di presa dati di LHC L’esperienza di calcolo nell’esperimento ATLAS Attività condotte nel 2010 e prospettive future Lorenzo Rinaldi (INFN-CNAF)
Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 1 Referaggio Tier2 ATLAS Attività di Computing 2009 Attività di Computing 2009 Stato dei.
1 Firenze, 6 Settembre 2011 G. Carlino – Relazione Referaggi Computing ATLAS Relezione Riunioni Referaggio Calcolo ATLAS Computing Model News Computing.
ANALISI DISTRIBUITA IN ATLAS L’esperienza degli utenti Attilio Picazio Università di Napoli “Federico II” – INFN Napoli 18/05/11Attilio Picazio - Workshop.
Referaggio Calcolo ATLAS II Gianpaolo Carlino INFN Napoli Catania, 12 Settembre 2012 Risorse e Richieste 2013 nei preventivi Aggiornamento in seguito all’allungamento.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Catania 1 Ottobre 2014.
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
ATLAS Italia – Sestri Levante, 15 Giugno 2010 G. Carlino – Richieste Run Efficiency = time for physics / total time LHC Efficiency = time with colliding.
1 Bari, 21 Settembre 2011 G. Carlino – ATLAS: il calcolo ATLAS: il Calcolo Attività di Computing nel 2011 Attività di Computing nel 2011 Richieste Tier2.
Il calcolo per l’esperimento GERDA Luciano Pandola INFN, Laboratori del Gran Sasso Riunione della CSN2, LNF Frascati, 29 Novembre 2011.
Referaggio Calcolo ATLAS Gianpaolo Carlino INFN Napoli CNAF, 11 Maggio 2012 Attività di Computing ATLAS Attività di Computing in Italia Risorse e Richieste.
L.Perini Milano: 10 Gennaio Ex-ATLAS-Grid (Tier2 incluso) l Ruolo dei Tiers in ATLAS e grid l Le persone di Milano e le attività l Le infrastrutture.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Stima risorse LHC LHC - Tier2 2 periodi
Transcript della presentazione:

Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software: Simulazione Trigger Muoni LVL1 Ricostruzione OO Muoni Data Challenge Computing: Grid Data Challenge

Software I Stato del Software di Atlas: Scelta dellOO consolidata ed accettata da quasi tutti. Transizione quasi completata. Framework ATHENA funzionante. MOORE nato in ATHENA Simulazione del trigger LVL1 ora in OO e quasi in ATHENA Programma di Ricostruzione Muoni (MOORE) Ricostruzione nello Spettrometro Ricostruzione combinata con il tracker Uso off-line e on-line (Event Filter)

Software II Simulazione del LVL1 Barrel Muon Trigger: Step 1 – Definizione delle Matrici di Coincidenza (cabling, Layout P) e delle Finestre di Trigger completato anche per i settori speciali (piedi). Risultati disponibili per la programmazione dellelettronica di trigger e inseriti nel programma di simulazione. Step 2 – Studio delle Performances con Muoni Singoli Step 3 – Studio dettagliato del rumore nel barrel Step 4 – Studio delle Performances con Muoni proveniente da decadimenti del B. Step 5 – Pubblicazioni (a vari livelli)

Software III Data Challenge DC0 – 2001/ Verifica funzionamento Software esistente DC /2003 – Produzione Monte Carlo e Ricostruzione in Athena ( dati prodotti in Geant 3 Zebra e riconvertiti in ROOT). 39 siti impegnati, 5% usano tool di Grid DC2 – 2003/2004 – Uso di Geant 4 nella produzione e del software di Grid. Analisi Fisica.

Computing I Struttura gerarchica del Calcolo in Tiers: Tier 0 – Cern. Mass Storage Raw Data (2 MB/evento) Tier 1 – Grandi Centri Regionali Multiesperimento. Sistema di Robotica e Mass Storage. 1/3 dati in formato ESD (Event Summary Data, output ricostruzione. 500KB/evento). Tier 2 – Storage dati in formato AOD (Analysis Object Data, 10KB/evento). Analisi e Produzione Monte Carlo. Tier 3 – Produzione Monte Carlo e storage DPD (Derived Physics Data, 1KB/evento). Analisi specifiche. Non aperto allesterno Il Lhc Computing Grid project (LCG) coordinera e finanziera il computing di Atlas. I Tier1 e alcuni Tier2 faranno parte della cosiddetta Atlas Cloud.

Computing II Modello Computing Atlas Italia Tier 1 – CNAF. Tier 2 - Milano, Roma 1 e Napoli. Tier 3 – quasi tutte le altre sezioni. Napoli e Tier3 e diventera Tier2 nel Completo accordo nella collaborazione italiana. Ruolo importante nel progetto EGEE (Enabling Grid for E-Science in Europe). Risorse minime per essere Tier 2: 50 CPU, 5 TB disco e 2 FTE. Upgrade della nostra Farm.