1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.

Slides:



Advertisements
Presentazioni simili
Fisica Subnucleare – Esperimento ATLAS
Advertisements

E835 & Hera-B Concezio Pisa, 21/12/2004. E835 (aka Jet-FNAL) timeline dell'esperimento –Presa dati conclusa nel Alcune analisi tuttora in corso.
Run I Distribuzione inclusive di Min Bias (Mult. Carica, Pt). Correlazioni dello stato finale ( -Mult) + mini-jet (soft hard physics). Campioni utilizzati:
Halina Bilokon ATLAS Proposta di studio h + - Motivazione usare tools di DC2 (Geant4, Athena, root) per studiare un canale poco inflazionato Collaborazione.
U.Gasparini, Bologna 8/11/06 1 Canali di fisica di interesse… Discussione in seno alla comunita italiana di CMS a Bologna, Giovedi mattina 23 Novembre,
23/01/01Alberto Masoni – GR1 - Roma1 I MODELLI DI CENTRI REGIONALI POSIZIONE DI ALICE ITALIA CENTRO ITALIANO: CPU 450 KSI95, DISCO 400 TB (INSIEME TIER-1.
L. Perini CSN1 -Roma 23 Gen Centri Regionali per il calcolo di ATLAS in Italia Tier-1 e Tiers-N : funzioni, localizzazione, necessita di h/w, personale.
L'uso attuale di Grid negli esperimenti LHC e realizzazione di HEPCAL
ALICE-Italia: IL CALCOLO
P. Capiluppi Organizzazione del Software & Computing CMS Italia I Workshop CMS Italia del Computing & Software Roma Novembre 2001.
Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
Progetto EGEE “Enabling GRID for E-Science in Europe”
Workshop su GRID computing e calcolo avanzato Napoli, 6 maggio 2003
Stato del Tier2 di Atlas a Napoli Il ruolo dei Tier2 in Atlas La Federazione Italiana dei Tier2 Il Tier2 di Napoli Napoli, 21 Dicembre 2006 – A.Doria.
Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
Grid Computing Sergio Andreozzi (INFN-CNAF). A chi interessano i dati prodotti da LHC? Circa 5,000 scienziati –sparsi nel mondo –appartenenti ad istituzioni/università
Grid Computing Sergio Andreozzi. Chi è interessato ad analizzare i dati generati da LHC? Circa 5,000 scienziati –distribuiti nel mondo –appartenenti ad.
Vincenzo Vagnoni per il gruppo di Bologna
Tier1 - cpu KSI2k days ATLAS KSI2k days CMS. Tier1 - storage CASTOR disk space CMS requires: T1D0, T0D1 ATLAS requires: T1D0, T0D1 and T1D1.
Software Computing & Challenges nei Tier 2 - ATLAS - Gianpaolo Carlino INFN Napoli IV Workshop ATLAS & CMS Bologna, Novembre 2006.
W( μ n )H( bb) Riccardo Ranieri INFN e Università di Firenze TISB Firenze Gennaio
STATO DEL TIER 1 & FARM di Sezione Alessia Tricomi per M. DAmato, N. De Filippis, L. Silvestris, S. Costa, A. Tricomi, V. Ciulli, N. Magini, C. Marchettini,
H ZZ (*) e + e D. Giordano CMS TISB. TISB, Firenze 15-16/01/03D. Giordano2 Il bosone di Higgs ad LHC gluon fusion ---dominante ZZ e WW fusion bremsstrahlung.
Michele Michelotto INFN-Padova
LNL M.Biasotto, Bologna, 13 dicembre La farm di Legnaro Massimo Biasotto – INFN LNL.
Il calcolo distribuito in ATLAS
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
1 M. Biasotto – Legnaro, 22 Dicembre 2005 Prototipo Tier 2 di Legnaro-Padova INFN Legnaro.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
Benigno Gobbo – INFN Trieste 1 CSNI 21 maggio 2001 Stato della farm di COMPASS-TS CSNI Roma, 21 maggio 2001 Benigno Gobbo INFN Trieste
Alessia Tricomi Università & INFN Catania
Stato del computing Andrea Sciabà Riunione del consorzio INFN Firenze, 7 settembre 2001 Farm italiane Produzione Monte Carlo b/ Progetti di GRID.
Catania, 4 settembre 2003 Mass Tagging D. Benedetti, M. Biasini, L. Fanò Infn e Università degli studi di Perugia.
* * Data Challenge 04 Stato dei centri di produzione in Italia.
Sommario: il testbed CMS/LCG0 e la configurazione della farm di Bari sviluppo software/tool di produzione per CMS e GRID. eventi in produzione per il.
Big Data e Big Science Alberto Di Meglio CERN openlab CTO DOI: /zenodo.8610.
7 ottobre 2002P. Checchia Padova Cons. di sezione1 Resoconto CSN1 Lecce settembre 2003 Cosiderazioni generali Bilancio 2004: 28 M€ (era 38.5 compreso l’anticipo.
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
Analysis unibo una proposta. Work flow di una tipica analisi 1.Simulazione di piccoli campioni di eventi per studio segnale 2.Generazione in grande.
Manutenzioni e Mezzi di Calcolo Paolo Morettini – INFN Genova Valerio Vercesi – INFN Pavia CSN1 - Catania Settembre 2002.
1 TrigMoore: Presente e Futuro. 2 Moore e MuId sono stati adattati per funzionare nel framework di HLT Due modalità di funzionamento: Wrapped : pieno.
Ricostruzione dei muoni: Stato e piani futuri. Roma, 13 settembre 2001 Gruppo Moore Gruppo 1 Premesse Nel panorama della ricostruzione dei muoni il package.
Test Storage Resource Manager per SC4 Giacinto Donvito Vincenzo Spinoso.
16 Maggio CSN1 Computing-Software-Analysis CMS-INFN TEAM Analisi in CMS: stato e prospettive del supporto italiano.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
11 Novembre 2002Laura Perini - CSN1 Perugia1 Calcolo e Software di Atlas Overview Organizzazione ATLAS Softare/Computing e ruolo INFN Data Challenges GRID.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
23 Giugno CSN1 P. Capiluppi CMS Computing 2003 e oltre u Stato e richieste u LCG e CMS u Modello di Calcolo CMS.
LNF Farm E. V. 9/8/2006. Hardware CE, LCFG, HLR, 3 WN: DL 360 1U; SE: DL 380 2U 5 WN: BL 25 P In totale 25 jobs general purpuse (coda Atlas) + una coda.
Attivita' Grid in BaBar Workshop sulle Problematiche di Calcolo e Reti nell'INFN Maggio 2004.
1 LHCb Computing Angelo Carbone, INFN-CNAF CSN1, 21/9/06 Aggiornamento richieste Tier Richiesta Tier-2 al CNAF Stato e risultati DC06.
Tier-2 Tier-2 ATLAS (Osservazioni sulla proposta dei referee del calcolo LHC) Lamberto Luminari CSN1 – Roma, 3 Aprile 2006.
Grid nelle sezioni: Milano Luca Vaccarossa INFN – Sezione di Milano Workshop sulle Problematiche di Calcolo e Reti nell'INFN.
Calcolo esperimenti LHC 2004 F. Ferroni, P. Lubrano, A. Martin, M. Morandin, M. Sozzi.
1 Calcolo e software G. Bagliesi 23/3/01 Riassunto riunione calcolo Bologna 19/3/01 B/tau : futuri miniworkshop.
Halina Bilokon ATLAS Software di fisica DC1 – DC2 DC1 aprile fine 2003 (versioni di software  3.x.x – 7.x.x)  Validation del Software  Aggiornamento.
La Farm di Alice a Torino Workshop sulle problematiche di calcolo e reti Isola d’Elba 6-9 maggio 2002 Mario Sitta (Università del Piemonte Orientale e.
CDF Calcolo Another brick in the wall Paolo Morettini CSN1 Lecce Valerio Vercesi Settembre 2003.
Online U. Marconi Milano, 21/9/ ~ 9000 optical link 40 MHz PCIe based readout 30 MHz × 100 kB/evt 5 Gb/s, 300 m long fibres from the FEE directly.
D. Martello Dip. Fisica - Lecce Sintesi piani esperimenti CSN2 CNAF 7-marzo-2007.
Atlas Italia - Milano, 17/11/2009 G. Carlino – News dal Computing 1 1 News dal computing Gianpaolo Carlino INFN Napoli Atlas Italia, Milano, 17/11/09 Nuovo.
Referaggio Calcolo ATLAS II Gianpaolo Carlino INFN Napoli Catania, 12 Settembre 2012 Risorse e Richieste 2013 nei preventivi Aggiornamento in seguito all’allungamento.
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
ATLAS Italia – Sestri Levante, 15 Giugno 2010 G. Carlino – Richieste Run Efficiency = time for physics / total time LHC Efficiency = time with colliding.
Il calcolo per l’esperimento GERDA Luciano Pandola INFN, Laboratori del Gran Sasso Riunione della CSN2, LNF Frascati, 29 Novembre 2011.
L’infrastruttura del progetto ReCaS Paolo Lo Re on behalf of ReCaS collaboration.
Referaggio Calcolo ATLAS Gianpaolo Carlino INFN Napoli CNAF, 11 Maggio 2012 Attività di Computing ATLAS Attività di Computing in Italia Risorse e Richieste.
L.Perini Milano: 10 Gennaio Ex-ATLAS-Grid (Tier2 incluso) l Ruolo dei Tiers in ATLAS e grid l Le persone di Milano e le attività l Le infrastrutture.
Domenico Elia1 Calcolo ALICE: stato e richieste finanziarie (aggiornamenti) Domenico Elia Riunione Referee Calcolo LHC / Bologna, Riunione con.
Transcript della presentazione:

1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede di rete a 100 Mb/s, 1 scheda di rete a 1 GB/s, 300 GB storage (RAID 5). 100 Mb/s

2 La farm di ATLAS-Napoli (sw) Cluster diskless: i nodi fanno boot dal server via rete e montano il disco sistema dal server ( Etherboot, ClusterNFS ). Redhat 6.2. sistema di code PBS. distribuzione RPM del software di Atlas (v 4.0.1). prossimamente tools GRID.

3 Atlas Data Challenge (I) DC1 Phase I: April-Sept 2002: Goals Generation of data for HLT TDR (Pythia). Full simulation of detector response in ATLSIM (Fortran framework). DC1 Phase II: Oct 2002 – May 2003: Goals Pile-Up Production (High and Low Luminosity) Large scale Grid test in November/December in preparation for reconstruction Reconstruction start March 2003

4 Atlas Data Challenge (II) DC2: Q3/2003 – Q2/2004: –Goals Full deployment of Event Data Model & Detector Description Geant4 replacing Geant3 Pile-up in Athena ( OO framework) Test the calibration and alignment procedures Use LCG common software Use widely GRID middleware Perform large scale physics analysis –Scale As for DC1: ~ 10**7 fully simulated events

5 DC1 fase 1 Generazione degli eventi fatta al CERN. Simulazione completa di eventi in ATLSIM 39 istituti in 18 paesi. Per lItalia: CNAF, Frascati, Milano, Napoli, Roma A Napoli: simulati ~ eventi di-jet utilizzati ~ 35 GB di storage CPU time ~ 800 ore

6 DC1 fase 2 Produzione del pile-up sugli eventi simulati in DC1-1 per lItalia CNAF, Frascati, Genova, Milano, Napoli, Roma, (Lecce?) A Napoli : pile-up a bassa luminosità (2x10 33 nb -1 ) su ~ eventi di-jet. utilizzati ~ 90 GB di storage. CPU time ~ 300 ore. Prevediamo di entrare nella sperimetazione di GRID allinizio del 2003, prima della fase di ricostruzione.

7 Evoluzione della farm di Atlas-Napoli Finora Napoli ha funzionato come un Tier-3 nella gerarchia del calcolo di Atlas. È previsto un prossimo sviluppo al ruolo di Tier- 2, con lestensione delle risorse della farm: si prevede di raggiungere entro la seconda metà del 2003 il 10% delle risorse necessarie per un Tier-2 a regime (che corrispondono al 10-20% di quelle del Centro Regionale Tier-1), ossia circa 2 kSI95 (pari oggi a circa 50 CPU singole) e 4-5 TB disco.