Scaricare la presentazione
La presentazione è in caricamento. Aspetta per favore
PubblicatoPepe Giordani Modificato 11 anni fa
1
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede di rete a 100 Mb/s, 1 scheda di rete a 1 GB/s, 300 GB storage (RAID 5). 100 Mb/s
2
2 La farm di ATLAS-Napoli (sw) Cluster diskless: i nodi fanno boot dal server via rete e montano il disco sistema dal server ( Etherboot, ClusterNFS ). Redhat 6.2. sistema di code PBS. distribuzione RPM del software di Atlas (v 4.0.1). prossimamente tools GRID.
3
3 Atlas Data Challenge (I) DC1 Phase I: April-Sept 2002: Goals Generation of data for HLT TDR (Pythia). Full simulation of detector response in ATLSIM (Fortran framework). DC1 Phase II: Oct 2002 – May 2003: Goals Pile-Up Production (High and Low Luminosity) Large scale Grid test in November/December in preparation for reconstruction Reconstruction start March 2003
4
4 Atlas Data Challenge (II) DC2: Q3/2003 – Q2/2004: –Goals Full deployment of Event Data Model & Detector Description Geant4 replacing Geant3 Pile-up in Athena ( OO framework) Test the calibration and alignment procedures Use LCG common software Use widely GRID middleware Perform large scale physics analysis –Scale As for DC1: ~ 10**7 fully simulated events
5
5 DC1 fase 1 Generazione degli eventi fatta al CERN. Simulazione completa di eventi in ATLSIM 39 istituti in 18 paesi. Per lItalia: CNAF, Frascati, Milano, Napoli, Roma A Napoli: simulati ~ 20.000 eventi di-jet utilizzati ~ 35 GB di storage CPU time ~ 800 ore
6
6 DC1 fase 2 Produzione del pile-up sugli eventi simulati in DC1-1 per lItalia CNAF, Frascati, Genova, Milano, Napoli, Roma, (Lecce?) A Napoli : pile-up a bassa luminosità (2x10 33 nb -1 ) su ~ 30.000 eventi di-jet. utilizzati ~ 90 GB di storage. CPU time ~ 300 ore. Prevediamo di entrare nella sperimetazione di GRID allinizio del 2003, prima della fase di ricostruzione.
7
7 Evoluzione della farm di Atlas-Napoli Finora Napoli ha funzionato come un Tier-3 nella gerarchia del calcolo di Atlas. È previsto un prossimo sviluppo al ruolo di Tier- 2, con lestensione delle risorse della farm: si prevede di raggiungere entro la seconda metà del 2003 il 10% delle risorse necessarie per un Tier-2 a regime (che corrispondono al 10-20% di quelle del Centro Regionale Tier-1), ossia circa 2 kSI95 (pari oggi a circa 50 CPU singole) e 4-5 TB disco.
Presentazioni simili
© 2024 SlidePlayer.it Inc.
All rights reserved.