Laura Perini: ATLAS Computing 22 Settembre 2004 1 ATLAS Computing Update e richieste 2005 22 Settembre 2004 Laura Perini (Milano)

Slides:



Advertisements
Presentazioni simili
L. Perini CSN1 -Roma 23 Gen Centri Regionali per il calcolo di ATLAS in Italia Tier-1 e Tiers-N : funzioni, localizzazione, necessita di h/w, personale.
Advertisements

ALICE-Italia: IL CALCOLO
P. Capiluppi Organizzazione del Software & Computing CMS Italia I Workshop CMS Italia del Computing & Software Roma Novembre 2001.
Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
Il calcolo distribuito in ATLAS
Conclusioni M. Paganoni workshop CMS Italia, Napoli 13-14/2/07.
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
Come fanno i ricercatori a vedere le particelle?
* * Data Challenge 04 Stato dei centri di produzione in Italia.
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
CSN1 – 7 febbraio 2006 Francesco Forti, INFN-Pisa per il gruppo di referaggio.
Analysis unibo una proposta. Work flow di una tipica analisi 1.Simulazione di piccoli campioni di eventi per studio segnale 2.Generazione in grande.
PINK FLOYD DOGS You gotta be crazy, you gotta have a real need. You gotta sleep on your toes. And when you're on the street. You gotta be able to pick.
Test Storage Resource Manager per SC4 Giacinto Donvito Vincenzo Spinoso.
16 Maggio CSN1 Computing-Software-Analysis CMS-INFN TEAM Analisi in CMS: stato e prospettive del supporto italiano.
Computing Model ATLAS & CMS
News da LHC… *** Discussion title: CMS Commissioning Notes from 09:00 meeting Current fill (1182) has now been in stable beams for >12 hours. Delivered.
Attivita` di TileCal 2013 C.Roda Universita` e INFN Pisa Riunione referees ATLAS Roma 1 C.Roda Universita` e INFN Pisa.
G. Martellotti Roma RRB 16 Aprile Presentazione M&O cat A (per LHCb i M&O cat B sono gestiti autonomamente e non sono scrutinati fino al 2005/2006)
8-Giugno-2006L.Perini Workshop Otranto 1 The ATLAS Tier2 Federation INFN Aims, functions. structure Schedule Services and INFN Grid.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
1 M&O cat A - consuntivo provvisorio modifica del preventivo 2004 M&O cat B ancora non sono previsti. (saranno presentati al RRB di Aprile) Profili.
23 Giugno CSN1 P. Capiluppi CMS Computing 2003 e oltre u Stato e richieste u LCG e CMS u Modello di Calcolo CMS.
Condor standard. Sistema Batch. Tool di installazione D. Bortolotti,P.Mazzanti,F.Semeria Workshop Calcolo Paestum 9-12 Giugno 2003.
CSN Maggio 2005 P. Capiluppi Il Computing Model (LHC) nella realta’ italiana u I Computing models degli esperimenti LHC gia’ presentati a Gennaio.
LNF Farm E. V. 9/8/2006. Hardware CE, LCFG, HLR, 3 WN: DL 360 1U; SE: DL 380 2U 5 WN: BL 25 P In totale 25 jobs general purpuse (coda Atlas) + una coda.
Claudio Grandi INFN Bologna Workshop Commissione Calcolo 12 giugno 2003 Evoluzione dei modelli di calcolo distribuito nell’esperimento CMS Claudio Grandi.
CSN1-Assisi L.Perini1 BaBar Calcolo L. Perini per i referees: L.Perini,A.Staiano…
Il calcolo a LHC F. Ferroni, P. Lubrano, A. Marini, G. Salina, M. Sozzi, M. Taiuti A. Martin, M. Morandin CSNI - Assisi
Calcolo esperimenti LHC 2004 F. Ferroni, P. Lubrano, A. Martin, M. Morandin, M. Sozzi.
ATLAS Italia Calcolo Overview ATLAS sw e computing Calcolo fatto e previsto - share INFN Resoconto Milestones.
Cosa cambia per CDF  S.Belforte mantiene per ora 20% (1 day/week) su CDF: il necessario per una attivita’ di coordinamento e transizione verso un nuovo.
Computing TDR ATLAS Computing TDR Lamberto Luminari CSN1 – Napoli, 22 Settembre 2005.
PAST SIMPLE O PRESENT PERFECT?
Halina Bilokon ATLAS Software di fisica DC1 – DC2 DC1 aprile fine 2003 (versioni di software  3.x.x – 7.x.x)  Validation del Software  Aggiornamento.
CMS 1 M. Biasotto – Bologna 20/01/2005 Infrastruttura di calcolo per CMS-Italia M.Biasotto – INFN Legnaro e i gestori dei centri CMS Italia.
Calcolo LHC Francesco Forti, Università e INFN – Pisa Per il gruppo di referaggio: F. Bossi, C. Bozzi, R. Carlin, R. Ferrari, F.F., D.Martello, M.Morandin,
SUMMARY Different classes and distortions RIEPILOGO Le diverse classi e le distorsioni RIEPILOGO Le diverse classi e le distorsioni.
P5  2009 shifts VS shifts until the end of 2009  2010 plan.
ATLAS Computing Model Lamberto Luminari CSN Gennaio, 2005.
Presentazione documenti inviati al RRB e piani futuri Commissione Scientifica Nazionale I 13 ottobre 2003 S. Patricelli Punti principali in discussione.
Storage (ieri, oggi e domani) Luca dell’Agnello INFN-CNAF.
News LHC recommissioning is continuing Sucessfully achieved so far 4 TeV beams, 0.6 m beta* (at least with few bunches) Some beam splashes last week; still.
D. Martello Dip. Fisica - Lecce Sintesi piani esperimenti CSN2 CNAF 7-marzo-2007.
Atlas Italia - Milano, 17/11/2009 G. Carlino – News dal Computing 1 1 News dal computing Gianpaolo Carlino INFN Napoli Atlas Italia, Milano, 17/11/09 Nuovo.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 1 ATLAS Attività di TeV Attività di computing Attività di computing.
A.s. 2015/16 IC Don Guido Cagnola di Gazzada Schianno VA in rete con le Istituzioni scolastiche del primo ciclo di istruzione del bacino Nord-Laghi della.
1 referee-BaBar CSN I, Roma Gennaio 2008 RELAZIONE DEI REFEREE DI BaBar e SuperB M.De Palma, C.Luci, C.Troncon, B.Gobbo(calcolo),D. Pedrini
17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 1 Il tier2 a Milano e le attività locali di sw e calcolo ATLAS e Grid I gruppi ATLAS di Milano Le.
Referaggio Calcolo ATLAS II Gianpaolo Carlino INFN Napoli Catania, 12 Settembre 2012 Risorse e Richieste 2013 nei preventivi Aggiornamento in seguito all’allungamento.
Calcolo a LHC Concezio Bozzi, INFN Ferrara per il gruppo di referaggio: F. Bossi, CB, R. Ferrari, D. Lucchesi, D. Martello, [M. Morandin], S. Pirrone,
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
The INFN Tier-1: progetto di ampliamento Cristina Vistoli – INFN CNAF Referee Meeting Sep
10 Ottobre CSN1 P. Capiluppi Tier2 CMS Italia 3Bari  In comune con Alice 3Legnaro  In comune con Alice 3Pisa 3Roma1  In comune con Atlas Sedi.
ATLAS Italia – Sestri Levante, 15 Giugno 2010 G. Carlino – Richieste Run Efficiency = time for physics / total time LHC Efficiency = time with colliding.
Gianpaolo Carlino Bologna, 6 Marzo 2007 Stato dei Tier-2 Italiani di ATLAS Attività nei Tier-2 Attività della Federazione dei Tier-2 Risorse disponibili.
L.Perini Milano: 10 Gennaio Ex-ATLAS-Grid (Tier2 incluso) l Ruolo dei Tiers in ATLAS e grid l Le persone di Milano e le attività l Le infrastrutture.
TOTEM review a LHCC C. Cecchi CSN1, Parma 24/09/2010 CSN1, Parma 23/09/10C. Cecchi  STATO DELL’ESPERIMENTO & PHYSICS PLAN 2010/2011  INSTALLAZIONE DI.
Ninux.org OpenCamp Traditional Network Infrastructure: commercial wireless access Big operators –GPRS  UMTS  HSDPA “small”
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Domenico Elia1 Calcolo ALICE: stato e richieste finanziarie (aggiornamenti) Domenico Elia Riunione Referee Calcolo LHC / Bologna, Riunione con.
Calorimetro LAR ATLAS Italia Roma 28 novembre 2008
Dichiarazione dei servizi di sito nel GOCDB
From 8 to 80 boxes. From FBSNG to Condor CPU Satura !
Assegnazione risorse Stato INFN CNAF,
ONEDATA - distributed data caching -
Atlas Milano Giugno 2008.
Study of Bc in CMSSW: status report Silvia Taroni Sandra Malvezzi Daniele Pedrini INFN Milano-Bicocca.
Transcript della presentazione:

Laura Perini: ATLAS Computing 22 Settembre ATLAS Computing Update e richieste Settembre 2004 Laura Perini (Milano)

Laura Perini: ATLAS Computing 22 Settembre Outline Update di quanto mostrato il 22 Giugno l Le principali novità da giugno sono nell’area del DC2 nIn corso da luglio nSvolto tutto con GRID nFase di simulazione vicina alla fine con > 8 M eventi da Geant4 nCon rilevante impegno INFN La presentazione quindi si concentra sullo svolgimento del DC2, con parte finale su previsioni DC3 che motivano le principali richieste. nmolto in inglese, riprendendo da recente (21 settembre) presentazione ATLAS a sw week ma integrando INFN specifico l Milestones, dettaglio delle richieste, preparazione del MoU per il calcolo e sw sono stati discussi coi referees e verranno presentati da loro

3 ATLAS Data challenges  DC1 ( ) o Put in place full software chain  Simulation of the data  Reconstruction o Production system  Tools (bookkeeping; monitoring; …)  Intensive use of Grid  DC2 (Summer 2004) o New software o New “automated” production system o Full use of Grids o Test of Computing Model  DC3 (End 2006) o Final test before data taking

4 ATLAS-DC2 operation  Consider DC2 as a three-part operation: o part I: production of simulated data (July-September 2004)  running on “Grid”  Worldwide o part II: test of Tier-0 operation (October 2004)  Do in 10 days what “should” be done in 1 day when real data-taking start  Input is “Raw Data” like  output (ESD+AOD) will be distributed to Tier-1s in real time for analysis o part III: test of distributed analysis on the Grid (Oct.-Dec. 2004)  access to event and non-event data from anywhere in the world both in organized and chaotic ways  Requests o ~30 Physics channels ( 10 Millions of events) o Several millions of events for calibration (single particles and physics samples)

5 More on Phase I: Data preparation  DC2 Phase I o Part 1: Event generation  Physics processes --> 4-momentum of particles  Several Event generators (Pythia; Herwig; …) o Part 2: Detector simulation (Geant4)  Tracking of particles through the detector  Records interaction of particle with sensitive elements of the detector o Part 3: Pile-up and digitization  Pile-up: superposition of “background” events with the “signal” event  Digitization: response of the sensitive elements of the detector  Output, called byte-stream data, “looks-like” “Raw Data” o Part 4: Data transfer (to CERN Tier-0)  ~35 TB in 4 weeks o Part 5: Event mixing  Physics events are “mixed” in “ad-hoc” proportion

6 ATLAS Production System  Automated version of previous ATLAS DC1 production system  Components o Supervisor: Windmill (US) o Executors (one per Grid or “legacy batch”) :  Capone (Grid3) (US)  Dulcinea (NorduGrid) (Scandinavia)  Lexor (LCG) (Italy)  “Legacy systems” (Germany-FZK; France-Lyon) o Data Management System (DMS): Don Quijote (CERN) o Bookkeeping: AMI (LPSC-Grenoble) o Production Data base (Oracle)  Definition and status of the jobs

7 ATLAS Production system LCGNGGrid3LSF LCG exe LCG exe NG exe G3 exe LSF exe super prodDB dms RLS jabber soap jabber Don Quijote Windmill Lexor AMI Capone Dulcinea

8 Supervisor -Executors Windmill numJobsWanted executeJobs getExecutorData getStatus fixJob killJob Jabber communication pathway executors Don Quijote (file catalog) Prod DB (jobs database) execution sites (grid) 1. lexor 2. dulcinea 3. capone 4. legacy supervisors execution sites (grid)

9 ATLAS DC2 Phase I  Started beginning of July and still running  On 3 Grids o LCG  Including some non-ATLAS sites (Legnaro, Torino)  Using in production mode the LCG-Grid-Canada interface 3 sites are accessible through this interface(TRIUMF) –Uni. Victoria, Uni. Alberta and WestGrid(SFU/TRIUMF) o NorduGrid  Several Scandinavian super-computer resources o Grid3  Harnessing opportunistic computing resources that are not dedicated to ATLAS (e.g. US CMS sites)

10 Current Grid3 Status (3/1/04) ( 28 sites, multi-VO shared resources ~2000 CPUs dynamic – roll in/out

11 NorduGrid & Co. Resources:  7 countries:  Sites for ATLAS: 22 o Dedicated: 3, the rest is shared  CPUs for ATLAS: ~3280 o Effectively available: ~800  Storage Elements for ATLAS: 10 o Capacity: ~14 TB, all shared

Current LCG-2 sites: 7/9/04 73 Sites 7700 CPU 26 sites at 2_2_0 33 sites at 2_1_1 others at ?? 29 pass all tests

13 ATLAS DC2 Phase I  Main difficulties at the initial phase o For all Grids  Debugging the Production System  On LCG and Grid3 several instances of the Supervisor have to be run for better coping with the instability of the system. As a consequence the Production System was more difficult to handle. o LCG  Mis-configuration of sites; Information system (wrong or missing information); Job submission and Resource Broker; Jobs ranking.  Data management(copy & register); Stage in/out problems o NorduGrid  Replica Location Service (Globus) hanging several times per day  Mis-configuration of sites  Access to the conditions database o Grid3  Data Management - RLS interactions  Software distribution problems  Load on gatekeepers  Some problems with certificates (causing jobs to abort) o Good collaboration with Grid teams to solve the problems

14 ATLAS DC2 Phase I  Not all problems solved o NorduGrid  RLS; Access to the conditions database; Storage elements died … o Grid3  Try to avoid single points of failure (adding new servers)  Lack of storage management in some sites o LCG  Still some problems with resource broker and information system  And data management (copy and register) and stage in/out problems o For all  Slowness of the response of the Production Database (Oracle) Problem that appears after ~6 weeks of running and which is still not fully understood (mix software and hardware problems? being worked with IT-DB). Has been solved!  Consequences: we did not succeed (yet) to run as many jobs as expected per day o In “good time-slots” the rate of about 2000 jobs running at the same time on LCG was sustained for 5-10 days  Nevertheless should be completed by end-September and is “Grid” only

15

16

17 ATLAS DC2 status (CPU usage for simulation)

18

19 Statistiche e problemi LCG  8 M eventi prodotti con Geant4 o 100 k jobs da 24 ore circa o 30TB di output e 1470 kSpI2k*months Da qui in poi ci concentriamo su LCG o Breve sommario quantitativo problemi trovati da 1-8 a 7-9 (prima nostra categorizzazione era troppo approssimativa) o 750 jobs falliti per misconfigurazione siti (E1) o 1985 “ per WLMS e servizi collegati (E2) o 4350 “ per Data Man. e servizi collegati (E3) Jobs finiti bene nello stesso periodo (OK)  Efficienza LCG = OK/(OK+E1+E2+E3)= 81%  Ricalcolata da 1-8 a 20-9 effic. non cambia significativamente, ma la prossima release LCG dovrebbe ridurre a <1/3 errori WLMS Ma l’efficienza globale è più bassa, ci sono stati problemi anche nella parte ATLAS (circa 7000 non molto diverso da LCG) e circa 5000 di difficile assegnazione  Efficienza DC2(parte LCG)=OK/(OK+FAILED)= 62%

20 Problemi in DC2  Vale la pena notare che il peggiore singolo problema incontrato non è stato né di LCG né del production system  Dal 7 di agosto fino al 25 siamo stati limitati a meno di 1000 jobs al giorno da un rallentamento imprevisto e non capito del server ORACLE del CERN che gestisce la nostra production DB  NO comment….

21 Jobs distribution on LCG Preliminary

22 Jobs distribution on Grid3 Preliminary

23 Jobs distribution on NorduGrid Preliminary

24 Sommario DC2  La fase di simulazione è quasi conclusa con successo!  L’uso quasi esclusivo e diretto delle 3 grid è un enorme passo avanti o Per ATLAS e per LCG che ha superato un test realistico e fatto un debugging decisivo vedi ad es. da EIS Requirements.pdf Requirements.pdf  Il production system sarà la base su cui costruiremo l’evoluzione delle attività di produzione ( continua, DC3 e se possibile Test Beam Combinato TBC) e analisi  Importanza del TBC o Ora in presa dati, ma poi intenzione di produrre con ATHENA e analizzare in modo il più “standard DC” possibile.  Bridge fra comunità rivelatori e calcolo

Laura Perini: ATLAS Computing 22 Settembre Risorse disponibili in Italia per DC2 l Le risorse “garantite” per il DC2 di ATLAS in Italia sono l 280 kSI2K (metà al CNAF e metà nei 4 Tier2) n60 MI, 50 Roma1, 20 NA, 8 LNF l 24 TB disco Raid (8 al CNAF e 16 nei Tier2) n7 MI, 5 Roma1, 3.2 NA, 0.8 LNF  attenzione: una parte considerevole (20-25%) è già occupata da dati ATLAS e non sarà disponibile per DC2 l Da qui in poi una serie di plots con le informazioni CPU e storage utilizzato dai siti, Milano Roma1, Napoli, LNF e CNAF

Laura Perini: ATLAS Computing 22 Settembre Mi-CPU (62 CPUs)

Laura Perini: ATLAS Computing 22 Settembre

Laura Perini: ATLAS Computing 22 Settembre

Laura Perini: ATLAS Computing 22 Settembre

Laura Perini: ATLAS Computing 22 Settembre LNF: 6 box = 12 CPU

Laura Perini: ATLAS Computing 22 Settembre CNAF

Laura Perini: ATLAS Computing 22 Settembre Esempio Disco: Milano ma uso disco principale non per fase 1

Laura Perini: ATLAS Computing 22 Settembre ATLAS Computing Timeline POOL/SEAL release (done) ATLAS release 7 (with POOL persistency) (done) LCG-1 deployment (done) ATLAS complete Geant4 validation (done) ATLAS release 8 (done) DC2 Phase 1: simulation production (in progress) DC2 Phase 2: intensive reconstruction (the real challenge!) Combined test beams (barrel wedge) Computing Model paper Computing Memorandum of Understanding ATLAS Computing TDR and LCG TDR DC3: produce data for PRR and test LCG-n Physics Readiness Report Start commissioning run GO! NOW

Laura Perini: ATLAS Computing 22 Settembre Final prototype: DC3 l We should consider DC3 as the “final” prototype, for both software and computing infrastructure ntentative schedule is Q to end Q  cosmic run will be later in 2006 l This means that on that timescale (in fact, earlier than that, if we have learned anything from DC1 and DC2) we need: na complete s/w chain for “simulated” and for “real” data  including aspects missing from DC2: trigger, alignment etc. na deployed Grid infrastructure capable of dealing with our data nenough resources to run at ~50% of the final data rate for a sizable amount of time (one month) l After DC3 surely we will be forced to sort out problems day-by- day, as the need arises, for real, imperfect data coming from the DAQ: no time for more big developments!

Laura Perini: ATLAS Computing 22 Settembre Preparazione in Italia per DC3 (1) l DC3 prevede la produzione dei dati equivalenti ad un mese di presa dati di ATLAS al 50% del rate finale (1.5x10 8 eventi) l Infrastruttura hardware (dovremmo avere a disposizione di ATLAS in Italia almeno il 10% delle risorse totali necessarie per DC3): nCPU e mass storage per produzione della simulazione nel Tier-1 e nei Tier-2 (1.5x10 7 eventi simulati): ~2000 kSI2k.mesi, ~75 TB  ~600 kSI2k per 4 mesi fra Tier-1 e tutti i Tier-2 (effic. 80%) nrate da Tier-0 a Tier-1: 16 MB/s (RAW) + 10 MB/s (ESD) + 1 MB/s (AOD)  ~240 Mbit/s per un mese consecutivo nrate da Tier-1 ad ogni Tier-2: 1 MB/s (AOD)  ~ 8 Mbit/s per ogni Tier-2, anche questo per un mese consecutivo

Laura Perini: ATLAS Computing 22 Settembre Preparazione in Italia per DC3 (2) nmass storage nel Tier-1 per RAW, ESD, AOD e TAG:  ( MB/s)x(30 giorni)x(8x10 4 sec/giorno) ~ 65 TB nspazio disco nel Tier-1 per ESD, AOD e TAG:  (10+1 MB/s)x(30 giorni)x(8x10 4 sec/giorno) ~ 25 TB nspazio disco in ogni Tier-2 per AOD e TAG:  (1 MB/s)x(30 giorni)x(8x10 4 sec/giorno) ~ 2.5 TB nCPU e spazio disco nel Tier-1 e nei Tier-2 per gli utenti che fanno analisi  considerevole soprattutto per i Tier-2 l NB: a tutti questi numeri vanno aggiunte le efficienze di utilizzo di CPU, reti, dischi e nastri  (fattori importanti soprattutto per le reti)

Laura Perini: ATLAS Computing 22 Settembre Preparazione in Italia (3) l Tier-3: nogni istituto (Tier-3) deve essere collegato al resto del sistema Grid con banda passante sufficiente per poter lavorare ovunque con la stessa efficienza e lo stesso accesso alle risorse locali e globali  questo non è particolarmente difficile ma bisogna pensarci per tempo l Infrastruttura software: ndata le competenze esistenti, la comunità italiana si deve coinvolgere più direttamante nello sviluppo del sistema di “Distributed Analysis”  che ha ancora bisogno in ogni caso di parecchio lavoro... nbisognerebbe anche organizzare un “help desk” virtuale italiano per aiutare chi comincia un’analisi a partire senza perdere tempo nanche il sistema di job e Grid monitoring è un campo di sviluppo utile ad ATLAS e anche a EGEE

Laura Perini: ATLAS Computing 22 Settembre Richieste 2005 : Tier1&2 perDC3 l Il modello che si persegue e’ n2/3 CPU al CNAF e 1/3 Tier2 (indipendente da numero Tier2) nNastro tutto al CNAF nDisco per ora come CPU, in futuro AOD e formati piu’ ridotti in Tier2 il resto in Tier1  Distribuzione Tier1-Tier2 per DC3: T1 350k SI2K con 45 TB somma T2 250kSI2K con 30 TB nRichieste AGGIUNTIVE per 2005 T1 210 kSI2K 37 TB disco RAID 150 TB nastro  somma T2 110kSI2K e 14 TB proposta LNF 16 kSI2K e 2 TB per ciascuno di altri 3 (MI, Roma1,Na) 30 kSI2K e 4 TB disco RAID = 5 TB RAW  Costi 2.2 kEuro per 1 biprocessore rack mounted da 2kSI2k, 3 kEuro per 1TB disco RAW.

Laura Perini: ATLAS Computing 22 Settembre FINE DELLA MIA ULTIMA PRESENTAZIONE da rap.naz.calc. l Seguono slides di backup…

Laura Perini: ATLAS Computing Referees- 27 luglio Richieste 2005 (3)