M.MaseraALICE: Richieste 2004 ALICE PHYSICS DATA CHALLENGE III Richieste 2004 Massimo Masera Presentazione basata sulle slide mostrate.

Slides:



Advertisements
Presentazioni simili
STATO DEL PROTOTIPO DI SCoPE E DELL’INTEGRAZIONE TRA I 4 PON
Advertisements

Fisica Subnucleare – Esperimento ATLAS
E835 & Hera-B Concezio Pisa, 21/12/2004. E835 (aka Jet-FNAL) timeline dell'esperimento –Presa dati conclusa nel Alcune analisi tuttora in corso.
Run I Distribuzione inclusive di Min Bias (Mult. Carica, Pt). Correlazioni dello stato finale ( -Mult) + mini-jet (soft hard physics). Campioni utilizzati:
23/01/01Alberto Masoni – GR1 - Roma1 I MODELLI DI CENTRI REGIONALI POSIZIONE DI ALICE ITALIA CENTRO ITALIANO: CPU 450 KSI95, DISCO 400 TB (INSIEME TIER-1.
L'uso attuale di Grid negli esperimenti LHC e realizzazione di HEPCAL
ALICE-Italia: IL CALCOLO
P. Capiluppi Organizzazione del Software & Computing CMS Italia I Workshop CMS Italia del Computing & Software Roma Novembre 2001.
Alessandra Doria III Workshop Software e Calcolo Moderno Martina Franca Ottobre 1999 La presentazione degli istogrammi nel sistema di Monitoring.
Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
Proposta di integrazione e consolidamento delle risorse presenti nellinfrastruttura Grid dellItalia Meridionale (L. Merola, )
Remote file access sulla grid e metodi di interconnesione di rete M. Donatelli, A.Ghiselli e G.Mirabelli Infn-Grid network 24 maggio 2001.
Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
Monitoraggio online con la mappa del tracker M.S. Mennea, G. Zito Università & INFN di Bari Riunione Consorzio – Bari 9 Settembre 2005.
La facility nazionale Egrid: stato dell'arte Egrid-Team Trieste, 9 ottobre 2004.
Tier1 - cpu KSI2k days ATLAS KSI2k days CMS. Tier1 - storage CASTOR disk space CMS requires: T1D0, T0D1 ATLAS requires: T1D0, T0D1 and T1D1.
Gruppo Directory Services Rapporto dell'attivita' svolta - Marzo 2000.
Alessandro Italiano INFN - CNAF Grid.it 14 Febbraio 2003 Servizi Generali: RB, UI, RC Information System Alessandro Italiano Grid.it 16 febbraio 2003.
Michele Michelotto INFN-Padova
1 Riunione Testbed - 17 gennaio Agenda - stato del testbed di INFN-GRID (L. Gaido) - le risorse del CNAF (A. Italiano) - report sullo stress test.
25 ottobre 2002infn1 FIRB-Grid WP3,5 Grid deployment.
Il Tutorial INFN-GRID/EDG di Torino Testbed INFN-GRID.
1 Il testbed di LCG Riunione Testbed – CNAF, 17 gennaio 2003 L. Gaido.
Work report (Nov. 2005) Sara Bolognesi21 Novembre 2005 Work report P-TDR: analisi sulla VV-fusion PHASE: studi di fenomenologia Ricostruzione locale DT.
Il calcolo distribuito in ATLAS
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
1 M. Biasotto – Legnaro, 22 Dicembre 2005 Prototipo Tier 2 di Legnaro-Padova INFN Legnaro.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
Alessia Tricomi Università & INFN Catania
Stato del computing Andrea Sciabà Riunione del consorzio INFN Firenze, 7 settembre 2001 Farm italiane Produzione Monte Carlo b/ Progetti di GRID.
* * Data Challenge 04 Stato dei centri di produzione in Italia.
Sommario: il testbed CMS/LCG0 e la configurazione della farm di Bari sviluppo software/tool di produzione per CMS e GRID. eventi in produzione per il.
7 ottobre 2002P. Checchia Padova Cons. di sezione1 Resoconto CSN1 Lecce settembre 2003 Cosiderazioni generali Bilancio 2004: 28 M€ (era 38.5 compreso l’anticipo.
FESR Trinacria Grid Virtual Laboratory ADAT (Archivi Digitali Antico Testo) Salvatore Scifo TRIGRID Second TriGrid Checkpoint Meeting Catania,
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
FESR Consorzio COMETA Pier Paolo CORSO Giuseppe CASTGLIA Marco CIPOLLA Industry Day Catania, 30 Giugno 2011 Commercial applications.
CCR 14-15/03/2006 Status Report Gruppo Storage CCR.
Test Storage Resource Manager per SC4 Giacinto Donvito Vincenzo Spinoso.
16 Maggio CSN1 Computing-Software-Analysis CMS-INFN TEAM Analisi in CMS: stato e prospettive del supporto italiano.
M.MaseraALICE Physics DC-3 ALICE PHYSICS DATA CHALLENGE III Massimo Masera Commissione Scientifica Nazionale I 23 giugno 2003.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
Condor standard. Sistema Batch. Tool di installazione D. Bortolotti,P.Mazzanti,F.Semeria Workshop Calcolo Paestum 9-12 Giugno 2003.
CSN Maggio 2005 P. Capiluppi Il Computing Model (LHC) nella realta’ italiana u I Computing models degli esperimenti LHC gia’ presentati a Gennaio.
Attivita' Grid in BaBar Workshop sulle Problematiche di Calcolo e Reti nell'INFN Maggio 2004.
1 LHCb Computing Angelo Carbone, INFN-CNAF CSN1, 21/9/06 Aggiornamento richieste Tier Richiesta Tier-2 al CNAF Stato e risultati DC06.
L. Servoli - CCR Roma 15 marzo Il progetto High Availability D. Salomoni - CNAF L. Servoli - INFN Perugia.
Grid nelle sezioni: Milano Luca Vaccarossa INFN – Sezione di Milano Workshop sulle Problematiche di Calcolo e Reti nell'INFN.
Calcolo esperimenti LHC 2004 F. Ferroni, P. Lubrano, A. Martin, M. Morandin, M. Sozzi.
Halina Bilokon ATLAS Software di fisica DC1 – DC2 DC1 aprile fine 2003 (versioni di software  3.x.x – 7.x.x)  Validation del Software  Aggiornamento.
CMS 1 M. Biasotto – Bologna 20/01/2005 Infrastruttura di calcolo per CMS-Italia M.Biasotto – INFN Legnaro e i gestori dei centri CMS Italia.
La Farm di Alice a Torino Workshop sulle problematiche di calcolo e reti Isola d’Elba 6-9 maggio 2002 Mario Sitta (Università del Piemonte Orientale e.
I testbed ed il loro uso 1 I testbed ed il loro uso L. Gaido, A.Ghiselli CSN1, Perugia novembre 2002.
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
Storage (ieri, oggi e domani) Luca dell’Agnello INFN-CNAF.
CNAF 6 Novembre Layout del testbed  wn a OS SL5.0 8 GB RAM kernel xen_3.1.0 SMP  wn a OS SL5.0 8 GB RAM kernel.
D. Martello Dip. Fisica - Lecce Sintesi piani esperimenti CSN2 CNAF 7-marzo-2007.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 1 ATLAS Attività di TeV Attività di computing Attività di computing.
Overview del middleware gLite Guido Cuscela INFN-Bari II Corso di formazione INFN su aspetti pratici dell'integrazione.
17 GennaioTier2 Milano G. Costa 1 17-Gennaio-2006.
1 ALICE I ITER2 DI ALICE IN ITALIA Bologna, 6 marzo 2007 M. Masera
Attività Gruppo Virtualizzazione Andrea Chierici CNAF CCR
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
The INFN Tier-1: progetto di ampliamento Cristina Vistoli – INFN CNAF Referee Meeting Sep
CCR - Roma 15 marzo 2007 Gruppo storage CCR Report sulle attivita’ Alessandro Brunengo.
Il calcolo per l’esperimento GERDA Luciano Pandola INFN, Laboratori del Gran Sasso Riunione della CSN2, LNF Frascati, 29 Novembre 2011.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Transcript della presentazione:

M.MaseraALICE: Richieste 2004 ALICE PHYSICS DATA CHALLENGE III Richieste 2004 Massimo Masera Presentazione basata sulle slide mostrate alla Commissione Scientifica Nazionale I Il 23 giugno 2003 Con piccole correzioni (in particolare sulle disponibilita` LCG globali per lesperimento) tratte dalla presentazione di F. Carminati al GDB meeting del 8/7/03

M.MaseraALICE: Richieste 2004 Sommario Alice DC-3: che cose`; quali sono gli scopi AliRoot, AliEn.Framework: AliRoot, AliEn. Che cosa e cambiato per il Data Challenge? EDG-1.4 EDG 2.0Strumenti comuni di calcolo distribuito: situazione attuale (EDG-1.4 EDG 2.0) Infrastrutture di calcolo necessarie Infrastrutture di calcolo esistenti e da acquisire LHC Computing Grid (LCG)Strumenti comuni di calcolo distribuito per il DC- 3: LHC Computing Grid (LCG)

M.MaseraALICE: Richieste 2004 Period (milestone) Fraction of the final capacity (%) Physics Objective 06/01-12/011%pp studies, reconstruction of TPC and ITS 06/02-12/025%First test of the complete chain from simulation to reconstruction for the PPR Simple analysis tools. Digits in ROOT format. 01/04-06/0410%Complete chain used for trigger studies. Prototype of the analysis tools. Comparison with parameterised MonteCarlo. Simulated raw data. 01/06-06/0620%Test of the final system for reconstruction and analysis. ALICE PHYSICS DATA CHALLENGES

M.MaseraALICE: Richieste 2004 Physics Data Challenge 3: obiettivi Il Physics Performance Report di ALICE e in via di completamento e dovrebbe terminare entro la fine dellanno Simulazioni post-PPR: enfasi su hard physics; jets e jet quenching: – a LHC, ma in parte a RHIC, dovrebbe crescere il contributo di minijet alla produzione di particelle nella zona centrale di rapidita`

M.MaseraALICE: Richieste 2004 Physics Data Challenge 3: obiettivi signal-freeUna semplice parametrizzazione signal-free di un modello microscopico non puo` essere usato a causa dellassenza di fluttuazioni dovute alla produzione di jet e minijet E` necessario far ricorso a generatori di eventi come HIJING, che includano la produzione di jet, anche per la simulazione dei cosiddetti eventi di background usati con levent mixing per simulare fenomeni a bassa sezione durto A p T ~10-20 GeV/c ci si aspetta~1 jet per evento Jet con p T ~200 GeV/c 1000/ mese di presa dati – Studio di jet con p T fino a qualche 10 GeV/c: questo compito non e` semplice ed e` basato sulla ricerca di leading particles ad alto p T nel barrel. –La tecnica dellevent mixing (generazione separata di segnale e background) non e` possibile 50 volte –Studio di jet cpn p t ~100 GeV/c e maggiore : event mixing. Un singolo evento di background puo` essere utilizzato fino a 50 volte

M.MaseraALICE: Richieste 2004 Physics Data Challenge 3: obiettivi La definizione del numero di eventi da simulare nel DC-3 e` dovuta essenzialmente allo studio dei jet: –10 5 eventi per lo studio di jets with p T fino a GeV/c con statistica sufficiente – eventi per studi di correlazione di particelle e per iperoni con stranezza singola e doppia (, ) – 10 6 eventi: jet di alto p T ( ~10 5 eventi di background) –, stati di charmonio e bottomonio e + e - La statistica necessaria e` dello stesso ordine di grandezza di quanto necessario per i jet. Gli stessi eventi di background possono essere riutilizzati. –Centralita`: 50% central events (b<2-3 fm) 50% minimum bias

M.MaseraALICE: Richieste 2004 Physics Data Challenge 3: scopi Oltre a simulazioni Pb-Pb: 10 7 eventi p-p (Pythia) e ~10 6 p-A (Hijing) Il DC serve anche per verificare la capacita` di simulare e soprattutto analizzare una mole di dati ~10% di quella da trattare a regime con le tecnologie informatiche a disposizione ricaduta su framework e middleware La durata del DC e` di 6 mesi: la Collaborazione vuole verificare quanti eventi e in grado si simulare e analizzare (in modalita` diretta o con mixing) in questo periodo sfruttando sia risorse proprie che risorse disponibili nellambito LCG Parte dei dati simulati sara` portata al Cern e di qui redistribuita per lanalisi distribuito È un test del framework offline e del modello di calcolo distribuito

M.MaseraALICE: Richieste 2004 Il framework ROOT AliRoot STEER Virtual MC G3 G4 FLUKA HIJING MEVSIM PYTHIA6 PDF CRT EMCALZDC FMD ITS MUON PHOSPMDTRD TPC TOF STRUCT START RICH RALICE EVGEN HBTP HBTAN ISAJET AliEn DPMJET Si veda la relazione di F.Carminati alla CSNI del Nov. 2002

M.MaseraALICE: Richieste 2004 AliRoot + AliEn AliRoot –C++: 400kLOC + 225kLOC (generated) + macros: 77kLOC –FORTRAN: 13kLOC (ALICE) + 914kLOC (external packages) –Maintained on Linux (any version!), HP-UX, DEC Unix, Solaris –Works also with Intel icc compiler Two packages to install (ROOT+AliRoot) + MCs –Less that 1 second to link (thanks to 37 shared libs) –1-click-away install: download and make (non-recursive makefile) AliEn –25kLOC of PERL5 (ALICE) –~2MLOC mostly PERL5 (opens source components) Installed on almost 50 sites by physicists –>50 users develop AliRoot from detector groups –70% of code developed outside, 30% by the core Offline team

Che cosa ce` di nuovo in AliRoot? User Code VMC Geometrical Modeller G3 G3 transport G4 transport G4 FLUKA transport FLUKA Reconstruction Visualisation Geant3.tar.gz includes an upgraded Geant3 with a C++ interface Geant4_mc.tar.gz includes the TVirtualMC Geant4 interface classes Generators Monte Carlo Virtuale

M.MaseraALICE: Richieste 2004 ALICE 3 milioni di volumi Breaking News! GEANT3 funziona a partire dal nuovo modellatore

M.MaseraALICE: Richieste 2004 Che cosa ce` di nuovo in AliRoot? NewIO Nuovo I/O: verra usato nel DC-3 per la prima volta. La gestione dellIO e demandata a un set di classi dedicate (AliLoader, AliRunLoader, AliDataLoader…) e la dipendenza tra classi e ridotta con luso dei folder di root. –Highlights: migliore modularita, facilita di rifare parti di ricostruzione, possiblita di accedere (e spostare se serve) parte dellinformazione che e distribuita su piu file. Possibilita` di aggiornare linformazione su MSS aggiungendo nuovi file (ad esempio: vertici, tracce, etc) senza alterare i file contenenti linformazione di partenza

TPC.RecPoints.root Object Tree TPC.Hits.root Root dir Folder Kine.root Event #2 TreeH Event #2 TreeK Event #1 TreeH Event #1 TreeK TPC.Digits.root Event #1Event #2 File ITS.Tracks.rootITS.Digits.rootTPC.Tracks.rootITS.Hits.rootTPC.RecPoints.root Object g a lice.root RunLoader gAlice TreeE TreeD Nuovo I/O Piotr Skowronski

M.MaseraALICE: Richieste 2004 I Loaders Un Loader e` un oggetto responsabile della gestione dei files –Gestisce I nomi dei file e delle directory (sia a livello di OS che ROOT) Posting dei dati su TFolders –Da file a folder – lettura –E viceversa - scrittura Sono implementati dei metodi per accedere comodamente ai dati –e.g invece di usare: dynamic_cast (fEventFolder->FindObject(fgkHeaderContainerName)); si puo fare loader->TreeE();

M.MaseraALICE: Richieste 2004 Architettura AliRunLoader AliLoader (ITS)AliLoader (PHOS) This object takes care of Kinematics Track References Header These ones takes care of any data assiciated with one detector Hits Summble Digits Digits.....

M.MaseraALICE: Richieste 2004 Architettura AliRunLoader AliLoader (ITS)AliLoader (PHOS) AliDataLoader (Hits) AliDataLoader (SDigits) AliDataLoader (Digits) AliDataLoader (Tracks) AliDataLoader (RecPoints) AliDataLoader (Hits) AliDataLoader (SDigits) AliDataLoader (Digits) AliDataLoader (Tracks) AliDataLoader (RecPoints) Migliore scalabilita` Aggiungere nuovi tipi di dato e` facile AliDataLoader (RawCluseters) AliDataLoader (Kinematics) AliDataLoader (Track Refs) AliDataLoader (Header) AliBasicLoader (TreeD) AliBasicLoader (AliITSDigitizer) AliBasicLoader (QATask) AliBasicLoader (QAObject ) AliBasicLoader (TreeD) AliBasicLoader (AliPHOSDigitizer) AliBasicLoader (QATask) AliBasicLoader (QAObject ) AliDataLoader (Vertex)

M.MaseraALICE: Richieste 2004 AliROOT User Simulation, Reconstruction, Calibration, Analysis C++ ROOTSystem GUI Persistent IO Utility Libs C++ World Interfaces & Distributed computing environment anything Nice! I only have to learn C++ Typical HEP use cases: Simulation & Reconstruction Event mixing Analysis Novita` in AliEn: connessione con EDG ( LCG)

M.MaseraALICE: Richieste 2004 Stefano Bagnasco, INFN Torino (DataTAG) Il primo evento sottomesso via AliEn e girato sullapplication testbed di EDG (1.4) il 11/03/2003

M.MaseraALICE: Richieste 2004 Server Interface Site AliEn CE Submission EDG UI EDG Site EDG CE EDG RB WN AliEn EDG SE Status report: outbound connectivity AliEn SE Lintera Grid e vista dal server come un singolo Computing Element (CE) di AliEn e lintero storage di Grid come uno Storage Element (SE) di AliEn. Interfaccia AliEn / GRID: job submission Un interface site e una macchina User Interface di GRID sulla quale gira la AliEn client suite - ClusterMonitor, CE e SE L interface client prende (pulls) un job dal server, genera un jdl appropriato che sia GLUE- compliant e manda il job al Resource Broker (RB) Sul Worker Node, il job attiva AliEn che comunica direttamente con il server Nota: AliEn fa parte del Software di ALICE. Non ci sono demoni attivi sul WN

M.MaseraALICE: Richieste 2004 Loutput generato dal job di AliEn che gira su un sito EDG e` salvato su uno Storage Element definito dal RB di EDG. Linformazione e acquisita da AliEn a partire dal file.BrokerInfo. I file sono registrati nel Replica Catalogue di EDG I file sono quindi aanche registrati nel AliEn Data Catalogue usando il Logical File Name di EDG come AliEn Physical File Name Accedere ai dati da AliEn e` un processo a 2 step via l AliEn Data Catalogue and EDG Replica Catalogue. Il nodo di interfaccia e` anche in grado di effettuare lo stage di file attraverso i 2 sistemi. Data Catalogue EDG RC EDG Site EDG CE WN AliEn EDG SE LFN PFN EDG:// / Interfaccia AliEn / GRID: data management

M.MaseraALICE: Richieste 2004 Problemi aperti Con EDG 1.4 il tracciamento degli errori e` problematico. Le cose dovrebbero sensibilmente migliorare con EDG 2.0 Il tasso di fallimento nel trasferimento di file tra i due sistemi e ancora molto alto (90%). Le ragioni sono: Instabilita di EDG (interruzione di servizi quali RC, FT, etc) Problemi noti di EDG specifici ad alcuni siti (e.g. RAL) Problemi di saturazione della staging area dellinterfaccia: il clean up non e fatto da AliEn. Il problema e superato: clean up fatto localmente. Crash occasionali del File Transfer Demon Slow file transfer performance Fortunatamente sono problemi di performance per i quali le soluzioni sono possibili.

M.MaseraALICE: Richieste 2004 Analisi distribuita: AliEnFS MSS VFS Kernel LUFS Kernel Space AliEnFS AliEn API User Space castor:// soap:// root:// /alien/ alice/atlas/ data/ prod/ mc/ a/b/ Linux File System MSS Il catalogo di AliEn puo essere montato in ambiente linux come un file system: Il browsing del catalogo e laccesso ai file e dal punto di vista dellutente equivalente allaccesso di un file system convenzionale. CAVEAT: per file remoti su MSS I tempi di accesso dipendono dalle risorse locali

M.MaseraALICE: Richieste 2004 Analisi distribuita: job splitting ******************************************* * * * W E L C O M E to R O O T * * * * Version 3.03/09 3 December 2002 * * * * You are welcome to visit our Web site * * * * * ******************************************* Compiled for linux with thread support. CINT/ROOT C/C++ Interpreter version , Oct Type ? for help. Commands must be C++ statements. Enclose multiple statements between { }. root [0]newanalysis->Submit(); Analysis Macro MSS CE merged Trees +Histograms ? Query for Input Data Esiste a livello di prototipo in Root/AliEn: A partire da una macro di analisi vengono generati tanti job AliEn quanti sono i file su sisti remoti da analizzare I job vengono eseguiti in parallelo I risultati sotto forma di TTree, TNtuple, istogrammi vengono sottoposti a merge

PROOF Classic PROOF USER SESSION 32 Itanium II 2x1GHz, 2 GB RAM, 2x75GB 15K SCSI, Fast/GB Eth PROOF SLAVE SERVERS

M.MaseraALICE: Richieste 2004 Super PROOF USER SESSION PROOFM+S SITE A PROOFM+S SITE B PROOFM+S SITE C SuperPROOF SuperPROOF MASTER

M.MaseraALICE: Richieste 2004 Strumenti di GRID. Situazione attuale ALICE ha tentato la produzione di 5000 eventi Pb-Pb (HBT) sullapplication testbed di EDG 1.4 – 1 job/evento – ore di CPU –1.8 GB/evento 9 TB in tutto Start: 15 Marzo 03. Stop 31 Maggio 03 Eventi prodotti eventi/giorno. Abbastanza per studiare la correlazione di pioni Lapplication testbed di EDG non e` adatto a grandi produzioni NOTA INTERNA IN PRESS

BA: 3 servers (2 ALICE, 1 CMS) BO: 6 servers CA: 2 servers CNAF: 2 servers CNAF Padova Stress test della rete ALICE ha condotto un test sulla capacita di utilizzo delle reti Obiettivi: dove sono i bottle neck nelle connessioni di rete? Le bandwidth sono sufficienti? Risultati: bandwidth saturate in alcuni siti in condizioni di uso normale nel DC Architettura delle farm: NFS inadeguato per file grandi e thread multipli CT: 2 servers PD: 6 servers TO: 2 servers TS: 1 server

M.MaseraALICE: Richieste 2004 EDG 2.0 LCG Luso del testbed da parte delle applicazioni e` servito a mettere in luce i problemi esistenti La versione 2 di EDG e la versione finale (ottobre LCG) dovrebbero aver risolto la maggior parte dei problemi che si sono presentati SVILUPPI IN ITALIA production-qualityPotenziamento del development testbed di DataGrid in modo da arrivare ad una versione finale (autunno 2003) che sia production-quality e completa di VOMS e autenticazione (sviluppati in Italia) In parallelo si sta definendo la partecipazione INFN al Certification Testbed di LCG (macchine al CNAF – team distribuito)

M.MaseraALICE: Richieste 2004 Stima delle risorse necessarie Simulazione: – 10 5 Pb-Pb p-p –Produzione distribuita, replica dei dati (almeno parte) al CERN Ricostruzione e analisi : – Pb-Pb p-p – Ricostruzione effettuata al Cern e fuori a seconda della disponibilita` di risorse – I dati originano dal CERN Risorse (CPU e Storage) : –2004 Q1: 1354 KSI2K e 165 TB –2004 Q2: 1400 KSI2K e 301 TB documento ALICE Data Challenges (nota interna ALICE quasi pronta) presentato al PEB di LCG –Definite nel documento ALICE Data Challenges (nota interna ALICE quasi pronta) presentato al PEB di LCG Le valuazioni numeriche sono state recentemente riviste (Offline week 10 Giugno 2003)

M.MaseraALICE: Richieste 2004 RISORSE PER IL DC3 Le valutazioni sono descritte nel documento ALICE Data Challenge Planning e sono basate su: Risultati dei data challenge precedenti Stime delle simulazioni da effettuare al 2008, con il rivelatore operativo. STORAGE: I 300 TB di dati dovrebbero essere mantenuti su MSS oltre il DC Piano poliennale Quota USA Non confermata

M.MaseraALICE: Richieste 2004 RISORSE CHE DOVREBBERO ESSERE DISPONIBILI PER LCG-1 La quota statunitense e` da confermare

M.MaseraALICE: Richieste 2004 Profilo temporale di uso CPU e storage nel DC3

M.MaseraALICE: Richieste 2004 RISORSE ESISTENTI Risorse finanziate dalla CSNIII a Catania e a Torino Farm LCG a Torino Risorse disponibili al TIER-1: in particolare il mass storage e` al TIER-1 Sub judice CSNIII, eventualmente sbloccabili: 25 k a Catania e 12 k a Torino

M.MaseraALICE: Richieste 2004 Quadro riassuntivo fine 2003 in rosso: s.j. non sbloccato CentroCPU (KSI2000) Disco (TB)Nastri (TB) Tier-1 (valori di picco – I sem 2004) Torino (esistente a fine 2003 – parte LCG) Torino (s.j. CSNIII 2003) 900 Catania (esistente) 1180 Catania (s.j. CSNIII 2003) TOTALE

M.MaseraALICE: Richieste 2004 OBIETTIVI di ALICE ITALIA per il DC-3 I SEMESTRE 2004 II SEMESTRE 2004 CPU (KSI2000) DISCO (TB) (Escluso spool CASTOR) 45 NASTRO (TB)50 Analisi finali post simulazione: ai Tier2 Obiettivi raggiungibili se il Tier2 LCG di Torino raggiunge la potenza dichiarata al progetto stesso per il 2004 (70 KSI2000 e 8 TB) e se il Tier2 di Catania viene potenziato

M.MaseraALICE: Richieste 2004 Quadro riassuntivo richieste 2004 SedeCPU (KSI2000) CPU (k)DISCO (TB) DISCO (k) Torino (LCG) Catania (CSNIII) Totale Costi: 2.1 k per un biprocessore da 1.7 KSI2000 e 4.8 k/TB IVA inclusa

M.MaseraALICE: Richieste 2004 Milestones 2004 Scadenza: Gennaio 2004 Milestone: disponibilità dell'interfaccia AliEn LCG-1 per attività di produzione. Scadenza: 30 Giugno 2004 Milestone: simulazione e ricostruzione (digitizzazione, clusterizzazione e tracciamento nel barrel) nell'ambito del Physics Data challenge di circa eventi Pb-Pb. L'attività sarà condotta in modo distribuito attraverso AliEn e AliEn+LCG.

M.MaseraALICE: Richieste 2004 ALICE DC-3 e LCG AliEn e` linterfaccia di produzione di ALICE – in modo diretto – via LCG Cfr. Attivita` sul testbed e sulla interoperabilita` AliEn/EDG ALICE ha il commitment ad usare tutte le risorse LCG disponibili, assunta unefficienza ragionevole Le risorse per il Data Challenge III (gennaio 2004) vanno stabilite adesso ALICE non avra` DC nel 2005 Le richieste per il 2004 sono per il DC-3

M.MaseraALICE: Richieste 2004 Soluzioni di backup Se il testbed di produzione di LCG fosse in ritardo o dovesse avere delle instabilita` tali da renderlo inefficiente : – Perderemmo gran parte delle risorse e il raggiungimento degli obiettivi del DC potrebbe essere in forse – Almeno in Italia, si potrebbero utilizzare le farm allocate pro tempore ad ALICE direttamente con AliEn La conversione dei WN e molto semplice Laggiunta di CE e SE addizionali e un po piu laboriosa. La riconversione a LCG potrebbe richedere il mirroring dei dati su MSS

M.MaseraALICE: Richieste 2004 Tier3 SedeRichiesta (k) Commenti Bari15.5 Acquisto di un disk server (~1 TB) e 4 biprocessori Bologna7.2 2 biprocessori da rack e 2 monoprocessori per sostituzione di materiale obsoleto e avere un LCFG server Cagliari10 Acquisto di un disk server (~2.5 TB) Catania7.5 Tre biprocessori rack mountable e un desktop (svecchiamento farm locale)