Calcolo per LHCb Italia

Slides:



Advertisements
Presentazioni simili
E835 & Hera-B Concezio Pisa, 21/12/2004. E835 (aka Jet-FNAL) timeline dell'esperimento –Presa dati conclusa nel Alcune analisi tuttora in corso.
Advertisements

Run I Distribuzione inclusive di Min Bias (Mult. Carica, Pt). Correlazioni dello stato finale ( -Mult) + mini-jet (soft hard physics). Campioni utilizzati:
Il Sistema Operativo.
23/01/01Alberto Masoni – GR1 - Roma1 I MODELLI DI CENTRI REGIONALI POSIZIONE DI ALICE ITALIA CENTRO ITALIANO: CPU 450 KSI95, DISCO 400 TB (INSIEME TIER-1.
L. Perini CSN1 -Roma 23 Gen Centri Regionali per il calcolo di ATLAS in Italia Tier-1 e Tiers-N : funzioni, localizzazione, necessita di h/w, personale.
Progetto Speciale Prototipo Tier1 F. Ruggieri INFN – CNAF I Workshop CMS Italia del SW e Computing Roma 22 Novembre 2001.
I Workshop CMS Italia Software & Computing 23 Nov 2001 Alessandra Fanfani Università di Bologna 1 Risultati di HLT in topologie con muoni Outline Introduzione.
P.Capiluppi I Workshop CMS Italia del Computing & Software Roma Novembre 2001 Qualche conclusione e pianificazione per il prossimo futuro.
Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
Proposta di integrazione e consolidamento delle risorse presenti nellinfrastruttura Grid dellItalia Meridionale (L. Merola, )
STUDIO DELLA PRODUZIONE DI CHARM ATTRAVERSO IL CANALE DI DECADIMENTO D 0 ->K3π Rosa Romita Università di Bari.
Aspetti critici rete LAN e WAN per i Tier-2
Silvia Arcelli 1 Metodi di Ricostruzione in fisica Subnucleare Corso di Metodologie Informatiche Per la Fisica Nucleare e Subnucleare A.A. 2009/2010 I.
Stato del Tier2 di Atlas a Napoli Il ruolo dei Tier2 in Atlas La Federazione Italiana dei Tier2 Il Tier2 di Napoli Napoli, 21 Dicembre 2006 – A.Doria.
Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
Strutture dei sistemi di calcolo Funzionamento di un sistema di calcolo Struttura di I/O Struttura della memoria Gerarchia delle memorie Architetture di.
Grid Computing Sergio Andreozzi (INFN-CNAF). A chi interessano i dati prodotti da LHC? Circa 5,000 scienziati –sparsi nel mondo –appartenenti ad istituzioni/università
Grid Computing Sergio Andreozzi. Chi è interessato ad analizzare i dati generati da LHC? Circa 5,000 scienziati –distribuiti nel mondo –appartenenti ad.
Reti di Calcolatori L-S Un Sistema Decentrato di Allocazione del Carico per Applicazioni di Calcolo Distribuito Mauro Bampo.
Vincenzo Vagnoni per il gruppo di Bologna
Tier1 - cpu KSI2k days ATLAS KSI2k days CMS. Tier1 - storage CASTOR disk space CMS requires: T1D0, T0D1 ATLAS requires: T1D0, T0D1 and T1D1.
Studio preliminare della produzione Z+b all'esperimento ATLAS ad LHC 1 30/03/2005 Studio preliminare della produzione Z+b nellesperimento ATLAS ad LHC.
1 Riunione Testbed - 17 gennaio Agenda - stato del testbed di INFN-GRID (L. Gaido) - le risorse del CNAF (A. Italiano) - report sullo stress test.
Execution benchmarks Obiettivi Test dettagliati e ben caratterizzati Esecuzione di benchmark standard Test di applicazioni dell'esperimento ALICE 20 Novembre.
Universita' degli Studi di Torino Studio della reazione pp qqW L W L qq qq al rivelatore CMS ad LHC Gianluca CERMINARA.
Universita' degli Studi di Torino
Riccardo Capra 1 B A B AR Italia – 10 Aprile 2003 Ricerca dellh c in decadimenti radiativi Misura del BR(B ± 0c K ± ) Ricerca dell c (2S) in decadimenti.
Il calcolo distribuito in ATLAS
Rivelazione e misura di mesoni 0 con il rivelatore ICARUS T600 A. Menegolli – Collaborazione ICARUS A. Menegolli – Collaborazione ICARUS Università degli.
LNL M.Biasotto, Bologna, 18 ottobre La farm CMS di Padova - Legnaro Proposta di acquisto hardware 2° semestre 2001.
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
1 M. Biasotto – Legnaro, 22 Dicembre 2005 Prototipo Tier 2 di Legnaro-Padova INFN Legnaro.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
INTRODUZIONE l sistema operativo è il primo software che lutente utilizza quando accende il computer; 1)Viene caricato nella memoria RAM con loperazione.
Servizi Grid ed agenti mobili : un ambiente di sviluppo e delivering
Rivelazione e misura di mesoni 0 con il rivelatore ICARUS T600 A. Menegolli – Collaborazione ICARUS A. Menegolli – Collaborazione ICARUS Università degli.
Alessia Tricomi Università & INFN Catania
La “Griglia” informatica Fabrizio Gagliardi CERN EGEE Project Director
Stato del computing Andrea Sciabà Riunione del consorzio INFN Firenze, 7 settembre 2001 Farm italiane Produzione Monte Carlo b/ Progetti di GRID.
* * Data Challenge 04 Stato dei centri di produzione in Italia.
P.L. Fabbri Gli Hard Disks sono oggetti molto affidabili. Strategie di Backup dei dati … fino a che non si guastano !!!
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
Analysis unibo una proposta. Work flow di una tipica analisi 1.Simulazione di piccoli campioni di eventi per studio segnale 2.Generazione in grande.
CCR 14-15/03/2006 Status Report Gruppo Storage CCR.
Misura di elettroni di bassa energia in ICARUS T600 Alessandro Menegolli – ICARUS Collaboration Dipartimento di Fisica Nucleare e Teorica, Universita`
Servizio Sistema Informativo - Area Gestione Sistemi e Sicurezza – LNF – Dael Maselli Area Gestione Sistemi e Sicurezza LNF Plenaria Servizio Sistema Informativo.
STUDY OF THE DECAY D 0  K3π IN p-p COLLISIONS Rosa Romita, Università e INFN di Bari.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
Attivita' Grid in BaBar Workshop sulle Problematiche di Calcolo e Reti nell'INFN Maggio 2004.
1 LHCb Computing Angelo Carbone, INFN-CNAF CSN1, 21/9/06 Aggiornamento richieste Tier Richiesta Tier-2 al CNAF Stato e risultati DC06.
L. Servoli - CCR Roma 15 marzo Il progetto High Availability D. Salomoni - CNAF L. Servoli - INFN Perugia.
Attività d’analisi dei gruppi CDF di UD e TS Massimo Casarsa Sez. INFN di Trieste Trieste, 8 Febbraio 2005 ► Attività del Gruppo di Udine: M.P. Giordani,
Riccardo Capra 1 B A B AR Italia – 10 Aprile 2003 Ricerca dell’h c in decadimenti radiativi Misura del BR(B ±   0c K ± ) Ricerca dell’  c (2S) in decadimenti.
Tier-2 Tier-2 ATLAS (Osservazioni sulla proposta dei referee del calcolo LHC) Lamberto Luminari CSN1 – Roma, 3 Aprile 2006.
Calcolo esperimenti LHC 2004 F. Ferroni, P. Lubrano, A. Martin, M. Morandin, M. Sozzi.
CDF Calcolo Another brick in the wall Paolo Morettini CSN1 Lecce Valerio Vercesi Settembre 2003.
ATLAS Computing Model Lamberto Luminari CSN Gennaio, 2005.
Consorzio COMETA - Progetto PI2S2 UNIONE EUROPEA SAGE – Un sistema per l’accounting dello storage in gLite Fabio Scibilia Consorzio.
D. Martello Dip. Fisica - Lecce Sintesi piani esperimenti CSN2 CNAF 7-marzo-2007.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 1 ATLAS Attività di TeV Attività di computing Attività di computing.
Claudio Grandi Workshop CCR 2015 Claudio Grandi INFN Bologna.
17 GennaioTier2 Milano G. Costa 1 17-Gennaio-2006.
Sistema di monitoraggio integrato Introduzione a cura di P. Mastroserio Servizio Calcolo & Reti Infn-Napoli P. Mastroserio Workshop CCR - INFN Grid Acireale.
1 ALICE I ITER2 DI ALICE IN ITALIA Bologna, 6 marzo 2007 M. Masera
Referaggio TIER2 di Pisa 30 giugno 2006 Silvia Arezzini (Servizio Calcolo e Reti)
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
Il calcolo per l’esperimento GERDA Luciano Pandola INFN, Laboratori del Gran Sasso Riunione della CSN2, LNF Frascati, 29 Novembre 2011.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Transcript della presentazione:

Calcolo per LHCb Italia Domenico Galli e Umberto Marconi Dipartimento di Fisica e INFN Bologna Napoli, 15 giugno 2000

Produzione di dati reali e Monte Carlo Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

Produzione di dati reali e Monte Carlo I RAW Tag contengono una classificazione degli eventi operata dal codice del trigger di alto livello. I RAWmc contengono anche la storia fisica dell’evento che viene tramandata fino agli AOD e che può essere usata nell’analisi. I dataset di eventi MC sono perciò più grandi di quelli reali. La ricostruzione degli eventi RAW (100 TB/a reali + 200 TB/a MC) produce i dati ESD (100 TB/a reali + 100 TB/a MC) e TAG di ricostruzione. Il CERN è il centro di produzione dei dati reali. Centri di produzione dei dati Monte Carlo sono i centri periferici (RAL, Lyon, INFN, Liverpool, …) e non il CERN. Potenza di calcolo richiesta in un centro di produzione Monte Carlo: 100000 SI95 (= 5000 CPU99). Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

Requisiti per la produzione di eventi Monte Carlo Segnale: numero di eventi simulati pari a 10 volte il numero di eventi reali del medesimo canale (106 reali ® 107 MC). Fondo bb: tanti eventi simulati quanti eventi reali registrati (109 reali ® 109 MC). Tempo di CPU richiesto per segnale 3 ´ 1012 SI95 s. Tempo di CPU richiesto per fondo (anticipando il più possibile i tagli e riciclando i dati di generazione): 1.2 ´ 1013 SI95 s. Tempo di CPU totale produzione Monte Carlo: 1.5 ´ 1013 SI95 s. Produzione entro un anno (3 ´ 107 s) ” potenza di CPU richiesta: 5 ´ 105 SI95 (25000 CPU99) distribuiti tra i centri regionali Tier-1. Calcolo per LHCb Italia Domenico Galli e Umberto Marconi 1 CPU99 = 20 SPECint95

Tempo di CPU richiesto per la produzione di eventi Monte Carlo (107 eventi di segnale B®D*p) Tempo di CPU/evento Tempo totale di CPU # [SI95 s/evt] [CPU99 s/evt] [SI95 s] [CPU99 s] Generazione 1010 200 10 2 ´ 1012 1011 Tracciamento 109 1000 50 1012 5 ´ 1010 Digitalizzazione 100 5 5 ´ 109 Triggering Ricostruzione 108 250 13 2.5 ´ 1010 Stati finali 107 20 1 2 ´ 108 Totale 1670 84 3 ´ 1012 1.5 ´ 1011 1 CPU99 = 20 SPECint95 Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

Tempo di CPU richiesto per la produzione di eventi Monte Carlo (109 eventi di fondo filtrati come B®D*p) eventi Tempo di CPU/evento Tempo totale di CPU # [SI95 s/evt] [CPU99 s/evt] [SI95 s] [CPU99 s] Generazione 1012 200 10 2 ´ 1014 1013 Tracciamento 1011 1000 50 1014 5 ´ 1012 Digitalizzazione 100 5 5 ´ 1011 Triggering Ricostruzione 109 250 13 2.5 ´ 1011 1.3 ´ 1010 Totale 1650 83 3 ´ 1014 1.5 ´ 1013 1 CPU99 = 20 SPECint95 Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

Analisi di produzione Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

Analisi di produzione Ricostruzione stati finali: i dati ESD (tracce, cluster, particle id.) sono analizzati per determinare i 4-impulsi corrispondenti alle tracce, per localizzare i vertici, per calcolare le masse invarianti e per identificare le risonanze (J/Y, p0, ecc.). Eseguita una sola volta per tutti i tipi di analisi utente nel centro di produzione. Richiesti 2000 SI95 (100 CPU99). Individuazione dell’analisi appropriata per il singolo evento sulla base dei TAG di ricostruzione: più di un algoritmo di analisi può essere eseguito per il singolo evento, in quanto può essere soddisfatta più di una delle condizioni richieste sui TAG di ricostruzione (p. es.: 2 muoni, 2 adroni, ecc.). Il risultato sono gli AOD (20 TB/a reali) e i TAG di analisi (1 TB/a reali). Soltanto AOD e TAG di analisi vengono esportati sistematicamente dai centri di produzione ai centri di analisi (a differenza di altri esperimenti LHC). Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

Analisi utente Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

Analisi utente Gli AOD che corrispondono a eventi con TAG di analisi di interesse (selezione) vengono processati e viene ricostruito il canale di decadimento del B in studio. Questo processo produce dati privati (n-ple) che possono essere interrogati interattivamente per produrre risultati fisici. Poiché il numero di canali in studio è molto alto, si può supporre che ogni fisico esegua un’analisi separata su di un canale specifico (non esistono gruppi di analisi come in altri esperimenti LHC). Potenza di calcolo richiesta: 10000 SI95 (=500 CPU99) nei centri regionali e 20000 SI95 (=1000 CPU99) al CERN. Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

Differenze rispetto al modello MONARC L’architettura di base del modello di calcolo di LHCb corrisponde al modello MONARC. Tuttavia alcuni dettagli distinguono LHCb dai maggiori esperimenti LHC: Il numero di canali di analisi in studio è molto grande e si presume che i fisici lavorino in maniera molto indipendente sui diversi canali di analisi. Non vengono identificati gruppi di analisi. Il primo stadio dell’analisi è eseguito in comune per tutte le analisi che seguono nei centri di produzione. I centri di produzione esportano sistematicamente soltanto AOD e TAG (vengono distribuiti piccoli campioni di RAW ed ESD soltanto su richiesta). Non vi è una netta distinzione tra Tier1 e Tier2. Il trasferimento di dati è tale da potere essere realizzato esclusivamente su WAN. Il CERN agisce soltanto come centro di produzione di dati reali. I dati Monte Carlo vengono prodotti esclusivamente nei centri di produzione periferici (RAL, Lyon, INFN, …). Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

AOD e TAG sistematicamente Il movimento dei dati Centro di produzione Dati reali: CERN Dati Monte Carlo: RAL, Lyon, INFN, … AOD e TAG sistematicamente Reali: 80 TB/a Monte Carlo: 120 TB/a Centro regionale Centro regionale Centro regionale Centro regionale Centro regionale AOD e TAG su richiesta Reali:10 TB/a Monte Carlo: 30 TB/a Server dipartimentale Server dipartimentale Server dipartimentale Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

Ruolo del middleware di Grid Scenario 1: analisi dati reali Un fisico di Ferrara vuole analizzare la reazione B0 ® J/Y K0s. Gli AOD e i TAG per tutti i 109 eventi prodotti in un anno sono distribuiti sistematicamente dal CERN a tutti i Tier-1 (tra cui il Tier-1 INFN). Le procedure di selezione sono eseguite al Tier-1 INFN e identificano 107 candidati di interesse in base ai TAG. Gli AOD e i TAG corrispondenti ai 107 eventi selezionati (200 GB AOD + 10 GB TAG) sono copiati dal Tier-1 INFN al Tier-3 di Ferrara (alcune ore su WAN). I job di analisi utente sono eseguiti sul Tier-3 di Ferrara più volte sugli eventi selezionati. Evitare copie multiple degli stessi data set (diversi fisici eseguono analisi diverse sugli stessi dati). Il software di data caching & replication, in maniera trasparente per l’utente, deve gestire un database dei TAG per tenere traccia degli eventi disponibili localmente. Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

Ruolo del middleware di Grid Scenario 2: analisi dati reali (canale molto popolato) Un fisico di Ferrara vuole analizzare la reazione B0 ® D*- p+. È simile allo scenario 1. In questo caso gli AOD selezionati (108 eventi, 2 TB) sono più grandi di un ordine di grandezza rispetto al caso precedente e non possono essere trasferiti su WAN in tempi ragionevoli. L’analisi utente sarà eseguita presso un Tier-1 (possibilmente con load balancing), invece che al Tier-3 di Ferrara. Spostamento dei job verso i dati invece di spostamento dei dati verso le macchine. Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

Ruolo del middleware di Grid Scenario 3: analisi fondo simulato Un fisico di Cagliari vuole analizzare la reazione B0 ® J/Y K0s sugli eventi di fondo bb generati a Lyon. I 109 eventi (12 TB GEN, 200 TB RAW, 100 TB ESD, 20 TB AOD, 1 TB TAG) sono archiviati a Lyon (centro di produzione). Gli AOD, i GEN e i TAG per tutti i 109 eventi prodotti (33 TB) sono distribuiti sistematicamente da Lyon a tutti i Tier-1 (tra cui il Tier-1 INFN). Il fisico esegue al Tier-1 INFN il job di selezione che controlla i TAG e identifica i candidati di interesse (circa 105 eventi). I 105 eventi di interesse (3.3 GB di AOD, TAG e GEN) sono copiati dal Tier-1 INFN al Tier-3 di Cagliari attraverso la WAN. I job di analisi utente sono eseguiti sul Tier-3 di Cagliari più volte sugli eventi selezionati. Il software di data caching & replication, in maniera trasparente per l’utente, deve gestire un database dei TAG per tenere traccia degli eventi disponibili localmente ed evitare copie multiple degli stessi data set. Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

Ruolo del middleware di Grid. Compiti Distribuzione sistematica AOD, TAG e GEN (per i dati MC) dai centri di produzione (CERN per dati reali, RAL + Lyon + INFN + Liverpool + … per dati Monte Carlo) a tutti i centri regionali Tier-1: CERN + RAL + Lyon + INFN + Liverpool + … (200 TB/a). Distribuzione selezione AOD (basata su TAG) da un centro regionale Tier-1 al server dipartimentale (Tier-3) che ne fa richiesta (per 107 eventi: 200 GB AOD e 10 GB TAG in alcune ore). Aggiornamento di un database dei TAG per tenere traccia dei dati disponibili localmente nei Tier-3 onde evitare trasferimenti multipli degli stessi data set. Distribuzione campioni ESD dai centri di produzione al Tier-3 che ne fa richiesta (per 105 eventi: 10 GB). Distribuzione campioni RAW dai centri di produzione al Tier-3 che ne fa richiesta (per 100 eventi: 100 MB). Per analisi su grandi campioni di eventi (B®D*p) spostamento dei job verso i dati (centri regionali Tier-1) e load balancing sui Tier-1. Distribuzione del database delle calibrazioni. Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

Piano di produzione di eventi Monte Carlo dal 2000 al 2005 La collaborazione LHCb intende avviare immediatamente la produzione Monte Carlo, che richiede una potenza di calcolo notevole. Necessariamente il piano di sviluppo del sistema di calcolo segue perciò uno schema bottom-up (che parte dalle esigenze a breve termine). 2000-2001: produzione di ~3 ´ 106 evt/a simulati per l’ottimizzazione dei rivelatori e del trigger di primo livello, in preparazione dei TDR del rivelatore, attesi nel 2001 e all’inizio del 2002); 2002-2003: studi degli algoritmi del trigger di alto livello (~6´106 evt/a); 2004-2005: produzione di grandi campioni di eventi di fondo (~107 evt/a). L’attività di produzione di eventi Monte Carlo verrà utilizzata per collaudare l’infrastruttura di calcolo. Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

Piano di test su grande scala del modello di calcolo (Data Challenge) Dal 2002 al 2004 dovranno essere eseguiti i test per convalidare il modello di calcolo di LHCb; 2002: DC 1 – verifica del middleware di grid e del software di amministrazione della farm, utilizzando una simulazione reale e l’analisi di 107 eventi di decadimento del B. Parteciperanno: CERN, RAL, Lione/CCIN2P3, Liverpool, INFN. Scritture di dati RAW e ESD su disco da parte di molti processi MC simultanei. Accesso simultaneo al database di calibrazione da parte di molteplici job di ricostruzione. 2003: DC 2 – test del prototipo di grande scala di Tier-0 al CERN. Amministrazione del sistema e delle applicazioni. Analisi: studio di accessi ai dati di tipo caotico. Prove di sforzo del modello dei dati e degli algoritmi Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

Requisiti globali dei centri Tier-1 di LHCb Unità 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 Eventi segnale a-1 106 2´106 3´106 5´106 107 Eventi fondo 1.5´106 4´106 109 CPU segnale SI95 104 2´104 3´104 5´104 105 CPU fondo 1.6´104 2.4´104 3.2´104 6.4´104 1.6´105 4´104 CPU analisi 2500 5000 7500 1.3´104 2.5´104 RAWmc disco TB 0.4 0.5 0.8 1.4 3 202 RAWmc nastro 404 606 808 1010 1212 ESDmc disco 0.2 0.25 0.7 1.5 101 AOD disco 0.06 0.1 0.3 50 TAG disco 0.01 0.015 2 Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

Requisiti globali dei centri Tier-1 di LHCb TB Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

Piano di acquisti per un centro regionale Tier-1 di LHCb (valori incrementali) Unità 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 CPU SI95 5700 1600 4100 8900 24200 60500 31500 Disco TB 0.18 0.07 0.09 0.38 0.69 111.2 22.4 Nastro 0.08 0.02 0.06 0.12 0.32 39.8 40.4 Risorse divise tra 5 centri regionali. Nel funzionamento a regime (a partire dal 2006) sostituzione ogni anno di 30% CPU e 20% dischi. Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

Il Tier-1 INFN di LHCb LHCb-Italia intende adeguarsi alla pianificazione della collaborazione entro la fine del 2001. LHCb-Italia intende concentrare il Tier-1 in un unico sito, alloggiato in un “consorzio di calcolo”, scelto in base alla convenienza economica con una gara d’appalto. Una sola istallazione. Architettura analoga agli altri Tier-1 europei. Assenza dei problemi connessi all’utilizzo della WAN (routing, ottimizzazione dei trasferimenti per ovviare ai limiti della banda, ecc.). Assenza di particolari esigenze di organizzazione e sincronizzazione. Il controllo remoto delle risorse richiede meno bandwidth di quanta non ne richieda la distribuzione geografica di dati e CPU. L’utilizzazione remota delle risorse di calcolo concentrate potrà essere trasparente per l’utente grazie al software di griglia. Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

Il Tier-1 INFN di LHCb (II) Il consorzio si occupa dell’alloggiamento delle risorse di calcolo: allacciamenti; condizionamento; continuità; custodia. Al consorzio si intende dare in outsourcing il lavoro sistemistico: partecipazione all’istallazione del sistema; gestione e monitoraggio; intervento in caso di hang; intervento per il ripristino della connettività LAN o WAN; procedure di backup; aggiornamento e patch del sistema operativo. Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

Piano di investimenti di LHCb-Italia Unità 2001 2002 2003 CPU [kE] 316 110 150 Switch 24 6 Rack 20 10 Disco 5.5 1.2 3.9 Nastro 0.11 0.03 0.04 Lettori nastro 4 Totale hardware 370 127 170 Numero CPU # 158 213 288 Energia elettrica 33 45 61 Alloggiamento 25 32 Personale sistemistico 55 60 67 Totale spese generali 108 130 160 Gran totale 478 257 330 Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

Gruppo nazionale computing di LHCb Sezione Test-bed HEP applications DATAGRID Totale Maurizio Bonesini MI 10% - Walter Bonivento CA 20% Domenico Galli BO 50% 30% 80% Alberto Gianoli FE Umberto Marconi Marco Paganoni Roberta Santacesaria RM1 Nicola Semprini Cesari Vincenzo Vagnoni 40% 60% Stefania Vecchi 240% 100% 400% Calcolo per LHCb Italia Domenico Galli e Umberto Marconi