Calcolo a LHC CB 23 maggio 2011 Quadro generale Gare CPU e disco.

Slides:



Advertisements
Presentazioni simili
CSN1 2 Aprile 2003 P. Morettini 1 Relazione sulla CCR La riunione di Commissione Calcolo e Reti del 6 Marzo è stata in parte dedicata alla discussione.
Advertisements

23/01/01Alberto Masoni – GR1 - Roma1 I MODELLI DI CENTRI REGIONALI POSIZIONE DI ALICE ITALIA CENTRO ITALIANO: CPU 450 KSI95, DISCO 400 TB (INSIEME TIER-1.
CCR 14-15/03/2006 Status Report Gruppo Storage CCR.
3 Aprile CSN1 P. Capiluppi Tier2 CMS Italia.
6 Febbraio 2006CSN1 - Roma1 MEG : relazione dei referees P. Cenci R. Contri P. Morettini M. Sozzi.
1 CSN1 - Lecce 22/09/2003 Babar Relazione e proposte finanziarie Referee: M. de Palma, P. Lubrano, C. Luci, L. Perini,A. Staiano.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
CSN Maggio 2005 P. Capiluppi Il Computing Model (LHC) nella realta’ italiana u I Computing models degli esperimenti LHC gia’ presentati a Gennaio.
1 LHCb Computing Angelo Carbone, INFN-CNAF CSN1, 21/9/06 Aggiornamento richieste Tier Richiesta Tier-2 al CNAF Stato e risultati DC06.
Perugia - 12 novembre 2002 M. Morandin - INFN Padova Budget calcolo Babar 2003 e contributo INFN.
Preparazione RRB Commissione Scientifica Nazionale I 1-2 aprile 2003 S. Patricelli Consuntivo fondi M&O 2002 Divisione tra subdetectors dei fondi extra-CORE.
CSN1-Assisi L.Perini1 BaBar Calcolo L. Perini per i referees: L.Perini,A.Staiano…
Referees LHCB-CSN1 05/061 LHCB : proposte dei referees Giovanni Batignani Roberto Ferrari Chiara Meroni Rosario Nania.
Tier-2 Tier-2 ATLAS (Osservazioni sulla proposta dei referee del calcolo LHC) Lamberto Luminari CSN1 – Roma, 3 Aprile 2006.
Gruppo di referaggio: Forti (chair), Bossi, Ferrari, Menasce, Morandin, Simone, Taiuti, Zoccoli TIER2: Update F. Bossi, CSN1 Trieste 7/7/05.
15/05/2007CSN1 Roma Presidenza1 KLOE: referee* KLOE Calcolo (referee calcolo) KLOE2 Tabelle con proposte di assegnazione * M. Livan, P. Paolucci, P.C.
Il calcolo LHC in Italia: commenti Gruppo di referaggio Forti (chair), Belforte  Bossi, Menasce, Simone, Taiuti, Ferrari, Morandin, Zoccoli.
Giovanni Volpini, CSN 1, Roma, 18 maggio 2004 ISTITUTO NAZIONALE DI FISICA NUCLEARE SEZIONE DI MILANO LABORATORIO ACCELERATORI E SUPERCONDUTTIVITA’ APPLICATA.
Calcolo LHC Francesco Forti, Università e INFN – Pisa Per il gruppo di referaggio: F. Bossi, C. Bozzi, R. Carlin, R. Ferrari, F.F., D.Martello, M.Morandin,
Relazione Referee ATLAS F.Bedeschi, R. Carlin, S. Dalla Torre, N.Pastrone 4 Luglio 2006 Richieste aggiuntive Chiusura gare Missioni.
Gruppo 1 - Catania 16/09/2002 – R. Fantechi, P. Lubrano, S. Zucchelli (R. Fantechi, P.Lubrano, L. Perini per il calcolo) KLOE - Richieste aggiuntive 2002.
STATO DEI PROGETTI TIER2 F. Bossi CCR, Roma, 20 Ottobre 2005 ( per il gruppo di referaggio)
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
CDF Calcolo Another brick in the wall Paolo Morettini CSN1 Lecce Valerio Vercesi Settembre 2003.
Review dei Tier-2 degli esperimenti LHC S.Pirrone INFN-Sezione di Catania per il gruppo dei referee CNS Giugno 2014 LNGS.
Report dalla CSN Settembre Sala dei Mappamondi - Torino Gianpaolo Carlino – Consiglio di Sezione, 5 Novembre 2012.
26 Giugno 2007CSN1 - Frascati1 Temi di attualità nella CCR Accanto alla tradizionale attività di controllo dei finanziamenti per le infrastrutture di calcolo.
D. Martello Dip. Fisica - Lecce Sintesi piani esperimenti CSN2 CNAF 7-marzo-2007.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Lecce 30 Settembre 2015.
Atlas Italia - Milano, 17/11/2009 G. Carlino – News dal Computing 1 1 News dal computing Gianpaolo Carlino INFN Napoli Atlas Italia, Milano, 17/11/09 Nuovo.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
1 referee-BaBar CSN I, LNF giugno 2007 RELAZIONE DEI REFEREE DI BaBar M.De Palma, C.Luci, C.Troncon, B.Gobbo(calcolo) 26 giugno 2007.
Referees di ATLAS-CMS: commenti sulle attività di upgrade M.Grassi S.Miscetti A.Passeri D.Pinci V.Vagnoni Sulla base di quanto presentato nell’incontro.
Riunione CSN1, Roma, Giugno 2015F. Bedeschi, INFN-Pisa 1 Riunione CSN1 F. Bedeschi, Roma, Giugno 2015  Sommario  Comunicazioni  Premiali 2014  MOF-LHC.
Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 1 ATLAS Attività di TeV Attività di computing Attività di computing.
Il primo anno di presa dati di LHC L’esperienza di calcolo nell’esperimento ATLAS Attività condotte nel 2010 e prospettive future Lorenzo Rinaldi (INFN-CNAF)
Claudio Grandi Comunicazioni Claudio Grandi INFN Bologna.
Referaggio sigla CALCOLO D. Bonacorsi, G. Carlino, P. Morettini CCR – Roma 9 Settembre 2014.
ATLAS e CMS Relazione dei referees A. Cardini, M. Grassi, G. Passaleva, A. Passeri, V.Vagnoni.
Riunione CSN1, Milano, Marzo 2013F. Bedeschi, INFN-Pisa 1 Riunione CSN1  Comunicazioni  Varie  Sblocchi SJ  Commento a riunione di oggi F. Bedeschi.
17 GennaioTier2 Milano G. Costa 1 17-Gennaio-2006.
19 Ottobre 2012ATLAS Milano1 Stato delle risorse locali di calcolo L. Carminati, L. Perini, D. Rebatto, L. Vaccarossa.
Riunione CSN1, Bologna, Settembre 2013F. Bedeschi, INFN-Pisa 1 Riunione CSN1  Comunicazioni  Bilancio 2013  Bilancio 2014 F. Bedeschi Bologna, Settembre.
Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 1 Referaggio Tier2 ATLAS Attività di Computing 2009 Attività di Computing 2009 Stato dei.
Referaggio delle richieste dei gruppi di lavoro G. Ambrosi, R. Fantechi, M. Gulmini, O. Pinazza Commissione Calcolo e Reti, LNF, 5-7 Ottobre 2011.
1 Firenze, 6 Settembre 2011 G. Carlino – Relazione Referaggi Computing ATLAS Relezione Riunioni Referaggio Calcolo ATLAS Computing Model News Computing.
ATLAS Relazione dei referees A. Cardini, M. Grassi, D. Lucchesi, G. Passaleva, A. Passeri.
1 referee-BaBar CSN I, Roma Gennaio 2008 RELAZIONE DEI REFEREE DI BaBar e SuperB M.De Palma, C.Luci, C.Troncon, B.Gobbo(calcolo),D. Pedrini
Uso della rete geografica e richieste di upgrade CCR 31/3/2015 (Roma) S.Zani.
19/4/2013 D. Menasce, M. Serra - Referaggio Progetti INFRA e WLCG 1.
Stato e previsione rete nelle sedi INFN Survey ed ipotesi di sviluppo fino al 2018 CCR 8-10 Settembre 2018 (Roma) 1 S.Zani (Netgroup)
CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 1 ATLAS Referaggio Tier2 Attività di TeV Attività di TeV Richieste.
Referaggio TIER2 di Pisa 30 giugno 2006 Silvia Arezzini (Servizio Calcolo e Reti)
Riunione CSN1, Roma, Gennaio 2012F. Bedeschi, INFN-Pisa 1 Riunione CSN1  Comunicazioni  Comunicazioni varie  Riunioni future  Similfellows  Regole.
Referaggio Calcolo ATLAS II Gianpaolo Carlino INFN Napoli Catania, 12 Settembre 2012 Risorse e Richieste 2013 nei preventivi Aggiornamento in seguito all’allungamento.
Calcolo a LHC Concezio Bozzi, INFN Ferrara per il gruppo di referaggio: F. Bossi, CB, R. Ferrari, D. Lucchesi, D. Martello, [M. Morandin], S. Pirrone,
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Catania 1 Ottobre 2014.
The INFN Tier-1: progetto di ampliamento Cristina Vistoli – INFN CNAF Referee Meeting Sep
10 Ottobre CSN1 P. Capiluppi Tier2 CMS Italia 3Bari  In comune con Alice 3Legnaro  In comune con Alice 3Pisa 3Roma1  In comune con Atlas Sedi.
Relazione referees di ATLAS, Ferrara Giugno Relazione referee di ATLAS  Raccomandazioni su sblocchi SJ e finanziamenti aggiuntivi 2008 Riunione.
Referee ALICE C.Agodi, D.Calvo, A.Di Ciaccio, P.Iaselli, S.Pirrone CSN3 – Torino, 17 - settembre 2013.
ATLAS Italia – Sestri Levante, 15 Giugno 2010 G. Carlino – Richieste Run Efficiency = time for physics / total time LHC Efficiency = time with colliding.
1 Bari, 21 Settembre 2011 G. Carlino – ATLAS: il calcolo ATLAS: il Calcolo Attività di Computing nel 2011 Attività di Computing nel 2011 Richieste Tier2.
L’infrastruttura del progetto ReCaS Paolo Lo Re on behalf of ReCaS collaboration.
Referaggio Calcolo ATLAS Gianpaolo Carlino INFN Napoli CNAF, 11 Maggio 2012 Attività di Computing ATLAS Attività di Computing in Italia Risorse e Richieste.
CNAF. storage Siamo in una fase di tuning con lo storage, che al momento sembra essere un collo di bottiglia 1.~10 giorni fa vista saturazione GPFS.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
I costi del Calcolo LHC un update –
Richieste preliminari calcolo non LHC
ALICE CALCOLO richieste finanziarie e proposte di assegnazione 2017
Transcript della presentazione:

Calcolo a LHC CB 23 maggio 2011 Quadro generale Gare CPU e disco

Utilizzo delle risorse

Qualche paragone IN2P3 CNAF RAL FZK

Dove calcolano gli esperimenti? ALICE ATLAS CMS LHCb (Gen-Dic notare le scale) CERN + Tier1

Dove calcolano gli esperimenti? ALICEATLAS CMS LHCb Tier2

ATLAS Qualche dettaglio dalla riunione di referaggio

CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS /11 LHC pp data taking TB Logical data Physical data

CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS LHC – Data Distribution MB/s per day Produzione transf. dati da produzione interni alle cloud Tier-0 export flusso dati da tier0 include calibration streams Sottoscrizioni utenti Functional test GennaioFebbraioMarzoAprileMaggio Attività Data consolidation Transf. dati tra Tier1 extra-cloud Data brokering trasf. Dinamico dati analisi Data brokering solo formati leggeri (AOD, NTUP)  basso throughput

CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 9 Utilizzo risorse in Italia WCT consumptions dei job di produzione. Giugno 2010 – Maggio 2011 Share della cloud inferiore a quello del CNAF: inferiori risorse nei Tier2 risorse 2010 appena installate

CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 10 Utilizzo risorse in Italia WCT consumptions dei job di produzione. Giugno 2010 – Maggio 2011 Lo share minore di Milano è dovuto soprattutto al ritardo delle ultime installazioni di CPU dovute a grossi problemi con l’installazione di uno storage difettoso e alla contemporanea diminuzione (temporanea) del personale scelta di privilegiare l’analisi per favorire l’ampia comunità di riferimento Il Tier3 di RM tre ha messo a disposizione per ATLAS circa cento cores da febbraio. Quando libere utilizzate dai job di produzione

CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 11 Utilizzo risorse in Italia WCT consumptions dei job di analisi. Giugno 2010 – Maggio 2011 I Tier3 per l’analisi vengono utilizzati solo per l’interattivo e non compaiono nell’accounting di Panda

CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 12 Utilizzo risorse al CNAF Monitor CNAF Risorse ATLAS al CNAF (250 giorni): usato: ~ 50 M HS assegnato: ~ 40 M HS ATLAS 32% ATLAS ha beneficiato della bassa attività di alcune VO soprattutto nel 2010

CMS Qualche dettaglio dalla riunione di referaggio

14

LHCB Qualche dettaglio dalla riunione di referaggio

Notizie dall’RRB Le condizioni sperimentali di LHC hanno prodotto cambiamenti nei modelli di calcolo degli esperimenti Buzzword: “Pile-up” – Eventi piu’ massicci del previsto – Tempi di ricostruzione dilatati – Impatto sulle simulazioni Dato che le risorse 2011 erano gia’ decise, gli esperimenti hanno conseguentemente adattato i loro modelli di calcolo – Meno copie distribuite in giro per il mondo – Meccanismi di cancellazione automatica di dataset poco utilizzati – Utilizzo maggiore della rete – Meno passi di ricostruzione Una conseguenza positiva: incrementi sensibilmente minori rispetto a

Notizie dall’RRB Chiesti aumenti di banda passante del trigger – LHCC ha detto che e’ una buona idea… purche’ sia fatto a risorse costanti… – …con l’eccezione di LHCb: +50% da 2kHz a 3kHz e un impatto sulle risorse significativo Richieste generalmente accolte dallo Scrutiny Group, con modifiche minime Per ALICE, le risorse richieste continuano ad essere sistematicamente piu’ alte delle pledge – si e’ suggerito di ridurre la frazione di eventi simulati, il numero di ricostruzioni e le copie distribuite nei vari Tier – Se ne riparla in autunno

CRSG recommendations – April C-RRB

Acquisti 2012: vincoli Per avere le CPU installate ad aprile 2012, le gare devono andare in direttivo a fine giugno  capitolati da sottomettere entro questa settimana! Conviene effettuare gare congiunte per le CPU di Tier1 e Tier2 – Gia’ fatto nell’anno in corso – Con ovvi risparmi! ~40%! Per il disco: – Tempistica leggermente piu’ rilassata – Diverse soluzioni tecnologiche  gare separate per Tier1 e Tier2 Il referaggio delle risorse al Tier1 e’ abbastanza “automatico” per gli esperimenti a LHC – Verifichiamo l’utilizzo delle risorse negli ultimi mesi – Recepiamo quanto deliberato dall’RRB ad aprile, riscalando con le percentuali di italiani in ogni esperimento – Utilizziamo fattori di scala (“overlap”) Per i Tier2, c’e’ – una parte che scala con il modello di calcolo (di referaggio immediato) – Una parte aggiuntiva per l’analisi degli italiani (piu’ complicata e non ancora completamente definita)

Gli “overlap” al Tier1 Per le CPU, e’ praticamente impossibile che tutti gli esperimenti che calcolano al Tier1 necessitino contemporaneamente di tutte le risorse a loro allocate Introdotto “overlap” del 20% per riscalare le risorse di ogni esperimento Per il disco, un overlap analogo del 10% era stato introdotto per motivi “storici” Allo stato attuale, riteniamo l’overlap per il disco superato… …ma se dovessimo eliminarlo completamente dovremmo acquistare 1PB aggiuntivo in un solo colpo!  Diluiamo nel tempo (vedi oltre)

CPU overlap L’accounting di WLCG per gli ultimi mesi del 2010 e i primi tre mesi del 2011 mostra un utilizzo delle risorse di circa il 115% rispetto alle pledges L’overlap ha senso, ma possiamo leggermente ridurlo – LHC sta passando da 2/3 a ¾ delle CPU del Tier1 Ha senso anche rivedere al rialzo le pledge per una frazione significativa dell’overlap

Piano Tier1 CNAF PLAN APRIL Experiment %CPUDISKTAPECPUDISKTAPE HS06TB-NTBHS06TB-NTB ALICE22% ATLAS32% CMS35% LHCB11% Total LHC TIER BaBar SuperB (dal 2011) CDF LHCB TIER TOTALE GRUPPO I AMS ARGO AUGER FERMI/GLAST MAGIC PAMELA Virgo TOTALE GRUPPO II All experiments All w/ overlap factor CNAF TOTAL (PLAN) overlap mitigation Effective overlap CNAF to be procured with overlap mitigation Il piano assume: ALICE: 19%,ATLAS 10% CMS: 13%LHCb: 15% Fattori di overlap: CPU: 20%Disco: 10% ALICE: chiesti approfondimenti all’RRB – Se ne riparla a settembre – Possibile diminuzione delle risorse  accordato circa il 50% di quanto richiesto  Il resto in opzione Cambiamenti importanti per LHCb – Trigger rate +50% Nastro ancora da finalizzare – L’occupazione e’ al momento bassa – Occorre includere KLOE! (~1PB) – Limite attuale 10PB: OK per 2011 – Per espandere a 14PB: 350kE – E’ davvero necessario?

Piano Tier2 – ATLAS e CMS ATLAS Richieste2012 Proposte CPU Disco(TB n)CPUDiscoCPUDisco LNF Milano Napoli Roma Tot TBD 2011Richieste 2012Proposte 2012 CMSCPUDISCOCPUDiscoCPUDISCO HS06TBNHS06TBN Bari LNL Pisa Roma Tot. T TBD NB: non sono comprese le CPU per analisi “italiane”

Piano Tier2 – ATLAS e CMS Note per le proposte: (1)non sono comprese le CPU per analisi “italiane” (2)Il disco non e’ stato ancora referato (3)Bisogna aggiungere l’overhead per server e rete ATLAS CPU Richieste CPU Proposte DISCO Richieste DISCO Proposte Totale rich. Totale prop. HS06KEHS06kETBNkETBNkE LNF Milano Napoli Roma Tot. T TBD 401TBD CMS CPU Richieste CPU Proposte DISCO Richieste DISCO Proposte Totale rich. Totale prop. HS06kEHS06kETBNkETBNkE Bari LNL Pisa Roma Tot. T TBD 853TBD

Dal piano agli acquisti Occorre tenere conto di risorse effettivamente disponibili  Tier1 disk: +500TB! obsolescenza costi unitari incertezze sulle richieste degli esperimenti diverso stato di avanzamento delle richieste disponibilita’ finanziarie al Tier1  900kE derivanti da – avanzi di gara – impegni di stanziamento precedenti – Integrazioni recenti (in)disponibilita’ finanziarie delle CSN1, 2 e 3

Base + opzioni Si divide la gara in un lotto base + 1 o piu’ opzioni aggiuntive Compro X impegnando subito le risorse Mi riservo di comprare Y e/o Z a partire dalla data K, utilizzando risorse che dovessero nel frattempo rendersi disponibili Meccanismo utilizzato con grande soddisfazione negli ultimi due anni Possibile effettuare “anticipi” Gara disco al Tier1 non necessaria per il 2011 Cambio euro/dollaro ha giocato a nostro favore (mal “del diman non v’e’ certezza”) Avanzi riassorbiti nell’impegno di stanziamento del Tier1… …ma non riassegnati alle commissioni scientifiche nel bilancio corrente (forse nel 2012?)

Raccomandazioni gare 2012: CPU Il fabbisogno e’ di circa 13kHS06 Togliamo l’overlap sulle nuove risorse e raccomandiamo una gara base per 15kHS06 raccomandiamo l’acquisto tramite opzione aggiuntiva di almeno 18.3kHS06 per (numeri indicativi) – la parte “istituzionale” dei Tier2, comprensiva di rimpiazzi ATLAS: 7.55kHS CMS: 5.75kHS06 – il 50% delle CPU dei Tier2 di ALICE: 5kHS06 Aggiungiamo un’altra opzione (a bassa priorita’) per il rimpiazzo di 14kHS06 di risorse obsolete Vorremmo inserire un’ulteriore opzione per le rimanenti CPU di ALICE e la parte “italiana” di ATLAS e CMS, ma date le incertezze e’ difficile quantificarla! Probabilmente un’opzione di 10kHS06 potrebbe darci la flessibilita’ richiesta includendo anche i probabili aumenti di richieste degli esperimenti di CSN2

CPU: riassumendo e arrotondando Gara CPUkHS06kEFondo CNAF CSN1CSN2/VIR GO CSN3 Base Opzione Opzione Opzione (0)0 (270)00 Totale (limite superiore) (319)287 (557)6180 Base:piano Tier1 + CPU LHCb + CSN2 Opzione 1: parte dei Tier2 di ALICE, ATLAS, CMS Opzione 2: buffer da utilizzare per completamento CPU di ALICE a Tier1 e Tier2 Opzione 3: buffer da utilizzare per rimpiazzo risorse obsolete al Tier1 (completamento CPU ai Tier2 di ATLAS e CMS) Costo unitario: 18kE/kHS06

Raccomandazioni gare 2012: disco Il referaggio del disco ai Tier2 necessita di ulteriori approfondimenti Speriamo di convergere per la riunione di luglio Per il Tier1, il fabbisogno stimato (continuando ad applicare l’overlap del 10%) e’ di 1.56PBn Raccomandiamo un’opzione di 0.44PBn per – Il disco rimanente di ALICE – tenere conto di richieste da parte di esperimenti non- LHC Raccomandiamo una seconda opzione di 0.5PBn per mitigare l’overlap del disco

Piano Tier1 – gara disco Gara discoTB-nkEFondo CNAF CSN1CSN2/VIR GO CSN3 Base Opzione Opzione Totale (limite superiore) Costo unitario: 507E/TB-n Base:piano Tier1 + CSN2 Opzione 1: buffer da utilizzare per completamento disco ALICE eventuali esigenze di esperimenti non-LHC di CSN1 e CSN2 Opzione 2: buffer da utilizzare per riduzione del fattore di overlap per il disco (10%  5%)

Altro ATLAS: richiesto riconoscimento di LNF come Tier2 – Visita di referaggio il 20 giugno alle 10 Tier3 – attivita’ ATLAS e CMS presentate alla riunione di referaggio e al workshop CCR – Capire qual’e’ la direzione per l’analisi finale da parte della comunita’ italiana – Tier3? Risorse aggiuntive ai Tier2 – Cosa fanno gli altri? USA: ATLAS ha risorse distribuite in parecchi Tier3, CMS ha una facility a Fermilab

Conclusione Il calcolo degli esperimenti funziona bene Le risorse raccomandate per il 2012 permettono di partecipare attivamente al programma di fisica Se dovessero essercene di meno, i risultati arriveranno in ritaro… …o li produrra’ qualcun altro! Gare CPU e disco definite con basi e opzioni Vanno definite meglio – CPU aggiuntive ai Tier2 – Esperimenti non-LHC di CSN1 e CSN2 – Le risorse di ALICE Restano fuori – Nastro al Tier1 (da fondone CNAF; ~350kE) – Disco ai Tier2 (da CSN1 e CSN3; per CSN1 richiesti ~900kE) – Overhead per rete e server ai Tier2 (da CSN1 e CSN3)

Grazie per l’attenzione!