Report CMS Riunione referaggio 11 Maggio 2012. Outline General status del computing (chiusura dei libri 2011) Stato dei siti italiani – Tier1 – Tier2s.

Slides:



Advertisements
Presentazioni simili
E835 & Hera-B Concezio Pisa, 21/12/2004. E835 (aka Jet-FNAL) timeline dell'esperimento –Presa dati conclusa nel Alcune analisi tuttora in corso.
Advertisements

Aspetti critici rete LAN e WAN per i Tier-2
Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
Il sistema integrato per la sicurezza dei tuoi dati da attacchi interni alla rete Quanti software proteggono i tuoi dati dagli attacchi esterni alla rete?
Alessia Tricomi Università & INFN Catania
* * Data Challenge 04 Stato dei centri di produzione in Italia.
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
Analysis unibo una proposta. Work flow di una tipica analisi 1.Simulazione di piccoli campioni di eventi per studio segnale 2.Generazione in grande.
CCR 14-15/03/2006 Status Report Gruppo Storage CCR.
3 Aprile CSN1 P. Capiluppi Tier2 CMS Italia.
Test Storage Resource Manager per SC4 Giacinto Donvito Vincenzo Spinoso.
6 Febbraio 2006CSN1 - Roma1 MEG : relazione dei referees P. Cenci R. Contri P. Morettini M. Sozzi.
1 CSN1 - Lecce 22/09/2003 Babar Relazione e proposte finanziarie Referee: M. de Palma, P. Lubrano, C. Luci, L. Perini,A. Staiano.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
CSN Maggio 2005 P. Capiluppi Il Computing Model (LHC) nella realta’ italiana u I Computing models degli esperimenti LHC gia’ presentati a Gennaio.
1 LHCb Computing Angelo Carbone, INFN-CNAF CSN1, 21/9/06 Aggiornamento richieste Tier Richiesta Tier-2 al CNAF Stato e risultati DC06.
Perugia - 12 novembre 2002 M. Morandin - INFN Padova Budget calcolo Babar 2003 e contributo INFN.
Preparazione RRB Commissione Scientifica Nazionale I 1-2 aprile 2003 S. Patricelli Consuntivo fondi M&O 2002 Divisione tra subdetectors dei fondi extra-CORE.
CSN1-Assisi L.Perini1 BaBar Calcolo L. Perini per i referees: L.Perini,A.Staiano…
Calcolo esperimenti LHC 2004 F. Ferroni, P. Lubrano, A. Martin, M. Morandin, M. Sozzi.
6/4/2004 S. Patricelli - CSN1 - Roma 1 Preparazione RRB di Aprile Addendum al MoU per HLT/DAQ (CERN-RRB )* Consuntivi 2003 M&O (CERN-RRB
Gruppo 1 - Catania 16/09/2002 – R. Fantechi, P. Lubrano, S. Zucchelli (R. Fantechi, P.Lubrano, L. Perini per il calcolo) KLOE - Richieste aggiuntive 2002.
STATO DEI PROGETTI TIER2 F. Bossi CCR, Roma, 20 Ottobre 2005 ( per il gruppo di referaggio)
CDF I referee Roma, 16 Maggio Tevatron OK Fisica Stanno pubblicando –Bene Nostre principali preoccupazioni su B s -mixing –Sulla base dei loro.
CDF Calcolo Another brick in the wall Paolo Morettini CSN1 Lecce Valerio Vercesi Settembre 2003.
Review dei Tier-2 degli esperimenti LHC S.Pirrone INFN-Sezione di Catania per il gruppo dei referee CNS Giugno 2014 LNGS.
BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015.
Riunione SICR 24/6/2015. Cluster Cluster oVirt – Pronto alla migrazione dei servizi – Macchina virtuale radius per guest_conf in funzione – Tempi migrazione.
Carlo BucciPMN08, Milos May Cuore comincia ad essere un esperimento di grandi dimensioni, il cui costo, stimato inizialmente in circa 14 Meuro,
Tier-2 Legnaro-Padova Massimo Sgaravatto (INFN Padova) On behalf of the Legnaro-Padova T2 team Tier-2 Legnaro-Padova 1.
Calcolo a LHC CB 23 maggio 2011 Quadro generale Gare CPU e disco.
D. Martello Dip. Fisica - Lecce Sintesi piani esperimenti CSN2 CNAF 7-marzo-2007.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Lecce 30 Settembre 2015.
Atlas Italia - Milano, 17/11/2009 G. Carlino – News dal Computing 1 1 News dal computing Gianpaolo Carlino INFN Napoli Atlas Italia, Milano, 17/11/09 Nuovo.
Referaggio sigla CALCOLO Gianpaolo Carlino Antonio Budano Michele Michelotto* Ruggero Ricci CCR – Roma Settembre 2015.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
1 referee-BaBar CSN I, LNF giugno 2007 RELAZIONE DEI REFEREE DI BaBar M.De Palma, C.Luci, C.Troncon, B.Gobbo(calcolo) 26 giugno 2007.
Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 1 ATLAS Attività di TeV Attività di computing Attività di computing.
6/1/2016ATLAS Milano1 Agenda :. 6/1/2016ATLAS Milano2 Agenda : A)AGGIORNAMENTO SITUAZIONE RELIABILITY SITO -potrebbe essere utile discutere le nostre.
FESR Consorzio COMETA - Progetto PI2S2 Il Tier-2 di ALICE a Catania Roberto Barbera Università di Catania e INFN Visita Referee.
Referaggio sigla CALCOLO D. Bonacorsi, G. Carlino, P. Morettini CCR – Roma 9 Settembre 2014.
ATLAS e CMS Relazione dei referees A. Cardini, M. Grassi, G. Passaleva, A. Passeri, V.Vagnoni.
Report CMS CSN1 – 26 Settembre 2012 Torino 1. Outline Stato generale del computing di CMS Stato dei siti italiani o Tier1 o Tier2s Richieste e piani 2013.
19 Ottobre 2012ATLAS Milano1 Stato delle risorse locali di calcolo L. Carminati, L. Perini, D. Rebatto, L. Vaccarossa.
ATLAS Relazione dei referees A. Cardini, M. Grassi, D. Lucchesi, G. Passaleva, A. Passeri.
1 referee-BaBar CSN I, Roma Gennaio 2008 RELAZIONE DEI REFEREE DI BaBar e SuperB M.De Palma, C.Luci, C.Troncon, B.Gobbo(calcolo),D. Pedrini
11 Richieste di banda Anno 2010 T.Ferrari, M.Morandin CCR, Roma, 30 settembre 2009.
Uso della rete geografica e richieste di upgrade CCR 31/3/2015 (Roma) S.Zani.
Aggiornamento sui lavori di ampliamento degli impianti infrastrutturali del TIER1 e stato delle risorse Cristina Vistoli – Massimiliano Fiore INFN-CNAF.
1 ALICE I ITER2 DI ALICE IN ITALIA Bologna, 6 marzo 2007 M. Masera
19/4/2013 D. Menasce, M. Serra - Referaggio Progetti INFRA e WLCG 1.
Stato e previsione rete nelle sedi INFN Survey ed ipotesi di sviluppo fino al 2018 CCR 8-10 Settembre 2018 (Roma) 1 S.Zani (Netgroup)
Referaggio TIER2 di Pisa 30 giugno 2006 Silvia Arezzini (Servizio Calcolo e Reti)
Referaggio Calcolo ATLAS II Gianpaolo Carlino INFN Napoli Catania, 12 Settembre 2012 Risorse e Richieste 2013 nei preventivi Aggiornamento in seguito all’allungamento.
CMS Relazione dei referees F. Bedeschi, A. Cardini, M. Grassi, D. Lucchesi, G. Passaleva.
G. Maggi 24/1/2006 Il Progetto del TIER2 di Bari Giorgio Maggi.
10 Ottobre CSN1 P. Capiluppi Tier2 CMS Italia 3Bari  In comune con Alice 3Legnaro  In comune con Alice 3Pisa 3Roma1  In comune con Atlas Sedi.
Silvia Arezzini 2 luglio 2014 Consiglio di Sezione per Preventivi.
Referee ALICE C.Agodi, D.Calvo, A.Di Ciaccio, P.Iaselli, S.Pirrone CSN3 – Torino, 17 - settembre 2013.
ATLAS Italia – Sestri Levante, 15 Giugno 2010 G. Carlino – Richieste Run Efficiency = time for physics / total time LHC Efficiency = time with colliding.
CCR - Roma 15 marzo 2007 Gruppo storage CCR Report sulle attivita’ Alessandro Brunengo.
1 Le macchine di questo pool fanno parte di una lan privata (la 125 illustrata a pag.2), di cui t2cmcondor è il gateway. Sono presenti 3 macchine su rete.
L’infrastruttura del progetto ReCaS Paolo Lo Re on behalf of ReCaS collaboration.
Referaggio Calcolo ATLAS Gianpaolo Carlino INFN Napoli CNAF, 11 Maggio 2012 Attività di Computing ATLAS Attività di Computing in Italia Risorse e Richieste.
CNAF. storage Siamo in una fase di tuning con lo storage, che al momento sembra essere un collo di bottiglia 1.~10 giorni fa vista saturazione GPFS.
Aggiornamento AFS R.Gomezel Commissione Calcolo e Reti Presidenza 5/10/2010-7/10/2010.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Torino, Andrea Dainese 1 Andrea Dainese (INFN – LNL) Stato del Tier-2 ALICE a Legnaro.
Transcript della presentazione:

Report CMS Riunione referaggio 11 Maggio 2012

Outline General status del computing (chiusura dei libri 2011) Stato dei siti italiani – Tier1 – Tier2s 2013

2011 – in pochi numeri > 5 milioni di secondi di presa dati > 1.5 miliardi eventi RAW raccolti > 5 1/fb raccolti > 4 miliardi di eventi di dati forniti nei vari reprocessing > 15 miliardi di eventi di Monte Carlo forniti nei vari scenari

Data taking 2011

Tier0 Con l’aumento del PU (<5 inizio anno, fino a 40 in un run speciale a fine anno, oltre 20 dopo Agosto 2011) il tier0 ha sofferto in alcuni momenti a reggere il passo con i dati Fattore principale non direttamente la CPU/ev, ma la RAM utilizzata che non permetteva di utilizzare tutte le CPU (sforamento dei 2 GB/core) Versione CMSSW_4_4 preparata nel caso LHC potesse andare sopra 5e33, ma non messa in produzione nel run pp – Meno RAM, ma anche meno CPU/ev; utile come base di partenza per il 2012 – PP RUN finito con 4_2 per avere unico dataset e facilitare attivita’ di analisi In seguito riprocessato anche con 4_4 – (nota: non un problema per 2012: CMSSW_5_2_X pesantemente ottimizzata per diminuire uso di memoria)

Data Reprocessing 4 miliardi di eventi riprocessati, la maggior parte tutti con 4_2 e poi con 4_4 alla fine dell’anno

Simulazioni (7 TeV) 15 miliardi di eventi (ri)simulati; Summer/Fall sono diversi per distribuzione PU (low/high)

Uso CPU Tier1 Utilizzo Tier1 anche per simulazione MC (non avveniva prima del 2010): ha permesso di saturare le pledges

(Heavy Ion Run) Eventi con complessita’ maggiore del 2010 (dovuti a maggior selezione HLT) HI-reco meno resource hungry (RAM) di PP-reco ad alto pileup (tracking pp scende a pT molto + bassi) Meno IO verso CASTOR rispetto al 2010 (zero suppression parziale implementata in HLT)

Analisi ai Tier2 Utenti singoli per settimana legato alle attivita’ (vicinanza a conferenze), ma non piu’ periodi morti Numero di jobs per settimana in costante ascesa (raddoppiati nel 2011) Efficienza dei jobs aumentata: anche per l’analisi siamo al 90% Per la produzione siamo da tempo> 95%

E cosa leggono i jobs di analisi? AOD RECO Transizione analisi a solo AOD in pratica completata; parte rimanente fisiologica (detector studies) (era una milestone 2011!) A partire da meta’ 2011 I RECO (DT/MC) non vengono piu’ distribuiti ai T2 in Central Space; alcuni gruppi li spostano nei loro group space, ma sono soprattutto I DPG/POG che devono fare studi di detector. I PAG utilizzano nella stragrande maggioranza AOD

Trasferimenti Siamo alla full mesh dal 2010 per I trasferimenti via PhEDEx Da qui… … a qui

ITALIA: In generale … T1 T2 Risorse previste 1 Apr 2012 (ma, almeno per I T2, sara’ fine 2012 …)

Da settembre 2011 (ultimo report) Ultimamente raggiunti gli 8k jobs di CMS nella “regione” CNAF

Siti Italiani: Tier1 CNAF per CMS e’ costantemente in lotta per il secondo posto con KIT e RAL Utilizzo del CNAF come visto da CMS a cavallo delle pledge, spesso sopra Da Sett 2011, # di jobs

Jobs runnanti in italia ultima settimana (NB: LNL = sommare LNL + PD per motivi tecnici) – in momenti ottimali (altre VO scariche) superiamo gli 8k slots Riempimento CPU piu’ facile anche grazie al fatto che il nuovo L3 per la produzione e’ italiano (V.Spinoso, BA) Job share CMS Italia ultimo anno Tutti I siti insieme …

DGAS - CPU Tutti almeno al pledge

Disco [DGAS da’ numeri non realistici] La sostanza e’ che lo spazio disponibile e’ scarso (O(10%)), e lo spazio totale raggiunge il pledge solo alla fine dell’anno quando va bene – Risorse che dovevano essere disponibili 1 Aprile 2011 installate fine 2011/inizio 2012 – Abbiamo avuto momenti di criticita’ (< 5% libero – Pi e Rm1)

Supporto Gruppi di fisica 8 gruppi supportati (milestone 2011 era “almeno 6”) – Bari: Higgs, SUSY – LNL: ElectroWeak, Muons – Pisa: Tracking, Tau & Particle Flow – Rome: Higgs, Egamma & ECAL

Report Attivita’ T1 Eseguiti test di analisi al Tier1 – Positivi anche nello scenario “pessimistico” di recall da tape incontrollati – Lo storage puo' sostenere senza problemi recall da nastro da parte di jobs corrispondenti al 5-10% della farm – Abbiamo aperto (10 gg fa) l’uso del T1 ad alcuni utenti italiani (fase 2 del test) A regime, tutti coloro appartenenti al gruppo=itcms potranno usare il T1 (in realta’ gia’ ora, ma non lo sanno…) Nuovo assegnista di ricerca CNAF ha cominciato il 10 Aprile, ramping up – Secondo assegno approvato, purtroppo ancora con la richiesta dei 24 mesi post laurea – Non abbiamo candidati al momento (eravamo sicuri sarebbe stato bandito senza questa richiesta, e c’era una persona) – vediamo chi applica. Se va deserto, dobbiamo assolutamente fare in modo che sia ribandito come richiesto inizialmente. In generale, ottimo funzionamente del nostro T1

Bari Infrastruttura 14 Rack APC in produzione e in gran parte pieni 8 in-row cooler APC 3 UPS da 80kVA in configurazione N+1 2 Chiller da 120kW ciascuno in ridondanza – NEWS: Installati altri 4 rack + 2 in-row cooler APC Questo completa l’infrastruttura prevista in fase di progetto La farm viene usata: – come Tier2 per CMS e ALICE per le attività ufficiali di collaborazione – anche per attività legate ad utenti locali (Tier3 like) per diverse comunità scientifiche (Alice, CMS, SuperB, T2K, Glast/Fermi, Gruppo IV, Gruppo V, Chimica, Farmacia, Fisica medica, Pamela, Bioinformatica, Informatica, etc) – da circa 160 utenti locali registrati (72 di CMS) – sia in interattivo che con sottomissioni al batch system locale Passati a LHCONE il 26 Aprile Acquisti 2012: –CPU fatto (gara comune) – non ancora fisicamente arrivate –Disco gara comune con Ba e Alice/TO approvata alla giunta di Aprile (delibera 9406)

Legnaro Integrazione Legnaro-Padova –ottimi risultati dalla collaborazione tra le due sedi, anche in termini di manpower –CPU ora distribuite circa al 50% tra i due siti, mentre storage e servizi critici solo a LNL per minimizzare I downtime –a breve dovremo raddoppiare la banda del link LNL-PD, ora a 10Gb/s, che nei momenti di picco va in saturazione In attesa del collegamento a GARR-X –l’attuale link GARR a 2Gb/s va in saturazione quando CMS e ALICE insieme fanno trasferimenti Acquisti 2012: –CPU fatto (gara comune) – non ancora fisicamente arrivate –Disco gara comune con Ba e Alice/TO approvata alla giunta di Aprile (delibera 9406)

Pisa In corso: passaggio da dCache a Storm (complicato dal fatto di non voler mettere downtimes al sito: non possiamo svuotare e ripartire da zero) CMS ha ~ 1300/5000 cores nel CED di Pisa, ma ha la grande maggioranza dello storage (~ 1 PB) Ultimo periodo teorici non troppo attivi: CMS ha utilizzato fino a ~ 3000 slots (> 200%) In GROSSE difficolta’ con il pagamento delle manutenzioni (chiller, condizionamento, centro stella….) non finanziate su nessun capitolo – da discutere con referees una soluzione Passati a LHCONE il 10 maggio Acquisti 2012: – CPU: nessuna risorsa finanziata (beh, 106 HS06) – Disco: 305 TBN (soprattutto dismissioni) Gara per espansione DDN mandata alla giunta a fine Aprile … verso fine anno se va bene pledge

Il primo CMSDAS fuori da FNAL si e’ tenuto a Pisa a Gennaio ~70 studenti, ~30 insegnanti. Tutti hanno lavorato sul T2 e sulle UI del CED di Pisa, con accesso a GPFS diretto >150 ore esercizi, con utilizzo pesante del centro (~ 7 gruppi operanti in parallelo) Account Unix creati on the fly utilizzando il link Radius/Indico istruttori

Roma1 CMS ha al momento 5 rack Knuerr, di cui 1 soltanto pieno a metà, gli altri in sostanza tutti pieni Ogni rack ha 1 switch con uplink a 10 Gb, oltre a 1 switch low-end per l’IPMI. Il Tier2 globale ha uno switch full 10 Gb, condiviso ATLAS- CMS-Servizi. Stiamo facendo upgrade del cooling: acquistato a fine 2011 un terzo chiller, nel 2012 nuove ventole più potenti e compatte (fondi di Sezione, residui) Al momento CMS non ha necessità di un altro rack, i rimpiazzi saranno in genere più compatti. Passati a LHCONE il 7 Maggio Acquisti 2012: – Nessuna CPU finanziata (beh, 106 HS06 ;) – Disco sotto i 40kEuro, non necessita di gara

2013? CMS (come gli altri) ha espresso i suoi desiderata a CSG-RRB; basiamo le nostre richieste qui sull’outcome di tale scrutinio Due punti importanti – CMS per il 2012 vuole usufruire del data parking Aumentare rate in uscita da HLT su tape, con una parte dei dati non processata ulteriormente nel run 2012 (in pratica rate x2) – T1/T2s italiani hanno gia’ chiari numeri per le dismissioni da richiedere per il 2013 Viste lo scrutinio, siamo gia’ nella fase in cui la maggior parte delle risorse economiche va in dismissioni

Data Parking Motivazioni: – Vari studi di fisica, fra cui SUSY a bassa massa (risonanze di-jet che potremmo perdere per le soglie 2012 troppo alte) Ottimizzazione trigger per Higgs (democratizzazione trigger VBF) Fisica del B(s) Realizzazione: in pratica salvare il ~200% dei dati processabili offline, e tenerne meta’ per il 2013 – “come se il 2013 ci fosse presa dati” Reprocessing, simulazioni MC necessarie, attivita’ di analisi da scratch Impatto: – Richieste all’RRB aumentate di pochi percento per CPU, disco, tape

Richieste CMS all RRB

Dismissioni – T2 (Il T1 mandera’ separatamente le sue, non distinte per esperimento) In pratica: da dismettere 17% dello storage e il 23% delle CPU esistenti La lista dettagliata di cosa dismettere per sito e’ a disposizione dei referees Situazione Fine 2012Dismissioni 2013 Dismissioni 2013 in % kHS06TBNkHS06TBN kHS06TBN Bari 12,88162, Pisa 12, Legnaro 11,310635, Roma , Totali 46, , Totals: 10.6 kHS06 + ~600 TBN To be dismissed

Richieste 2013 T2 - CPU Prendendo come base d’azione il report C-RSG – CPU T2 = 350kHS06 (era stato chiesto 400) – Se vogliamo fissare il contributo IT a CMS sul 15% (come l’anno scorso, contiene un piccolo overhead per l’analisi) T2 CMS IT = 350*0.15= 52.5 kHS06 RRB 2011 RRB 2012

2013 – CPU T2 Si parte da 46.7kHS06 – 10.6 kHS06 (dismissioni) =16.4 kHS06 da finanziare sul 2013 E cioe’ – BA = = 4.05 kHS06 – LNL = = 6.05 kHS06 – PI = = 1.45 kHS06 – RM1 = = 4.35 kHS06 SitoCPU richieste 2013 (kHS06) Bari4.05 Legnaro6.05 Pisa1.45 Roma14.35

2013 – CPU T1 Al momento dallo stesso report NON previsto aumento CPU al T1 (era stato chiesto un aumento del 21% in vista del processamento dei dati parked) Pero’: come detto, inizio di attivita’ di analisi al Tier1, che puo’ solo utilizzare risorse non pledged (al momento ‘t1access/itcms’ hanno un fairshare del 5% delle risorse di cms ~ 100 cores) – Qualunque aumento aiuta questo sforzo di ospitare analisi al T1 Per le dismissioni, essendo indistinte per esperimento, il T1 richiede direttamente

2013 – T1 Disk/Tape Disk: C-RSG ha aumentato le risorse T1 22 -> 26 PB (+20%) – Al 13.5% sono 3.5 PB, al momento ne abbiamo dichiarati 2.8 PB. Tape: C-RSG non ha concesso aggiunte di risorse (sempre fermi a 45 PB) – Da ricordare pero’ che fino a poco tempo fa (Aprile) eravamo lontani dall’avere la disponibilita’ di 6630 TB come da pledge (4000TB erano quasi al limite della capacita’). Dovrebbe essere possibile adesso con i nastri da 5 TB

Analisi (aka “Tier3”) CMS Italia non ha ancora sbloccato il gettone da 30kEuro promesso dai referees (e in realta’ poi evaporato nel corso di adattamenti di bilancio di fine anno) Pianifichiamo di iniziare a breve la discussione e di riportarla alla prossima occasione ai referees / G1 Per il 2013 ci aspettiamo di dover richiedere una tasca per motivi simili

Un esempio di attivita’ che include sui Tier3 Sono in corso test (fatti mediante attivita’ di analisi reali) di accesso remoto (streaming Xrootd) ai dati Xrootd.ba.infn.it pubblica le risorse di – Bari (su Lustre/Storm) – Pisa (su dCache) – IC – DESY Accesso possibile sia per jobs CMSSW, sia in interattivo (Trieste e Perugia stanno attivamente usando il protocollo) Piani a breve: – Accendere anche RM1 e LNL – Proporre Bari come redirettore per la “cloud” europea (UNL e’ dal lato US)

Altro … Attenzione alle manutenzioni (rete, cooling, etc…); fino a che le risorse aumentano in modo considerevole, sono marginali. Adesso non piu’. – Ancora peggio se non possiamo utilizzare le economie di gara (per esempio in gare su anticipi anno successivo, i risparmi sono persi) – Saranno richiesti consumi 2013 per i T2 Sta aumentando l’attivita’ locale nei nostri siti (bene!); in alcuni servirebbe un parco UI piu’ sostanzioso – Messaggio: l’anno scorso avete praticamente azzerato l’overhead percentuale x i server …non rifatelo ;)