Report dalla CSN1 24-28 Settembre Sala dei Mappamondi - Torino Gianpaolo Carlino – CCR 25/10/2012.

Slides:



Advertisements
Presentazioni simili
E835 & Hera-B Concezio Pisa, 21/12/2004. E835 (aka Jet-FNAL) timeline dell'esperimento –Presa dati conclusa nel Alcune analisi tuttora in corso.
Advertisements

23/01/01Alberto Masoni – GR1 - Roma1 I MODELLI DI CENTRI REGIONALI POSIZIONE DI ALICE ITALIA CENTRO ITALIANO: CPU 450 KSI95, DISCO 400 TB (INSIEME TIER-1.
Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
Test Storage Resource Manager per SC4 Giacinto Donvito Vincenzo Spinoso.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
CSN Maggio 2005 P. Capiluppi Il Computing Model (LHC) nella realta’ italiana u I Computing models degli esperimenti LHC gia’ presentati a Gennaio.
1 LHCb Computing Angelo Carbone, INFN-CNAF CSN1, 21/9/06 Aggiornamento richieste Tier Richiesta Tier-2 al CNAF Stato e risultati DC06.
CSN1-Assisi L.Perini1 BaBar Calcolo L. Perini per i referees: L.Perini,A.Staiano…
Calcolo esperimenti LHC 2004 F. Ferroni, P. Lubrano, A. Martin, M. Morandin, M. Sozzi.
1 Calcolo e software G. Bagliesi 23/3/01 Riassunto riunione calcolo Bologna 19/3/01 B/tau : futuri miniworkshop.
CDF Relazione dei Referee G. Bruni, P. Giubellino, L. Lista, P. Morettini, L. Moroni, V. Vercesi CSN1 – Maggio 2006.
CMS 1 M. Biasotto – Bologna 20/01/2005 Infrastruttura di calcolo per CMS-Italia M.Biasotto – INFN Legnaro e i gestori dei centri CMS Italia.
Calcolo LHC Francesco Forti, Università e INFN – Pisa Per il gruppo di referaggio: F. Bossi, C. Bozzi, R. Carlin, R. Ferrari, F.F., D.Martello, M.Morandin,
CDF I referee Roma, 16 Maggio Tevatron OK Fisica Stanno pubblicando –Bene Nostre principali preoccupazioni su B s -mixing –Sulla base dei loro.
CDF Calcolo Another brick in the wall Paolo Morettini CSN1 Lecce Valerio Vercesi Settembre 2003.
Review dei Tier-2 degli esperimenti LHC S.Pirrone INFN-Sezione di Catania per il gruppo dei referee CNS Giugno 2014 LNGS.
ATLAS: il calcolo Alessandro De Salvo A. De Salvo – 3 maggio 2013.
ATLAS PRIN Alessandro De Salvo A. De Salvo – 12 novembre 2015 Cloud Computing Condivisione di risorse tra gruppi EventIndex LHCONE PoD T2D.
BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015.
Report dalla CSN Settembre Sala dei Mappamondi - Torino Gianpaolo Carlino – Consiglio di Sezione, 5 Novembre 2012.
Riunione CSN1, Roma, Aprile 2014F. Bedeschi, INFN-Pisa 1 Riunione CSN1  Comunicazioni  Varie  Progetti EU  Workshops  Sblocchi SJ/Storni  Sblocco.
26 Giugno 2007CSN1 - Frascati1 Temi di attualità nella CCR Accanto alla tradizionale attività di controllo dei finanziamenti per le infrastrutture di calcolo.
Calcolo a LHC CB 23 maggio 2011 Quadro generale Gare CPU e disco.
D. Martello Dip. Fisica - Lecce Sintesi piani esperimenti CSN2 CNAF 7-marzo-2007.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Lecce 30 Settembre 2015.
Atlas Italia - Milano, 17/11/2009 G. Carlino – News dal Computing 1 1 News dal computing Gianpaolo Carlino INFN Napoli Atlas Italia, Milano, 17/11/09 Nuovo.
Referaggio sigla CALCOLO Gianpaolo Carlino Antonio Budano Michele Michelotto* Ruggero Ricci CCR – Roma Settembre 2015.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
1 referee-BaBar CSN I, LNF giugno 2007 RELAZIONE DEI REFEREE DI BaBar M.De Palma, C.Luci, C.Troncon, B.Gobbo(calcolo) 26 giugno 2007.
Riunione CSN1, Roma, Giugno 2015F. Bedeschi, INFN-Pisa 1 Riunione CSN1 F. Bedeschi, Roma, Giugno 2015  Sommario  Comunicazioni  Premiali 2014  MOF-LHC.
Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 1 ATLAS Attività di TeV Attività di computing Attività di computing.
Il primo anno di presa dati di LHC L’esperienza di calcolo nell’esperimento ATLAS Attività condotte nel 2010 e prospettive future Lorenzo Rinaldi (INFN-CNAF)
Stato di GARR-X Claudia Battista Workshop CCR INFN - Isola d’Elba 17 maggio 2011.
Claudio Grandi Workshop CCR 2015 Claudio Grandi INFN Bologna.
Referaggio sigla CALCOLO D. Bonacorsi, G. Carlino, P. Morettini CCR – Roma 9 Settembre 2014.
ATLAS e CMS Relazione dei referees A. Cardini, M. Grassi, G. Passaleva, A. Passeri, V.Vagnoni.
Proposta per una cache distribuita a livello italiano ALESSANDRO DE SALVO (RM1) TOMMASO BOCCALI (PI)
Riunione CSN1, Milano, Marzo 2013F. Bedeschi, INFN-Pisa 1 Riunione CSN1  Comunicazioni  Varie  Sblocchi SJ  Commento a riunione di oggi F. Bedeschi.
19 Ottobre 2012ATLAS Milano1 Stato delle risorse locali di calcolo L. Carminati, L. Perini, D. Rebatto, L. Vaccarossa.
Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 1 Referaggio Tier2 ATLAS Attività di Computing 2009 Attività di Computing 2009 Stato dei.
1 Firenze, 6 Settembre 2011 G. Carlino – Relazione Referaggi Computing ATLAS Relezione Riunioni Referaggio Calcolo ATLAS Computing Model News Computing.
ANALISI DISTRIBUITA IN ATLAS L’esperienza degli utenti Attilio Picazio Università di Napoli “Federico II” – INFN Napoli 18/05/11Attilio Picazio - Workshop.
1 referee-BaBar CSN I, Roma Gennaio 2008 RELAZIONE DEI REFEREE DI BaBar e SuperB M.De Palma, C.Luci, C.Troncon, B.Gobbo(calcolo),D. Pedrini
Uso della rete geografica e richieste di upgrade CCR 31/3/2015 (Roma) S.Zani.
Il Calcolo non LHC in CSN1 G. Carlino, INFN Napoli CSN1 – Roma 17 Luglio 2014.
1 ALICE I ITER2 DI ALICE IN ITALIA Bologna, 6 marzo 2007 M. Masera
19/4/2013 D. Menasce, M. Serra - Referaggio Progetti INFRA e WLCG 1.
Stato e previsione rete nelle sedi INFN Survey ed ipotesi di sviluppo fino al 2018 CCR 8-10 Settembre 2018 (Roma) 1 S.Zani (Netgroup)
CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 1 ATLAS Referaggio Tier2 Attività di TeV Attività di TeV Richieste.
Riunione CSN1, Roma, Gennaio 2012F. Bedeschi, INFN-Pisa 1 Riunione CSN1  Comunicazioni  Comunicazioni varie  Riunioni future  Similfellows  Regole.
Referaggio Calcolo ATLAS II Gianpaolo Carlino INFN Napoli Catania, 12 Settembre 2012 Risorse e Richieste 2013 nei preventivi Aggiornamento in seguito all’allungamento.
CMS Relazione dei referees F. Bedeschi, A. Cardini, M. Grassi, D. Lucchesi, G. Passaleva.
G. Maggi 24/1/2006 Il Progetto del TIER2 di Bari Giorgio Maggi.
KLOE - Referee Paolo Checchia, Luca Lista, Ezio Menichetti, Pierluigi Paolucci con l’aiuto sostanziale di Luca dell’Agnello, Mauro Morandin CSN1.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Catania 1 Ottobre 2014.
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
Silvia Arezzini 2 luglio 2014 Consiglio di Sezione per Preventivi.
Report CMS Riunione referaggio 11 Maggio Outline General status del computing (chiusura dei libri 2011) Stato dei siti italiani – Tier1 – Tier2s.
ATLAS Italia – Sestri Levante, 15 Giugno 2010 G. Carlino – Richieste Run Efficiency = time for physics / total time LHC Efficiency = time with colliding.
1 Bari, 21 Settembre 2011 G. Carlino – ATLAS: il calcolo ATLAS: il Calcolo Attività di Computing nel 2011 Attività di Computing nel 2011 Richieste Tier2.
CCR - Roma 15 marzo 2007 Gruppo storage CCR Report sulle attivita’ Alessandro Brunengo.
L’infrastruttura del progetto ReCaS Paolo Lo Re on behalf of ReCaS collaboration.
Referaggio Calcolo ATLAS Gianpaolo Carlino INFN Napoli CNAF, 11 Maggio 2012 Attività di Computing ATLAS Attività di Computing in Italia Risorse e Richieste.
L.Perini Milano: 10 Gennaio Ex-ATLAS-Grid (Tier2 incluso) l Ruolo dei Tiers in ATLAS e grid l Le persone di Milano e le attività l Le infrastrutture.
CNAF. storage Siamo in una fase di tuning con lo storage, che al momento sembra essere un collo di bottiglia 1.~10 giorni fa vista saturazione GPFS.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Transcript della presentazione:

Report dalla CSN Settembre Sala dei Mappamondi - Torino Gianpaolo Carlino – CCR 25/10/2012

DESY ZEUS PSI MEG FRASCATI KLOE TOR VERGATA SUPERB CERN ATLAS – CMS – LHCB TOTEM – LHCf UA9 NA62 COMPASS FNAL CDF MU2E SLAC BABAR BEPCII (Beijing) BESIII 17 (+1) sigle 3 esperimenti chiusi (CDF, ZEUS, BABAR) 1 in Technical Run (NA62) 3 in progettazione (ILC, SuperB, MU2E) Sigla CALC-TIER1 ILC La CSN1 – gli esperimenti G. Carlino - Report dalla CSN12CCR - Frascati 25/10/12

Molti i risultati di fisica presentati, tutti interessanti, ma il più importante è indiscutibilmente …… G. Carlino - Report dalla CSN13CCR - Frascati 25/10/12

G. Carlino - Report dalla CSN14CCR - Frascati 25/10/12

G. Carlino - Report dalla CSN15CCR - Frascati 25/10/12

G. Carlino - Report dalla CSN16CCR - Frascati 25/10/12

CMS La scoperta dell’Higgs (-like) G. Carlino - Report dalla CSN17CCR - Frascati 25/10/12

CMS La scoperta dell’Higgs (-like) G. Carlino - Report dalla CSN18CCR - Frascati 25/10/12

ATLAS: Status of SM Higgs searches, 4/7/ It would have been impossible to release physics results so quickly without the outstanding performance of the Grid (including the CERN Tier-0) Includes MC production, user and group analysis at CERN, 10 Tier1-s, ~ 70 Tier-2 federations  > 80 sites 100 k Number of concurrent ATLAS jobs Jan-July 2012 > 1500 distinct ATLAS users do analysis on the GRID  Available resources fully used/stressed (beyond pledges in some cases)  Massive production of 8 TeV Monte Carlo samples  Very effective and flexible Computing Model and Operation team  accommodate high trigger rates and pile-up, intense MC simulation, analysis demands from worldwide users (through e.g. dynamic data placement) Slide From F. Gianotti, “Status of Standard Model Higgs searches in ATLAS”- 4/7/2012

Efficienza trasferimento al primo tentativo: 93% 100% considerando i retries Dati disponibili in tempo “quasi reale”: media trasferimento AOD dal Tier0 a un Tier1: 2.7 h per il completamento dei dataset Export dal Tier0 ai Tier1 RAW: 1 copia primaria (disco) + 1 copia custodial (tape) ESD: 1 copia primaria e 1 copia secondaria (su disco in siti diversi) AOD: 2 copie primarie + 1 copia secondaria +copie secondarie ai Tier2 con il sistema dinamico di replica Significativa riduzione del numero di copie e di formati di dati replicati nella griglia rispetto agli anni passati Suddivisione per attività: Data Brokering: replica dinamica dei dati Data Consolidation: pre-placement (T1-T1) Data export A. De Salvo - ATLAS

Breaking the Walls La rete attuale permette il superamento del modello a cloud: abilitazione delle connessioni inter cloud tra Tier1 e Tier2 Trasferimento dinamico dei dati nei Tier2 basato sulla popolarità dei dati (PD2P): solo i dati effettivamente usati per l’analisi vengono trasferiti Storage nei Tier2 usato come cache: cancellazione dei dati più vecchi o meno popolari. Ottimizzazione spazio disco Introduzione dei Tier1 nel meccanismo dinamico per compensare la diminuzione di copie di dati nella griglia Superamento di una gerarchia stretta tra Tier1 e Tier2 ATLAS Cloud(less) Model Sviluppi del Computing Model Classificazione dei Tier2 in base alle performance: efficienza e affidabilità per l’analisi, velocità ed efficienza dei trasferimenti Non tutti i Tier2 sono uguali e ricevono la stessa quantità di dati (e quindi di job) Data export A. De Salvo - ATLAS

T2D = Tier2 “Directly Connected” Tier2 connessi direttamente tra di loro a tutti i Tier1 Storage per dati primari come i Tier1 Preplacement di una quota di dati Group data Requirement molto stretti Metriche di trasferimento con tutti I Tier1 Livello di commitment e relibility adeguato Avg(Byterate)+StD(Byterate) SMALL<0.05MB/s<0.1MB/s≥0.1MB/ s MEDIUM<1MB/s<2MB/s≥2MB/s LARGE<10MB/s<15MB/s≥15MB/s T2D approvati: AGLT2 BEIJING-LCG2 BU_ATLAS_Tier2 CA-SCINET-T2 CA- VICTORIA-WESTGRID-T2 CSCS-LCG2 DESY-HH DESY-HH DESY-ZN GOEGRID GRIF GRIF IFIC-LCG2 IN2P3-LAPP IN2P3- LPC IN2P3-LPSC INFN-MILANO-ATLASC INFN-NAPOLI-ATLAS INFN-ROMA1 LRZ-LMU MPPMU MWT2_UC SWT2_CPB TOKYO- LCG2 UAM-LCG2 UKI-LT2-QMUL UKI-NORTHGRID-LANCS-HEP UKI-NORTHGRID-MAN-HEP UKI-SCOTGRID-ECDF UKI- SCOTGRID-GLASGOW UKI-SOUTHGRID-OX-HEP UNI- FREIBURG WT2 WUPPERTALPROD ifae I 3 T2 italiani più grandi (Milano, Napoli, Roma) sono stati dichiarati T2D dall’inizio e sono entrati subito in LHCOne. Frascati sarà incluso quando avrà i requisiti minimi di risorse necessarie. Tier 2 Diretti (T2D) A. De Salvo - ATLAS

Network 2 cambiamenti previsti Passaggio dei TierX italiani a LHCONE o LHCOPN: rete dedicata ai trasferimenti T0-T1 o LHCONE: rete dedicata a tutti i centri di calcolo di LHC (T2s per esempio), nata per soddisfare esigenze di trasferimento non contemplate in MONARC (vedi dopo) o Tutti i siti italiani passati senza problemi prima dell’estate GARR-X : tutti I T2 nel 2011 erano collegati alla rete italiana a 1-2 Gbit/s; GARR-X e’ l’upgrade a 10 Gbit/s o Gia’ successo a RM1, CNAF, BA, LNL (e TS, PG, …) o Pisa sta per arrivare (problemi lato GARR/Telecom, non lato sito) 13 Prima settimana di Bari con GARR-X: 7 Gbit/s raggiunti nei trasferimenti T. Boccali - CMS G. Carlino - Report dalla CSN1CCR - Frascati 25/10/12

Accesso WAN ai dati 2.Il modello iniziale prevede che “I jobs vadano dove I dati sono stati preallocati”, il che implica o Siti con poco storage sono inutili o E’ difficile sfruttare appieno le risorse, visto che richiede un matching di CPU libere e contemporanemante dati interessanti presenti nel sito Evoluzione: in alcuni casi (minoritari) CMS permette l’accesso remoto ai dati. Use cases approvati sono 1.Accesso interattivo in senso lato 2. Accesso in caso di fallback (se un sito ha problemi di storage, I jobs prima di fallire provano un accesso remoto) 3. Accesso in caso di overflow (non ancora implementato), che implica il utilizzo di CPU da siti ‘vicini” se quelle del sito che ospita I dati sono sature 14 T. Boccali - CMS G. Carlino - Report dalla CSN1CCR - Frascati 25/10/12

Gerarchia Xrootd Tutto questo e’ implementato mediante una gerarchia di redirettori Xrootd o Italiano o Europeo (comprende CERN) o Globale (== EU + US) o Il sistema e’ ottimizzato: Un file viene cercato localmente Se non va, si prova sui siti italiani Se non va, si prova su EU, CERN compreso Se non va, si prova US Altrimenti -> ReadError 15 T. Boccali - CMS G. Carlino - Report dalla CSN1CCR - Frascati 25/10/12

Evoluzione delle federazioni di XROOTD in ATLAS IT cloud 16 A. De Salvo - ATLAS

Utilizzo risorse in Italia Job Efficiency CNAF Roma Frascati Napoli Milano CNAF 43.84% Napoli 18.18% Roma 17.04% Milano 11.89% Frascati 9.06% IT 10.43% A. De Salvo - ATLAS Analisi Job Efficiency CNAF Roma Frascati Napoli Milano WCT Efficiency CNAF Frascati Roma Napoli Milano Produione

Rispetto al totale CMS – T1 18 Il T1 e’ secondo solo a FNAL Utilizzo del CNAF come visto da CMS a cavallo delle pledge, quasi sempre sopra (effetto dovuto sostanzialmente ad altre VO che hanno utilizzato meno) Avere in Italia il L3 che sovrintende alla produzioneMC (V.Spinoso) da’ un ulteriore aiuto a “tenerci pieni” T. Boccali - CMS G. Carlino - Report dalla CSN1CCR - Frascati 25/10/12

19 Rispetto al totale CMS – T2 19 Lista di ~50 siti … 11 o 14 o 20 o Facile diventare ~ irrilevanti La FR con un solo anno di finanziamenti non al pledge e’ “scomparsa” sia a livello T2 che T1 T. Boccali - CMS G. Carlino - Report dalla CSN1CCR - Frascati 25/10/12

Risorse Italiane 20 Terremoto a Bologna Lavori ENEL a Pisa Problema elettrico campus di Bari Lavori elettrici a Bari Installazione III chiller a Rm1 I “rossi” sono praticamente sempre spiegabili con cause esterne. I siti sono solidi! T. Boccali - CMS

Necessità di individuare i siti più affidabili per l’analisi cui inviare la maggior parte dei dati. Classificazione in base alle performance (stabilità) 4 Gruppi: Alpha: (60% share): T2D con rel > 90% Bravo: (30% share): non T2D con rel> 90% Charlie: (10% share): 80% < rel < 90% Delta: (0% share): rel <80% Classificazione dei Tier 2 A. De Salvo - ATLAS

D. Lucchesi – Referee Calcolo G. Carlino - Report dalla CSN122CCR - Frascati 25/10/12

D. Lucchesi – Referee Calcolo G. Carlino - Report dalla CSN123CCR - Frascati 25/10/12

D. Lucchesi – Referee Calcolo G. Carlino - Report dalla CSN124CCR - Frascati 25/10/12

Tier1 ALICEATLASCMSLHCB CPU (kHS)18.519%30.310% %16.518% Disk (PB)1.716%3.311%3.3813%1.317% Tape (PB)3.719%3.712%6.514%1.626% Tier2 ALICEATLASCMSLHCB CPU (kHS) 3015%3310%45.513%715% Disk (PB)2.412%3.57%3.513% Le risorse pledged sono necessarie per le attività centrali degli esperimenti. Ad esse si aggiungono altre risorse (O(10%)) dedicate alle attività degli utenti italiani G. Carlino - Report dalla CSN125CCR - Frascati 25/10/12

Le richieste per le attività ufficiali sono state in gran parte soddisfatte senza tagli penalizzanti per i siti italiani Però esistono degli elementi critici emersi dalla discussione in CSN1 che hanno rilevanza per questa commissione: 1.Tier3 2.Infrastrutture dei Tier2 G. Carlino - Report dalla CSN126CCR - Frascati 25/10/12

Cosa e’ un “Tier3” Una FUNZIONE e non UN SITO Deve offrire possibilita’: o Interattivo Account locale, spazio HOME, etc o Su alcuni cores (batch, PROOF e simili ok) o Deve poter accedere agli skim su T2 Anche in streaming, non necessita’ di averli in locale o Deve avere spazio disco di lavoro locale (X TB/user) 27 T. Boccali - CMS Come gia’ successo per ATLAS (20k 2 anni fa, 20k l’anno scorso), chiediamo lo sblocco di un “gettone” di 30kEuro per attrezzare 2 “Tier3” Con 15k/each: o ~ 50 cores di calcolo (~8k dalle ultime gare) Sufficienti a coprire esigenze di un gruppo medio di CMS Italia o ~ TB di disco Sostanzialmente area di lavoro Selezione dei siti: richiederemo o Garanzie sul supporto lato CMS e sull’interesse del gruppo (dal resp locale) o Ok di CCR per garantire supporto lato Sezione o Infrastruttura in grado di ospitare senza necessita’ di espansioni G. Carlino - Report dalla CSN1CCR - Frascati 25/10/12

Tier 3 All CPU Consumption Italia L’integrazione dei Tier3 nelle attività di ATLAS è molto soddisfacente. Svolgono attività di analisi in grid e interattiva e mettono a disposizione le CPU per la simulazione in caso di non utilizzo Finanziamenti passati: GE, RM3, RM2, LE: 10k€ Richiesta 2013: PV  10k€ 1 switch Espansione di un sistema di storage vecchio e limitato 1 cassetto di espansione storage 20 TB spazio disco A. De Salvo - ATLAS

D. Lucchesi – Referee Calcolo ATLAS CMS Altri esperimenti - Richieste Tier3-like per potenziamento farm o UI LHC-f: richiesti 15 k€ per potenziamento farm interattiva a CT Negati – suggerendo di spostare il calcolo al CNAF UI a LNF per LHCB e NA62 (5 k€) Negati – suggerendo di rivolgersi alle dotazioni Conclusioni: tutte le richieste per farm locali sono state negate e rigirate altrove. Da valutare in questa commissione la possibilità di sostenerle economicamente G. Carlino - Report dalla CSN129CCR - Frascati 25/10/12

D. Lucchesi – Referee Calcolo Successive interazioni con la giunta: La giunta ritiene che si debbano mantenere gli accordi sottoscritti dai direttori in fase di costruzione dei Tier-2 e quindi il supporto per il mantenimento ordinario delle infrastutture è a carico delle sezioni/laboratori che ospitano i Tier-2 mentre quello della infrastuttura straordinaria (tipo UPS) va a carico della CCR. Se i direttori non hanno soldi per il mantenimento della infrastruttura presentino il problema al direttivo e li saranno discusse le possibili soluzioni. G. Carlino - Report dalla CSN130CCR - Frascati 25/10/12

C. Bloise – Kloe G. Carlino - Report dalla CSN131CCR - Frascati 25/10/12

Assegnati 60 k€ per storage dei dati SJ all'effettiva raccolta dati Assegnati 35 k€ (su 100 richiesti) SJ alla modifica del contratto di manutenzione per la seconda metà dell'anno. L’attuale è considerato troppo oneroso Per gli anni successivi viene richiesto lo sviluppo di un nuovo modello di calcolo M. Pepe – Referee G. Carlino - Report dalla CSN132CCR - Frascati 25/10/12

TOR VERGATA – sito del laboratorio R. Calabrese – SuperB G. Carlino - Report dalla CSN133CCR - Frascati 25/10/12

R. Calabrese – SuperB G. Carlino - Report dalla CSN134CCR - Frascati 25/10/12

R. Calabrese – SuperB G. Carlino - Report dalla CSN135CCR - Frascati 25/10/12

R. Calabrese – SuperB G. Carlino - Report dalla CSN136CCR - Frascati 25/10/12