17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 1 Il tier2 a Milano e le attività locali di sw e calcolo ATLAS e Grid I gruppi ATLAS di Milano Le.

Slides:



Advertisements
Presentazioni simili
Fisica Subnucleare – Esperimento ATLAS
Advertisements

Run I Distribuzione inclusive di Min Bias (Mult. Carica, Pt). Correlazioni dello stato finale ( -Mult) + mini-jet (soft hard physics). Campioni utilizzati:
U.Gasparini, Bologna 8/11/06 1 Canali di fisica di interesse… Discussione in seno alla comunita italiana di CMS a Bologna, Giovedi mattina 23 Novembre,
23/01/01Alberto Masoni – GR1 - Roma1 I MODELLI DI CENTRI REGIONALI POSIZIONE DI ALICE ITALIA CENTRO ITALIANO: CPU 450 KSI95, DISCO 400 TB (INSIEME TIER-1.
L. Perini CSN1 -Roma 23 Gen Centri Regionali per il calcolo di ATLAS in Italia Tier-1 e Tiers-N : funzioni, localizzazione, necessita di h/w, personale.
ALICE-Italia: IL CALCOLO
P. Capiluppi Organizzazione del Software & Computing CMS Italia I Workshop CMS Italia del Computing & Software Roma Novembre 2001.
Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
ATLAS Muon Trigger Slice Francesco Conventi per il gruppo sw ATLAS/Napoli Riunione Gruppo1, Napoli 17/12/2007.
Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
La facility nazionale Egrid: stato dell'arte Egrid-Team Trieste, 9 ottobre 2004.
Coinvolgimento attuale italiano nelle analisi di CMS Bologna 25 Novembre 2006 Roberto Tenchini.
Tier1 - cpu KSI2k days ATLAS KSI2k days CMS. Tier1 - storage CASTOR disk space CMS requires: T1D0, T0D1 ATLAS requires: T1D0, T0D1 and T1D1.
Stato attuale e prospettive future dello studio Z+ b-jet S.Diglio, A.Tonazzo, M.Verducci Università Roma Tre e INFN ATLAS ITALIA Physics Workshop Milano.
Il software delle DT Attività in corso Stato della simulazione e ricostruzione hit in ORCA Calibrazione Validazione con dati di Testbeam Testbeam Ottobre.
Alessia Tricomi Università & INFN Catania
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
ATLAS Distributed Analysis Lamberto Luminari CSN1 – Roma, 16 Maggio 2006.
Simone Gennai INFN Sez. di Pisa I.F.A.E Strategie di trigger per eventi SUSY a LHC.
Analysis unibo una proposta. Work flow di una tipica analisi 1.Simulazione di piccoli campioni di eventi per studio segnale 2.Generazione in grande.
CMS RPC R&D for phase 2 Two types of upgrades proposed for the CMS RPC muon system: 1.Aging and longevity: installed in 2007, must continue to operate.
Ricerca dei bosoni di Higgs a LHC Riccardo Ranieri INFN e Università di Firenze XVI Ciclo di Incontri di Fisica delle Alte Energie Torino, Aprile.
16 Maggio CSN1 Computing-Software-Analysis CMS-INFN TEAM Analisi in CMS: stato e prospettive del supporto italiano.
CMS RPC R&D for phase 2 Two types of upgrades proposed for the CMS RPC muon system: 1.Aging and longevity: installed in 2007, must continue to operate.
Attivita` di TileCal 2013 C.Roda Universita` e INFN Pisa Riunione referees ATLAS Roma 1 C.Roda Universita` e INFN Pisa.
CSN Maggio 2005 P. Capiluppi Il Computing Model (LHC) nella realta’ italiana u I Computing models degli esperimenti LHC gia’ presentati a Gennaio.
LNF Farm E. V. 9/8/2006. Hardware CE, LCFG, HLR, 3 WN: DL 360 1U; SE: DL 380 2U 5 WN: BL 25 P In totale 25 jobs general purpuse (coda Atlas) + una coda.
1 LHCb Computing Angelo Carbone, INFN-CNAF CSN1, 21/9/06 Aggiornamento richieste Tier Richiesta Tier-2 al CNAF Stato e risultati DC06.
Esperimento OPAL Collaborazione di circa 300 fisici
Tau trigger con Calorimetri, Pixel e Tracker CMS Software Workshop Simone Gennai A nome della collaborazione del Tau-Trigger.
Tier-2 Tier-2 ATLAS (Osservazioni sulla proposta dei referee del calcolo LHC) Lamberto Luminari CSN1 – Roma, 3 Aprile 2006.
Calcolo esperimenti LHC 2004 F. Ferroni, P. Lubrano, A. Martin, M. Morandin, M. Sozzi.
Gruppo di referaggio: Forti (chair), Bossi, Ferrari, Menasce, Morandin, Simone, Taiuti, Zoccoli TIER2: Update F. Bossi, CSN1 Trieste 7/7/05.
Tier-2 ATLAS Tier-2 Lamberto Luminari CSN1 – Roma, 10 Ottobre 2005.
20/4/2006S. Rosati - IFAE1 Ricerche del Bosone di Higgs del Modello Standard ad LHC Stefano Rosati INFN – Roma 1.
Il calcolo LHC in Italia: commenti Gruppo di referaggio Forti (chair), Belforte  Bossi, Menasce, Simone, Taiuti, Ferrari, Morandin, Zoccoli.
Progetto di Tesi di Dottorato
MUG-TEST A. Baldini 29 gennaio 2002
Halina Bilokon ATLAS Software di fisica DC1 – DC2 DC1 aprile fine 2003 (versioni di software  3.x.x – 7.x.x)  Validation del Software  Aggiornamento.
STATO DEI PROGETTI TIER2 F. Bossi CCR, Roma, 20 Ottobre 2005 ( per il gruppo di referaggio)
L. Carminati - P. GovoniIII Workshop sull fisica di ATLAS-CMS1 sessione di discussione uno spunto: la calibrazione in situ dei rivelatori CALORIMETRI ELETROMAGNETICI:
ATLAS Computing Model Lamberto Luminari CSN Gennaio, 2005.
Stima back of envelope dell’efficienza di segnale per particelle di carica frazionaria e reiezione del bkg – Segnale muon-like con ionizzazione media (1/3)^2.
News LHC recommissioning is continuing Sucessfully achieved so far 4 TeV beams, 0.6 m beta* (at least with few bunches) Some beam splashes last week; still.
D. Martello Dip. Fisica - Lecce Sintesi piani esperimenti CSN2 CNAF 7-marzo-2007.
Atlas Italia - Milano, 17/11/2009 G. Carlino – News dal Computing 1 1 News dal computing Gianpaolo Carlino INFN Napoli Atlas Italia, Milano, 17/11/09 Nuovo.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 1 ATLAS Attività di TeV Attività di computing Attività di computing.
Referaggio sigla CALCOLO D. Bonacorsi, G. Carlino, P. Morettini CCR – Roma 9 Settembre 2014.
Attilio Andreazza 1 Milano 27/07/2009 Attività sul tracking Software pixel Attilio: responsabilità generale del software offline pixel –simulazione, ricostruzione,
1 Attività della Sezione INFN Napoli per il Calcolo distribuito e Grid L. Merola – 02/11/ :Connettività in rete LAN Ethernet e rete WAN INFNET.
17 GennaioTier2 Milano G. Costa 1 17-Gennaio-2006.
19 Ottobre 2012ATLAS Milano1 Stato delle risorse locali di calcolo L. Carminati, L. Perini, D. Rebatto, L. Vaccarossa.
1 Firenze, 6 Settembre 2011 G. Carlino – Relazione Referaggi Computing ATLAS Relezione Riunioni Referaggio Calcolo ATLAS Computing Model News Computing.
ATLAS Relazione dei referees A. Cardini, M. Grassi, D. Lucchesi, G. Passaleva, A. Passeri.
Firmware per il Trigger del RICH Cristiano Santoni Università degli studi di Perugia INFN - Sezione di Perugia Meeting generale GAP 13/01/2014.
TIER-2: Risorse e tabella di marcia M.L. Ferrer. 5/12/2005 M.L. Ferrer Referaggio TIER-2 LNF 2 Presenti Calcolo: Massimo Pistoni Claudio Soprano Dael.
Atlas TDAQ E. Pasqualucci INFN Roma. Sommario Attivita’ di fine 2008 – inizio 2009 Preparazione per i run con fasci Trigger con luminosita’ iniziali 16/9/20092E.
Referaggio Calcolo ATLAS II Gianpaolo Carlino INFN Napoli Catania, 12 Settembre 2012 Risorse e Richieste 2013 nei preventivi Aggiornamento in seguito all’allungamento.
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
ATLAS Italia – Sestri Levante, 15 Giugno 2010 G. Carlino – Richieste Run Efficiency = time for physics / total time LHC Efficiency = time with colliding.
Gianpaolo Carlino Bologna, 6 Marzo 2007 Stato dei Tier-2 Italiani di ATLAS Attività nei Tier-2 Attività della Federazione dei Tier-2 Risorse disponibili.
Referaggio Calcolo ATLAS Gianpaolo Carlino INFN Napoli CNAF, 11 Maggio 2012 Attività di Computing ATLAS Attività di Computing in Italia Risorse e Richieste.
L.Perini Milano: 10 Gennaio Ex-ATLAS-Grid (Tier2 incluso) l Ruolo dei Tiers in ATLAS e grid l Le persone di Milano e le attività l Le infrastrutture.
TOTEM review a LHCC C. Cecchi CSN1, Parma 24/09/2010 CSN1, Parma 23/09/10C. Cecchi  STATO DELL’ESPERIMENTO & PHYSICS PLAN 2010/2011  INSTALLAZIONE DI.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
From 8 to 80 boxes. From FBSNG to Condor CPU Satura !
Lamberto Luminari CSN Maggio 2005
ATLAS Italia Computing Richieste 2007 (Tier-2 e locali)
Transcript della presentazione:

17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 1 Il tier2 a Milano e le attività locali di sw e calcolo ATLAS e Grid I gruppi ATLAS di Milano Le loro attività sw e calcolo Il gruppo Grid di Milano Il prototipo Tier2: storia, funzioni, responsabilità, milestones

17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 2 ATLAS-Milano Liquid-Argon

17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 3 Attività sw e calcolo ATLAS-Mi-LAr Calibrazione del calorimetro elettromagnetico Ricostruzione e Calibrazione di ETmiss Analisi dei canali di fisica: –H-->  –MSSM A/H--> 

17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 4 Attività sw e calcolo ATLAS-Mi-Lar (2) Calibrazione del calorimetro elettromagnetico 1) Calibrazione elettronica: determinazione dell'ampiezza del segnale in corrente a partire dal segnale, digitizzato e campionato, prodotto da una particella nel calorimetro. Algoritmo messo a punto a Milano, gia` utilizzato anche per il testbeam combinato. 2) Calibrazione "fisica": si passa dall energia depositata in LAr alla miglior stima dell'energia di un elettrone o fotone. –speciali simulazioni che danno accesso anche alle energie depositate negli strati passivi/inattivi ('calibration hits'). Gia in corso a Milano Per la calibrazione completa del calorimetro Lar em si richiedono simulazioni per circa 4500h e 5GB per particella --> circa 500gg per 100 macchine corrispondenti a circa 4*109 SpecInt95?*sec e 1.3 TB di occupazione disco --> TIER2 Milano.

17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 5 Attività sw e calcolo ATLAS-Mi-Lar (3) Ricostruzione e Calibrazione di ETmiss Milano e' responsabile dell'implementazione, mantenimento e validazione del MissingET package in Athena, in cui viene ricostruito e calibrato ETmiss. Il canale Z->  sara' utilizzato per la calibrazione di ETmiss in situualche --> un migliaio di Z->  con un fondo < 15% nei primi mesi di presa dati Dalla ricostruzione della massa di Z dai due  e' possibile stimare la scala di ETmiss. Necessario ricostruire (piu' volte) dati single trigger-lepton partendo dagli ESD, selezionati con TAG --> TIER2 Milano..

17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 6 Attività sw e calcolo ATLAS-Mi-Lar (4) Analisi dei canali di fisica: –H-->  Analisi del canale inclusivo (a  LO  su campioni DC1: –ATLAS note sottomessa Anche analisi del canale VBF: –A bassa luminosita’ Altre attivita’ in corso: –Validazione dei campioni CSC –Studio del fondo riducibile –MSSM A/H-->  Analisi del canale -->lepton-hadron in full simulation fatta a Milano per il TP, TDR e campioni DC1/Roma ATLAS note: PHYS , PHYS-00-05, PHYS ottima risoluzione ETmiss in ATLAS->-.ricostruz m  ottima identificazione tau-jet --> alta reiezione fondi ->ampia copertura spazio parametri MSSM con questo canale Analisi segnali e fondi su TIER2 Mi L=10 34 cm -2 s -2, ∫L=100 fb -1

17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 7 ATLAS-Milano Pixel

17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 8 Attività correnti sw e calcolo ATLAS PIXEL Analisi dati tbeams/simulazione tbeam/ archivio dati tbeam Simulazione Pixel + SCT in ATLAS per ottimizzazione algoritmi (clustering, TOT, danneggiamento da radiazione,raccolta di carica etc) Analisi fisiche: –Supersimmetria –Top

17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 9 Esempio I - Alcuni risultati test beam Pixel Record!  = (  0.03) % Efficiency plot Fraction of cluster with all hits in1 b. c. after duplication of hit with TOT  10 Fraction of cluster with all hits in 1 b. c. TOT  5 2 note + 1 Draft

17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 10 Esempio II-Preparazione Software ATLAS Pixel –Simulazione implementazione in Geant 4 della simulazione dei Pixels utilizzando la esperienza del test beam –Ricostruzione Implementazione dell'algoritmo di ricostruzione dei clusters in Athena Parametrizzazione della funzione di risposta dei pixels per la ricostruzione della coordinata utilizzando il "charge sharing" –Calibrazione e Monitoring Misura di parametri del rivelatore durante la presa dati (in funzione dell’ irraggiamento): –Depletion Depth –Angolo di Lorentz –Charge collection Efficiency

17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 11 Fondi tt,W+jets,Z=jets simulati su T2-Mi 0.5 TB dati (15 fb -1 ) Esempio III - Preparazione analisi fisica –Ricerca di supersimmetria con il Rivelatore ATLAS Lari, Troncon, Ragusa, De Sanctis, Montesano –Fenomenologia di modelli supersimmetrici con vincoli cosmologici –Differenza delle masse dei neutralini Regione esclusa dai limiti imposti da LEP Regione esclusa perché non c’è rottura di simmetria elettrodebole Regione di Focuspoint Regione di coannichilazione PUNTO SCELTO

17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 12 ATLAS-Milano Grid Lari e Troncon 20%, Perini 60%, Resconi 100%, Rebatto 50%

17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 13 Attività ATLAS-Grid Milano Coord. Task-Force ATLAS-LCG-EGEE e quindi in Technical Coordination Group EGEE (Perini) Deputy ATLAS in LCG Grid Deployment Board (Perini) Sviluppo e manutenzione ATLAS Production System per parte LCG ( Rebatto) Sperimentazione analisi distribuita, in connessione con installazione locale sw ATLAS (Resconi) Produzioni Grid di ATLAS: per Rome prod. Estate 2005 > 50% lavoro fatto da Milanesi (Perini coordinatore, anche Lari fra i job submitters).

17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 14 PS Grid Milano NB: Il numero di tecnologi è 12 non 15. I 5 con %0 sono errore tecnico. Il contributo dei 3 del Dipartimento Informatica va ancora precisato. Da notare potenziale di collaborazione con CMS (30% e 20%)

17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 15 Responsabilità e connessioni con ATLAS nel PS Grid-Milano F. Prelz è responsabile del Work Load Management System di EGEE (cluster italo-ceco) E.Molinari e L.Vaccarossa sono in ATLAS task force L.Vaccarossa cura fin dal 2002 l’interfacciamento del prototipo Tier2 di Milano con la GRID INFN e LCG-EGEE

17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 16 Il prototipo Tier2 di Milano: storia Il proto-tier2 di Milano ha preso parte al DC1 di ATLAS in estate 2002 –20 CPU in loco ( no Grid, 30 siti e 2 M di ore di CPU) A fine 2002 il proto-tier2 di Milano è entrato in LCG, primo Tier2 ATLAS INFN. In estate 2004 si è svolto DC2 ATLAS –Tutto con Grid (1.5 MSI2k.mesi); Milano 60 kSI2k e 7 TB disco; prodotto a Mi circa 4% di LCG ( LCG=40% del totale) In primavera 2005 Rome Prod già citata –280kSI2k.anni solo per simulazione, INFN erogato 25% CPU LCG, e LCG 65% del totale

17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini17 Jobs distribution on LCG for DC2 simulation Preliminary

LCG POB: ATLAS on the LCG/EGEE Grid 17-Gennaio-2006 Milano-Visita referaggio Tier2 L.Perini 18 ATLAS on the LCG/EGEE Grid Input prepared by D Barberis (ATLAS Computing Coordinator), and with direct contributions from L Perini, G Poulard, O Smirnova, and many others LCG POB 20 th June 2005, P Jenni

LCG POB: ATLAS on the LCG/EGEE Grid 17-Gennaio-2006 Milano-Visita referaggio Tier2 L.Perini 19 Massive productions on 3 Grids July-September 2004: DC2 Geant-4 simulation (long jobs) 40% on LCG/EGEE Grid, 30% on Grid3 and 30% on NorduGrid October-December 2004: DC2 digitization and reconstruction (short jobs) February-May 2005: Rome production (mix of jobs as digitization and reconstruction was started as soon as samples had been simulated) 65% on LCG/EGEE Grid, 24% on Grid3, 11% on NorduGrid Mia aggiunta: Per “ROME” CPU consumata al 20-5, a fase simulazione ~finita, (poi si aggiungono jobs, ma poca CPU) Grid3: 80 kSI2K.years NorduGrid: 22 kSI2k.years LCG-tot: 178 kSI2K.years Total: 280 kSI2K.years Notare che la gran parte di questo impego di CPU è stata fatta in circa 40 giorni, e che i risultati sono stati usati per analisi fisica

LCG POB: ATLAS on the LCG/EGEE Grid 17-Gennaio-2006 Milano-Visita referaggio Tier2 L.Perini 20 Rome production statistics 73 data sets containing 6.1M events simulated and reconstructed (without pile-up) Total simulated data: 8.5M events Pile-up done later (for 1.3M events done, 50K reconstructed)

17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 21 Notare LCG fatto >50% da Milanesi!!!

LCG POB: ATLAS on the LCG/EGEE Grid 17-Gennaio-2006 Milano-Visita referaggio Tier2 L.Perini 22 This is the first successful use of the grid by a large user community, which has however also revealed several shortcomings which need now to be fixed as LHC turn-on is only two years ahead! Very instructive comments from the user feedback have been presented at the Workshop (obviously this was one of the main themes and purposes of the meeting) All this is available on the Web

LCG POB: ATLAS on the LCG/EGEE Grid 17-Gennaio-2006 Milano-Visita referaggio Tier2 L.Perini 23 Rome production on the LCG/EGEE Grid

17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 24 Funzioni e hw Tier2 Milano Nel modello di ATLAS il Tier2 alloca una frazione della CPU a priorità locali/INFN –Produce simulazione: vari siti possibili per 1 sample Output al Tier1, simulazioni aggiuntive possibili in base ad interessi locali –Ospita AOD per l’analisi (MI: Higgs, SUSY, top) Campioni di interesse locale/INFN ( tot AOD=200TB/anno) –Ospita frazioni ridotte ESD –Svolgono calibrazioni ed altri studi di interesse Milano Calib. Lar, Pixel, Trigger Pixel Performance jets/tau/etmis/gamma Vedi next slides per caratteristiche modello e piano hw per insieme Tier2 INFN

17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 25 RAW DATA – Size: 1.6 MB – Dati in uscita dall’Event Filter (terzo livello di trigger) in fomato “byte-stream” (come sono forniti dai rivelatori). Output rate: 200 Hz. Archiviati nel Tier0 e nei Tier1 ESD DATA – Size: 400 kB – Dati prodotti dalla ricostruzione in formato OO. Tutte le versioni sono replicate e risiedono in almeno 2 Tier1 e, in campioni, nei Tier2. AOD DATA – Size: 100 kB – Rappresentazione ridotta degli ESD per l’analisi. Replicati in ogni Tier1 e in frazioni, in base agli stream inclusivi ed esclusivi, nei Tier2 TAG DATA – Size: 1 kB – Formato dei dati con informazione esclusiva della lista di eventi appartenenti ad un particolare stream per una veloce selezione. Archiviati in database relazionali. Replicati in tutti i Tier1 e Tier2 DPD DATA – Formato ntuple-like per l’analisi dei dati batch e interattiva. Repliche nei Tier1, 2 e 3 SIM DATA – Eventi Simulati a vari livelli: generatore, hit, digi Parametri vari: Tempo per la ricostruzione: 15 kSI2k-sec per evento CPU richiesta per la ricostruzione: 3000 kSI2k ( 15 kSI2k-sec/evento per 200 eventi/sec) Tempo per la simulazione: 100 kSI2k-sec per evento Tempo per l’analisi: 0.5 kSI2k-sec per evento Link di input all’EF: (10 x) 10 GB/s Link di output dall’EF (al Tier0): 320 MB/s Tempi di processamento dei dati (dall’on-line (EF) all’off-off-line (Tier0)): 50% in 8 ore e 90% in 24 ore Eventi raccolti al giorno: 10 7 Eventi per anno (dal 2008): 2  10 9 Eventi per anno, Size: O (10 PB) ATLAS Computing Model – Struttura Dati

17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 26 Necessità di calcolo (HW) e Costi fino al 2010 (totale dei Tier-2 di ATLAS) Tier2 INFN Tot. K€ CPU (kSI2K) (new) 200 (tot) K€ Dischi (TB) (new) 50 (tot) K€ Tot. K€

17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini CPU kSI2k/box CPU €/kSI2k Disk TB/disk Disk €/GB , Profilo Capacità e Costi di CPU e Storage fin al 2010

17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 28 Profilo di acquisizione hw Milano e potenza elettrica

17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 29 Responsabilità Tier2 Milano Gestionale: L.Perini, deputy=A.Andreazza Operative: L.Perini con supporto S.Resconi Tecniche –Impianti: E. Torri, responsabile Sezione –Architettura Tier2: S.Barberis –Coordinamento personale tecnico: F.Prelz responsabile Servizio Calcolo Sezione, che copre servizi base Sistemisti dedicati –Per installazioni, gestione manutenzioni e sistemi di monitoring: 1 FTE da 4 persone Serv.Cal. –Installazione/aggionamento mw e servizi Grid: 0.5 FTE (da L.Vaccarossa + S. Resconi )

17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 30 Supporto operativo –1-manutenzione del software di esperimento Mostly via Grid. Parte locale S.Resconi –2-movimentazione e archiviazione dei dati Via Grid. Archivizione su Tier1 Guido Negri –3-gestione documentazione per gli utenti Parte locale A.Andreazza, S.Resconi –4-servizio di supporto agli utenti Parte locale A.Andreazza, S.Resconi, L.Carminati –5-interfacciamento con personale sistemistico L.Perini, A.Andreazza –6-coordinamento sottomissione job e controllo produzioni Coordinamento L.Perini, Grid+locale insieme: sottomissione jobs a regime 0.2 FTE su 3-4 persone ATLAS, controllo 0.2 su 4-5 persone ATLAS. –7-contatto locale per l'operazione della griglia di produzione L.Vaccarossa, S.Resconi

17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 31 Milestones –Entro 4/2006 completamento impianto condizionamento –Entro 7/2006 completamento nuovo sistema elettrico sala calcolo –Entro 1/2007 avvio procedure gara per l’acquisizione HW 2007 –Entro 6/2007 installazione dell’HW 2007 –Entro 7/2007 Tier-2 operativo per il Pilot Run –Entro 1/2008 avvio procedure gara per HW 2008 –Entro 6/2008 installazione dell’HW 2008 e piena operatività del Tier-2