Scaricare la presentazione
La presentazione è in caricamento. Aspetta per favore
PubblicatoValerio Pasini Modificato 8 anni fa
1
17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 1 Il tier2 a Milano e le attività locali di sw e calcolo ATLAS e Grid I gruppi ATLAS di Milano Le loro attività sw e calcolo Il gruppo Grid di Milano Il prototipo Tier2: storia, funzioni, responsabilità, milestones
2
17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 2 ATLAS-Milano Liquid-Argon
3
17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 3 Attività sw e calcolo ATLAS-Mi-LAr Calibrazione del calorimetro elettromagnetico Ricostruzione e Calibrazione di ETmiss Analisi dei canali di fisica: –H--> –MSSM A/H-->
4
17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 4 Attività sw e calcolo ATLAS-Mi-Lar (2) Calibrazione del calorimetro elettromagnetico 1) Calibrazione elettronica: determinazione dell'ampiezza del segnale in corrente a partire dal segnale, digitizzato e campionato, prodotto da una particella nel calorimetro. Algoritmo messo a punto a Milano, gia` utilizzato anche per il testbeam combinato. 2) Calibrazione "fisica": si passa dall energia depositata in LAr alla miglior stima dell'energia di un elettrone o fotone. –speciali simulazioni che danno accesso anche alle energie depositate negli strati passivi/inattivi ('calibration hits'). Gia in corso a Milano Per la calibrazione completa del calorimetro Lar em si richiedono simulazioni per circa 4500h e 5GB per particella --> circa 500gg per 100 macchine corrispondenti a circa 4*109 SpecInt95?*sec e 1.3 TB di occupazione disco --> TIER2 Milano.
5
17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 5 Attività sw e calcolo ATLAS-Mi-Lar (3) Ricostruzione e Calibrazione di ETmiss Milano e' responsabile dell'implementazione, mantenimento e validazione del MissingET package in Athena, in cui viene ricostruito e calibrato ETmiss. Il canale Z-> sara' utilizzato per la calibrazione di ETmiss in situualche --> un migliaio di Z-> con un fondo < 15% nei primi mesi di presa dati Dalla ricostruzione della massa di Z dai due e' possibile stimare la scala di ETmiss. Necessario ricostruire (piu' volte) dati single trigger-lepton partendo dagli ESD, selezionati con TAG --> TIER2 Milano..
6
17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 6 Attività sw e calcolo ATLAS-Mi-Lar (4) Analisi dei canali di fisica: –H--> Analisi del canale inclusivo (a LO su campioni DC1: –ATLAS note sottomessa Anche analisi del canale VBF: –A bassa luminosita’ Altre attivita’ in corso: –Validazione dei campioni CSC –Studio del fondo riducibile –MSSM A/H--> Analisi del canale -->lepton-hadron in full simulation fatta a Milano per il TP, TDR e campioni DC1/Roma ATLAS note: PHYS-94-051, PHYS-00-05, PHYS-03-09 ottima risoluzione ETmiss in ATLAS->-.ricostruz m ottima identificazione tau-jet --> alta reiezione fondi ->ampia copertura spazio parametri MSSM con questo canale Analisi segnali e fondi su TIER2 Mi L=10 34 cm -2 s -2, ∫L=100 fb -1
7
17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 7 ATLAS-Milano Pixel
8
17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 8 Attività correnti sw e calcolo ATLAS PIXEL Analisi dati tbeams/simulazione tbeam/ archivio dati tbeam Simulazione Pixel + SCT in ATLAS per ottimizzazione algoritmi (clustering, TOT, danneggiamento da radiazione,raccolta di carica etc) Analisi fisiche: –Supersimmetria –Top
9
17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 9 Esempio I - Alcuni risultati test beam Pixel Record! = (100.00 0.03) % Efficiency plot Fraction of cluster with all hits in1 b. c. after duplication of hit with TOT 10 Fraction of cluster with all hits in 1 b. c. TOT 5 2 note + 1 Draft
10
17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 10 Esempio II-Preparazione Software ATLAS Pixel –Simulazione implementazione in Geant 4 della simulazione dei Pixels utilizzando la esperienza del test beam –Ricostruzione Implementazione dell'algoritmo di ricostruzione dei clusters in Athena Parametrizzazione della funzione di risposta dei pixels per la ricostruzione della coordinata utilizzando il "charge sharing" –Calibrazione e Monitoring Misura di parametri del rivelatore durante la presa dati (in funzione dell’ irraggiamento): –Depletion Depth –Angolo di Lorentz –Charge collection Efficiency
11
17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 11 Fondi tt,W+jets,Z=jets simulati su T2-Mi 0.5 TB dati (15 fb -1 ) Esempio III - Preparazione analisi fisica –Ricerca di supersimmetria con il Rivelatore ATLAS Lari, Troncon, Ragusa, De Sanctis, Montesano –Fenomenologia di modelli supersimmetrici con vincoli cosmologici –Differenza delle masse dei neutralini Regione esclusa dai limiti imposti da LEP Regione esclusa perché non c’è rottura di simmetria elettrodebole Regione di Focuspoint Regione di coannichilazione PUNTO SCELTO
12
17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 12 ATLAS-Milano Grid Lari e Troncon 20%, Perini 60%, Resconi 100%, Rebatto 50%
13
17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 13 Attività ATLAS-Grid Milano Coord. Task-Force ATLAS-LCG-EGEE e quindi in Technical Coordination Group EGEE (Perini) Deputy ATLAS in LCG Grid Deployment Board (Perini) Sviluppo e manutenzione ATLAS Production System per parte LCG ( Rebatto) Sperimentazione analisi distribuita, in connessione con installazione locale sw ATLAS (Resconi) Produzioni Grid di ATLAS: per Rome prod. Estate 2005 > 50% lavoro fatto da Milanesi (Perini coordinatore, anche Lari fra i job submitters).
14
17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 14 PS Grid Milano NB: Il numero di tecnologi è 12 non 15. I 5 con %0 sono errore tecnico. Il contributo dei 3 del Dipartimento Informatica va ancora precisato. Da notare potenziale di collaborazione con CMS (30% e 20%)
15
17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 15 Responsabilità e connessioni con ATLAS nel PS Grid-Milano F. Prelz è responsabile del Work Load Management System di EGEE (cluster italo-ceco) E.Molinari e L.Vaccarossa sono in ATLAS task force L.Vaccarossa cura fin dal 2002 l’interfacciamento del prototipo Tier2 di Milano con la GRID INFN e LCG-EGEE
16
17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 16 Il prototipo Tier2 di Milano: storia Il proto-tier2 di Milano ha preso parte al DC1 di ATLAS in estate 2002 –20 CPU in loco ( no Grid, 30 siti e 2 M di ore di CPU) A fine 2002 il proto-tier2 di Milano è entrato in LCG, primo Tier2 ATLAS INFN. In estate 2004 si è svolto DC2 ATLAS –Tutto con Grid (1.5 MSI2k.mesi); Milano 60 kSI2k e 7 TB disco; prodotto a Mi circa 4% di LCG ( LCG=40% del totale) In primavera 2005 Rome Prod già citata –280kSI2k.anni solo per simulazione, INFN erogato 25% CPU LCG, e LCG 65% del totale
17
17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini17 Jobs distribution on LCG for DC2 simulation Preliminary
18
LCG POB: ATLAS on the LCG/EGEE Grid 17-Gennaio-2006 Milano-Visita referaggio Tier2 L.Perini 18 ATLAS on the LCG/EGEE Grid Input prepared by D Barberis (ATLAS Computing Coordinator), and with direct contributions from L Perini, G Poulard, O Smirnova, and many others LCG POB 20 th June 2005, P Jenni
19
LCG POB: ATLAS on the LCG/EGEE Grid 17-Gennaio-2006 Milano-Visita referaggio Tier2 L.Perini 19 Massive productions on 3 Grids July-September 2004: DC2 Geant-4 simulation (long jobs) 40% on LCG/EGEE Grid, 30% on Grid3 and 30% on NorduGrid October-December 2004: DC2 digitization and reconstruction (short jobs) February-May 2005: Rome production (mix of jobs as digitization and reconstruction was started as soon as samples had been simulated) 65% on LCG/EGEE Grid, 24% on Grid3, 11% on NorduGrid Mia aggiunta: Per “ROME” CPU consumata al 20-5, a fase simulazione ~finita, (poi si aggiungono jobs, ma poca CPU) Grid3: 80 kSI2K.years NorduGrid: 22 kSI2k.years LCG-tot: 178 kSI2K.years Total: 280 kSI2K.years Notare che la gran parte di questo impego di CPU è stata fatta in circa 40 giorni, e che i risultati sono stati usati per analisi fisica
20
LCG POB: ATLAS on the LCG/EGEE Grid 17-Gennaio-2006 Milano-Visita referaggio Tier2 L.Perini 20 Rome production statistics 73 data sets containing 6.1M events simulated and reconstructed (without pile-up) Total simulated data: 8.5M events Pile-up done later (for 1.3M events done, 50K reconstructed)
21
17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 21 Notare LCG fatto >50% da Milanesi!!!
22
LCG POB: ATLAS on the LCG/EGEE Grid 17-Gennaio-2006 Milano-Visita referaggio Tier2 L.Perini 22 This is the first successful use of the grid by a large user community, which has however also revealed several shortcomings which need now to be fixed as LHC turn-on is only two years ahead! Very instructive comments from the user feedback have been presented at the Workshop (obviously this was one of the main themes and purposes of the meeting) All this is available on the Web
23
LCG POB: ATLAS on the LCG/EGEE Grid 17-Gennaio-2006 Milano-Visita referaggio Tier2 L.Perini 23 Rome production on the LCG/EGEE Grid
24
17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 24 Funzioni e hw Tier2 Milano Nel modello di ATLAS il Tier2 alloca una frazione della CPU a priorità locali/INFN –Produce simulazione: vari siti possibili per 1 sample Output al Tier1, simulazioni aggiuntive possibili in base ad interessi locali –Ospita AOD per l’analisi (MI: Higgs, SUSY, top) Campioni di interesse locale/INFN ( tot AOD=200TB/anno) –Ospita frazioni ridotte ESD –Svolgono calibrazioni ed altri studi di interesse Milano Calib. Lar, Pixel, Trigger Pixel Performance jets/tau/etmis/gamma Vedi next slides per caratteristiche modello e piano hw per insieme Tier2 INFN
25
17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 25 RAW DATA – Size: 1.6 MB – Dati in uscita dall’Event Filter (terzo livello di trigger) in fomato “byte-stream” (come sono forniti dai rivelatori). Output rate: 200 Hz. Archiviati nel Tier0 e nei Tier1 ESD DATA – Size: 400 kB – Dati prodotti dalla ricostruzione in formato OO. Tutte le versioni sono replicate e risiedono in almeno 2 Tier1 e, in campioni, nei Tier2. AOD DATA – Size: 100 kB – Rappresentazione ridotta degli ESD per l’analisi. Replicati in ogni Tier1 e in frazioni, in base agli stream inclusivi ed esclusivi, nei Tier2 TAG DATA – Size: 1 kB – Formato dei dati con informazione esclusiva della lista di eventi appartenenti ad un particolare stream per una veloce selezione. Archiviati in database relazionali. Replicati in tutti i Tier1 e Tier2 DPD DATA – Formato ntuple-like per l’analisi dei dati batch e interattiva. Repliche nei Tier1, 2 e 3 SIM DATA – Eventi Simulati a vari livelli: generatore, hit, digi Parametri vari: Tempo per la ricostruzione: 15 kSI2k-sec per evento CPU richiesta per la ricostruzione: 3000 kSI2k ( 15 kSI2k-sec/evento per 200 eventi/sec) Tempo per la simulazione: 100 kSI2k-sec per evento Tempo per l’analisi: 0.5 kSI2k-sec per evento Link di input all’EF: (10 x) 10 GB/s Link di output dall’EF (al Tier0): 320 MB/s Tempi di processamento dei dati (dall’on-line (EF) all’off-off-line (Tier0)): 50% in 8 ore e 90% in 24 ore Eventi raccolti al giorno: 10 7 Eventi per anno (dal 2008): 2 10 9 Eventi per anno, Size: O (10 PB) ATLAS Computing Model – Struttura Dati
26
17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 26 Necessità di calcolo (HW) e Costi fino al 2010 (totale dei Tier-2 di ATLAS) Tier2 INFN 20062007200820092010 Tot. K€ CPU (kSI2K) (new) 200 (tot) 450 350 880 1782 2532 1420 3832 2709 6261 K€ 1161334462413251261 Dischi (TB) (new) 50 (tot) 80 177 368 836 1212 847 2039 1334 3194 K€ 1132487364664542017 Tot. K€ 22938111827077793278
27
17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 27 2004200520062007200820092010 CPU kSI2k/box 2.43.65.48.112.1518.2327.34 CPU €/kSI2k 1.30.860.580.380.250.170.12 Disk TB/disk 0.20.330.540.9152440 Disk €/GB 5.763.,62.251.40.880.550.34 Profilo Capacità e Costi di CPU e Storage fin al 2010
28
17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 28 Profilo di acquisizione hw Milano e potenza elettrica
29
17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 29 Responsabilità Tier2 Milano Gestionale: L.Perini, deputy=A.Andreazza Operative: L.Perini con supporto S.Resconi Tecniche –Impianti: E. Torri, responsabile Sezione –Architettura Tier2: S.Barberis –Coordinamento personale tecnico: F.Prelz responsabile Servizio Calcolo Sezione, che copre servizi base Sistemisti dedicati –Per installazioni, gestione manutenzioni e sistemi di monitoring: 1 FTE da 4 persone Serv.Cal. –Installazione/aggionamento mw e servizi Grid: 0.5 FTE (da L.Vaccarossa + S. Resconi )
30
17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 30 Supporto operativo –1-manutenzione del software di esperimento Mostly via Grid. Parte locale S.Resconi –2-movimentazione e archiviazione dei dati Via Grid. Archivizione su Tier1 Guido Negri –3-gestione documentazione per gli utenti Parte locale A.Andreazza, S.Resconi –4-servizio di supporto agli utenti Parte locale A.Andreazza, S.Resconi, L.Carminati –5-interfacciamento con personale sistemistico L.Perini, A.Andreazza –6-coordinamento sottomissione job e controllo produzioni Coordinamento L.Perini, Grid+locale insieme: sottomissione jobs a regime 0.2 FTE su 3-4 persone ATLAS, controllo 0.2 su 4-5 persone ATLAS. –7-contatto locale per l'operazione della griglia di produzione L.Vaccarossa, S.Resconi
31
17-Gennaio-2006Milano-Visita referaggio Tier2 L.Perini 31 Milestones –Entro 4/2006 completamento impianto condizionamento –Entro 7/2006 completamento nuovo sistema elettrico sala calcolo –Entro 1/2007 avvio procedure gara per l’acquisizione HW 2007 –Entro 6/2007 installazione dell’HW 2007 –Entro 7/2007 Tier-2 operativo per il Pilot Run –Entro 1/2008 avvio procedure gara per HW 2008 –Entro 6/2008 installazione dell’HW 2008 e piena operatività del Tier-2
Presentazioni simili
© 2024 SlidePlayer.it Inc.
All rights reserved.