September 2000 Paolo Capiluppi CMS Computing 2001 Paolo Capiluppi, Bologna.

Slides:



Advertisements
Presentazioni simili
Il check-up dell’innovazione
Advertisements

E835 & Hera-B Concezio Pisa, 21/12/2004. E835 (aka Jet-FNAL) timeline dell'esperimento –Presa dati conclusa nel Alcune analisi tuttora in corso.
Lezioni di Astronomia 3- Le stelle Bologna 8 aprile 2010
Run I Distribuzione inclusive di Min Bias (Mult. Carica, Pt). Correlazioni dello stato finale ( -Mult) + mini-jet (soft hard physics). Campioni utilizzati:
23/01/01Alberto Masoni – GR1 - Roma1 I MODELLI DI CENTRI REGIONALI POSIZIONE DI ALICE ITALIA CENTRO ITALIANO: CPU 450 KSI95, DISCO 400 TB (INSIEME TIER-1.
L. Perini CSN1 -Roma 23 Gen Centri Regionali per il calcolo di ATLAS in Italia Tier-1 e Tiers-N : funzioni, localizzazione, necessita di h/w, personale.
Computing: Attività 2010 Reprocessing e ri-simulazione dati Run7 Extra-production di dati MC alla Y(4S) 10 x cross section bb e cc, 2 x cross section u.
Computing: Attività 2009 Reprocessing e ri-simulazione dati Run7 Extra-production di dati MC alla Y(4S) 10 x cross section bb e cc, 2 x cross section u.
ALICE-Italia: IL CALCOLO
P.Capiluppi I Workshop CMS Italia del Computing & Software Roma Novembre 2001 Scopo del Workshop u Fare il punto sulle attivita italiane.
I Workshop CMS Italia Software & Computing 23 Nov 2001 Alessandra Fanfani Università di Bologna 1 Risultati di HLT in topologie con muoni Outline Introduzione.
Tracker Italian Software Board Bari Catania Firenze Padova Perugia Pisa Torino G. Bagliesi Roma 22/11/01 Mandato Organizzazione Attivita principali Risultati.
P.Capiluppi I Workshop CMS Italia del Computing & Software Roma Novembre 2001 Qualche conclusione e pianificazione per il prossimo futuro.
P. Capiluppi Organizzazione del Software & Computing CMS Italia I Workshop CMS Italia del Computing & Software Roma Novembre 2001.
Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
Aspetti critici rete LAN e WAN per i Tier-2
Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
WP12 Gruppi impegnati Univ. Padova, A. Apostolico,
La facility nazionale Egrid: stato dell'arte Egrid-Team Trieste, 9 ottobre 2004.
SP-Grid - setup Implementazione dei servizi per la produzione al CNAF: –Integrazione tra i tool di produzione standard di BaBar (ProdTools) e gli strumenti.
Grid Computing Sergio Andreozzi (INFN-CNAF). A chi interessano i dati prodotti da LHC? Circa 5,000 scienziati –sparsi nel mondo –appartenenti ad istituzioni/università
Grid Computing Sergio Andreozzi. Chi è interessato ad analizzare i dati generati da LHC? Circa 5,000 scienziati –distribuiti nel mondo –appartenenti ad.
Claudio Grandi INFN-Bologna Lambiente per la simulazione e lanalisi in CMS Claudio Grandi INFN-Bologna.
Coinvolgimento attuale italiano nelle analisi di CMS Bologna 25 Novembre 2006 Roberto Tenchini.
W( μ n )H( bb) Riccardo Ranieri INFN e Università di Firenze TISB Firenze Gennaio
H b b Firenze 15/01/2003 Daniele Benedetti Canale dominato dal Fondo !! Utile per capire ricostruzione masse invarianti Applicazione di Energy Flow Confronto.
H ZZ (*) e + e D. Giordano CMS TISB. TISB, Firenze 15-16/01/03D. Giordano2 Il bosone di Higgs ad LHC gluon fusion ---dominante ZZ e WW fusion bremsstrahlung.
Istituto Nazionale di Fisica Nucleare Roma,12 febbraio 2001 Netgroup meeting Situazione attuale e attivita futura - R.Gomezel 1 Netgroup meeting Situazione.
1 Riunione Testbed - 17 gennaio Agenda - stato del testbed di INFN-GRID (L. Gaido) - le risorse del CNAF (A. Italiano) - report sullo stress test.
P.CapiluppiMilano 6 Marzo 2000 Paolo Capiluppi Dipartimento di Fisica e INFN - Bologna Preliminary CMS GRID-INFN.
LNL M.Biasotto, Bologna, 13 dicembre La farm di Legnaro Massimo Biasotto – INFN LNL.
LNL M.Biasotto, Bologna, 13 dicembre Installazione automatica Massimo Biasotto – INFN LNL.
INFN-GRID WP1 20 novembre 2000 Sperimentazione GridFTP Luciano Gaido 1 Progetto INFN-GRID Sperimentazione GridFTP Riunione WP1 (GLOBUS) Cnaf, 20 novembre.
Execution benchmarks Obiettivi Test dettagliati e ben caratterizzati Esecuzione di benchmark standard Test di applicazioni dell'esperimento ALICE 20 Novembre.
Linux e la ricerca scientifica Roberto Ferrari Parma LUG Linux Day ottobre 2009.
LNL M.Biasotto, Bologna, 18 ottobre La farm CMS di Padova - Legnaro Proposta di acquisto hardware 2° semestre 2001.
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
1 M. Biasotto – Legnaro, 22 Dicembre 2005 Prototipo Tier 2 di Legnaro-Padova INFN Legnaro.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
Pisa - 23 Gennaio WP4: Dissemination Proposta per un piano di azione Mauro Draoli
Alessia Tricomi Università & INFN Catania
La “Griglia” informatica Fabrizio Gagliardi CERN EGEE Project Director
Stato del computing Andrea Sciabà Riunione del consorzio INFN Firenze, 7 settembre 2001 Farm italiane Produzione Monte Carlo b/ Progetti di GRID.
* * Data Challenge 04 Stato dei centri di produzione in Italia.
Sommario: il testbed CMS/LCG0 e la configurazione della farm di Bari sviluppo software/tool di produzione per CMS e GRID. eventi in produzione per il.
Pippo.
7 ottobre 2002P. Checchia Padova Cons. di sezione1 Resoconto CSN1 Lecce settembre 2003 Cosiderazioni generali Bilancio 2004: 28 M€ (era 38.5 compreso l’anticipo.
LNL GM, CNAF, 18 ottobre INFN-Farm Management Toolkit 1.Fabric Management per DataGrid e INFNGrid 2.Definizione dei requisiti degli esperimenti.
Simone Gennai INFN Sez. di Pisa I.F.A.E Strategie di trigger per eventi SUSY a LHC.
3 Aprile CSN1 P. Capiluppi Tier2 CMS Italia.
16 Maggio CSN1 Computing-Software-Analysis CMS-INFN TEAM Analisi in CMS: stato e prospettive del supporto italiano.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
23 Giugno CSN1 P. Capiluppi CMS Computing 2003 e oltre u Stato e richieste u LCG e CMS u Modello di Calcolo CMS.
Attivita' Grid in BaBar Workshop sulle Problematiche di Calcolo e Reti nell'INFN Maggio 2004.
Installation and evaluation of the Globus toolkit Massimo Sgaravatto INFN Padova.
Calcolo esperimenti LHC 2004 F. Ferroni, P. Lubrano, A. Martin, M. Morandin, M. Sozzi.
Cosa cambia per CDF  S.Belforte mantiene per ora 20% (1 day/week) su CDF: il necessario per una attivita’ di coordinamento e transizione verso un nuovo.
1 Calcolo e software G. Bagliesi 23/3/01 Riassunto riunione calcolo Bologna 19/3/01 B/tau : futuri miniworkshop.
Halina Bilokon ATLAS Software di fisica DC1 – DC2 DC1 aprile fine 2003 (versioni di software  3.x.x – 7.x.x)  Validation del Software  Aggiornamento.
CMS 1 M. Biasotto – Bologna 20/01/2005 Infrastruttura di calcolo per CMS-Italia M.Biasotto – INFN Legnaro e i gestori dei centri CMS Italia.
24 Sett. 04Totem -Relazione dei referee1 CSN1 - Assisi 24/09/2004 TOTEM Relazione e proposte finanziarie Referee: G: Chiefari, M. Curatolo, M. de Palma.
Gaetano Maron, Presentazione T2 LNL-Padova, Legnaro 22 dicembre Il Servizio Tecnologie Informatiche ed Elettroniche dei LNL Gaetano Maron.
D. Martello Dip. Fisica - Lecce Sintesi piani esperimenti CSN2 CNAF 7-marzo-2007.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
1 ALICE I ITER2 DI ALICE IN ITALIA Bologna, 6 marzo 2007 M. Masera
10 Ottobre CSN1 P. Capiluppi Tier2 CMS Italia 3Bari  In comune con Alice 3Legnaro  In comune con Alice 3Pisa 3Roma1  In comune con Atlas Sedi.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Alberto Masoni EU-IndiaGrid Project Manager INFN Sezione di Cagliari
Transcript della presentazione:

September 2000 Paolo Capiluppi CMS Computing 2001 Paolo Capiluppi, Bologna

2 Paolo Capiluppi September 2000 Strategia per il Calcolo u Contribuire in modo sostanziale (e proporzionato allimpegno INFN in CMS, ~20%) alla definizione degli algoritmi di Trigger di Alto livello (2/3), alla definizione del TDR del DAQ (2001), alla definizione del TDR del Computing (2002) e alla definizione del TDR della Fisica (2003). u Contribure in modo sostanziale allo studio (R&D), disegno ed implementazione del Computing di CMS Partecipazione ed uso dei tools di GRID Implementazione e misura delle risorse distribuite, con coordinamento italiano ed internazionale (Data Challenges inclusi) Preparazione delle risorse e strumenti che permetteranno lanalisi dei dati e la fisica ad LHC u CMS ha un chiaro commitment sulle Tecnologie di GRID, il modo migliore di risolvere la complessita del Calcolo ad LHC.

3 Paolo Capiluppi September 2000 Come perseguire la strategia per il Calcolo? Preparare CMS Italia alle milestone precedenti, ovvero u Produrre ed analizzare gli eventi per gli studi di HLT e gli studi di Fisica u Prototipizzare la distribuzione delle risorse ed il relativo coordinamento (tecnico e di persone), ovvero gerarchia alla Monarc (Tier-n) e GRID tools (distributed data access and distributed computing) u Utilizzare il personale (Tecnici e Ricercatori) di ogni sede di CMS nelle attivita che porteranno allanalisi dei dati (coinvolgimento personale di interessi e di responsabilta)

4 Paolo Capiluppi September 2000 Stato e prospettive u Nella Primavera 2000 in Italia sono stati generati piu di 300k eventi (segnale e fondo) Bari, Bologna, Padova, Pisa, Roma1 Gia dallAutunno 2000 nelle stessi Sedi verranno Orchizzati gli eventi (nuovi) generati, con lo schema completo, inclusa lanalisi (user DataBase) u Le Sedi coinvolte cercano di utilizzare le competenze che si stanno sviluppano/consolidando nel personale coinvolto (DataBase management, Farm management, Production tools, Physics channels,...)

5 Paolo Capiluppi September 2000

6 Paolo Capiluppi September 2000 Production 2000 Signal Zebra files with HITS ORCA Digitization (merge signal and MB) Objectivity Database HEPEVT ntuples CMSIM HLT Algorithms New Reconstructed Objects MC Prod. ORCA Prod. HLT Grp Databases ORCA ooHit Formatter Objectivity Database MB Objectivity Database Catalog import Objectivity Database Objectivity Database ytivitcejbOesabataD Mirrored Dbs (US, Russia, Italy..)

7 Paolo Capiluppi September 2000

8 Paolo Capiluppi September 2000 MuonsMuons

9 Paolo Capiluppi September 2000

10 Paolo Capiluppi September 2000

11 Paolo Capiluppi September 2000 Tracker b/tau

12 Paolo Capiluppi September 2000E/gamma

13 Paolo Capiluppi September 2000Jet/Met

14 Paolo Capiluppi September 2000

15 Paolo Capiluppi September 2000 Ruolo dei Prototipi di Tier 2001 u Come detto il ruolo e duplice: produzione ed analisi Bottom-up: risorse necessarie alla produzione ed analisi delle simulazioni Top-down: prototipizzazione e quindi studio delle architetture e tools di Tier-n integrati nella Griglia italiana ed internazionale u Il coordinamento tra i Centri e assicurato dal comune interesse per lo sviluppo dei tools, per la fisica associata allesperimento e dal coordinamento di attivita; questo coordinamento ha gia prodotto: Istruzioni per le installazioni uguali nelle sedi CMS Sviluppo di tools (prototipi di Grid) per garantire la complementarita degli sforzi Definizione dei responsabili e dei contatti (anche problem solving, vedi anche sopra) u Inoltre CMS Italia ha gia prodotto (primavera 2000) e produrra (autunno 2000) simulazioni coordinate in molte sedi (es. Produzione di eventi anche nelle sedi non direttamente coinvolte nellanalisi di quegli eventi)

16 Paolo Capiluppi September 2000

17 Paolo Capiluppi September 2000 Produzioni e GRID u Gia la produzione in Autunno 2000 usera alcuni tool di base di Grid in CMS: GDMP (Grid Data Management Pilot). u CMS (Italia) ha gia una serie di pagine e tools per linstallazione coordinata in ogni sito del software. Linstallazione comprende anche Globus e presto GDMP. u Non ce problema per imporre i tools di Grid in CMS, li stiamo sviluppando insieme agli altri e li useremo appena pronti (come stiamo gia facendo).

18 Paolo Capiluppi September 2000 Core Grid CMS contributions u Dal Progetto INFN-Grid e dal Proposal EU DataGrid e chiaro che CMS in generale e CMS Italia sono coinvolte in modo determinante: Core Grid e inteso come WPs da 1 a 5 di DATAGRID Test Bed WP e HEP Application WP comprendono le attivita di simulazione/produzione e valutazione del Modello a Tier-n alla GRID. FTEBaBoCtFiPdPgPiRm1To Core1.20.5(1.6) Test Bed & App

19 Paolo Capiluppi September 2000 Risorse richieste e strategia u Un esempio di produzione (2000) Ottimistica!: CMSIM: 120 sec x 30 SI95 / event = 3600 SI95xsec per event ORCA: 180 sec x 30 SI95 / event = 5400 SI95xsec per event Track reconstruction: 100 sec x 30 SI95 / event = 3000 SI95xsec per event Autumn 2000 production is about 1800 CPU (30 SI95 each)weeks About 200 CPU at CERN and at least 100 CPU outside will take about 6 weeks production time (better estimate is of the order of 500 CPU total) And Analysis!? u Un esempio di produzione (2001), sempre ottimistica!: Sara richiesto un altro magical factor of 10 per gli HLT Track finding, vertexing, signals : all critical and different Luminosities study Un fattore due nella necessita di risorse e veramente minimale = circa 1000 CPU (CERN and outside)

20 Paolo Capiluppi September 2000 Breakdown costs for 2001 Common Fund Computing 2001: 70kCHF = 87 Mlit CORE (Bologna) + Pavia: 1PC and backup unit= 10 Mlit

21 Paolo Capiluppi September 2000 Breakdown costs for 2001 reduction Breakdown costs for 2001 reduction Common Fund Computing 2001: 70kCHF = 87 Mlit CORE (Bologna) + Pavia: 1PC and backup unit= 10 Mlit

22 Paolo Capiluppi September 2000 Summary: CMS Computing 2001 Site (Mlire) InventarioConsumoTotale Bari163 Bologna (core)250 Catania54862 Firenze54559 Legnaro Padova Pavia10 Perugia54559 Pisa Roma Torino54559 Totale

23 Paolo Capiluppi September 2000 Richieste aggiuntive 2000 u Pd: 30 MLit. Spazio disco (al CERN) per circa 500 Gbyte; ricezione coordinata delle produzioni HLT in Italia u Ba: 15 MLit. 4 PC GB disco produzione HLT u Fi: 6 MLit. 1 PC server, front-end con la Farm di Sezione u Pg: 12 MLit. 4 PC produzione HLT u Rm1: 6 MLit. 100 GB disco produzione HLT u Ct: 5 MLit. 1 PC per sviluppo software