Workshop su GRID computing e calcolo avanzato Napoli, 6 maggio 2003

Slides:



Advertisements
Presentazioni simili
Fisica Subnucleare – Esperimento ATLAS
Advertisements

E835 & Hera-B Concezio Pisa, 21/12/2004. E835 (aka Jet-FNAL) timeline dell'esperimento –Presa dati conclusa nel Alcune analisi tuttora in corso.
Run I Distribuzione inclusive di Min Bias (Mult. Carica, Pt). Correlazioni dello stato finale ( -Mult) + mini-jet (soft hard physics). Campioni utilizzati:
protone o neutrone (nucleone)
23/01/01Alberto Masoni – GR1 - Roma1 I MODELLI DI CENTRI REGIONALI POSIZIONE DI ALICE ITALIA CENTRO ITALIANO: CPU 450 KSI95, DISCO 400 TB (INSIEME TIER-1.
September 2000 Paolo Capiluppi CMS Computing 2001 Paolo Capiluppi, Bologna.
L. Perini CSN1 -Roma 23 Gen Centri Regionali per il calcolo di ATLAS in Italia Tier-1 e Tiers-N : funzioni, localizzazione, necessita di h/w, personale.
ALICE-Italia: IL CALCOLO
Progetto Speciale Prototipo Tier1 F. Ruggieri INFN – CNAF I Workshop CMS Italia del SW e Computing Roma 22 Novembre 2001.
P. Capiluppi Organizzazione del Software & Computing CMS Italia I Workshop CMS Italia del Computing & Software Roma Novembre 2001.
Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
Progetto EGEE “Enabling GRID for E-Science in Europe”
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
Proposta di integrazione e consolidamento delle risorse presenti nellinfrastruttura Grid dellItalia Meridionale (L. Merola, )
Aspetti critici rete LAN e WAN per i Tier-2
Silvia Arcelli 1 Metodi di Ricostruzione in fisica Subnucleare Corso di Metodologie Informatiche Per la Fisica Nucleare e Subnucleare A.A. 2009/2010 I.
Stato del Tier2 di Atlas a Napoli Il ruolo dei Tier2 in Atlas La Federazione Italiana dei Tier2 Il Tier2 di Napoli Napoli, 21 Dicembre 2006 – A.Doria.
ATLAS Muon Trigger Slice Francesco Conventi per il gruppo sw ATLAS/Napoli Riunione Gruppo1, Napoli 17/12/2007.
per la fisica delle alte energie
Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
Rivelatori di Particelle1 Lezione 22 Trigger Trigger: Trigger: seleziona gli eventi interessanti fra tutte le collisioni. Decide se levento deve essere.
Rivelatori di Particelle1 Lezione 23 LHCb Introduzione Motivazione fisica: Studiare la fisica del B con particolare riguardo alla violazione di CP ed alla.
Esperimenti di fisica delle alte energie 1 Esperimenti di Fisica delle Alte Energie Periodo didattico : II semestre CFU : 6 Ambito disciplinare : FIS/04.
La fisica delle Particelle... alla scoperta dei costituenti fondamentali della natura Visita delle scuole superiori – Lecce Marzo
La facility nazionale Egrid: stato dell'arte Egrid-Team Trieste, 9 ottobre 2004.
Grid Computing Sergio Andreozzi (INFN-CNAF). A chi interessano i dati prodotti da LHC? Circa 5,000 scienziati –sparsi nel mondo –appartenenti ad istituzioni/università
Grid Computing Sergio Andreozzi. Chi è interessato ad analizzare i dati generati da LHC? Circa 5,000 scienziati –distribuiti nel mondo –appartenenti ad.
Vincenzo Vagnoni per il gruppo di Bologna
Tier1 - cpu KSI2k days ATLAS KSI2k days CMS. Tier1 - storage CASTOR disk space CMS requires: T1D0, T0D1 ATLAS requires: T1D0, T0D1 and T1D1.
Ricostruzione delle tracce di muone nello spettrometro dell’esperimento ATLAS Il lavoro di questo tesi ha come oggetto la ricostruzione delle tracce di.
1 Riunione Testbed - 17 gennaio Agenda - stato del testbed di INFN-GRID (L. Gaido) - le risorse del CNAF (A. Italiano) - report sullo stress test.
25 ottobre 2002infn1 FIRB-Grid WP3,5 Grid deployment.
Il calcolo distribuito in ATLAS
Conclusioni M. Paganoni workshop CMS Italia, Napoli 13-14/2/07.
Linux e la ricerca scientifica Roberto Ferrari Parma LUG Linux Day ottobre 2009.
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
1 M. Biasotto – Legnaro, 22 Dicembre 2005 Prototipo Tier 2 di Legnaro-Padova INFN Legnaro.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
Alessia Tricomi Università & INFN Catania
La “Griglia” informatica Fabrizio Gagliardi CERN EGEE Project Director
* * Data Challenge 04 Stato dei centri di produzione in Italia.
FESR Consorzio COMETA - Progetto PI2S2 Sala Grid e applicazioni scientifiche Dr.ssa Annamaria Muoio & Dr. Andrea Nigro 16/05/2006.
7 ottobre 2002P. Checchia Padova Cons. di sezione1 Resoconto CSN1 Lecce settembre 2003 Cosiderazioni generali Bilancio 2004: 28 M€ (era 38.5 compreso l’anticipo.
M. Biglietti Università degli Studi di Napoli “Federico II”
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
Il primo fascio di protoni partito alle 9.45 di mercoledì 10 settembre 2008 a Ginevra ha compiuto il primo giro completo, quasi alla velocità della luce,
Analysis unibo una proposta. Work flow di una tipica analisi 1.Simulazione di piccoli campioni di eventi per studio segnale 2.Generazione in grande.
16 Maggio CSN1 Computing-Software-Analysis CMS-INFN TEAM Analisi in CMS: stato e prospettive del supporto italiano.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
23 Giugno CSN1 P. Capiluppi CMS Computing 2003 e oltre u Stato e richieste u LCG e CMS u Modello di Calcolo CMS.
Attivita' Grid in BaBar Workshop sulle Problematiche di Calcolo e Reti nell'INFN Maggio 2004.
1 LHCb Computing Angelo Carbone, INFN-CNAF CSN1, 21/9/06 Aggiornamento richieste Tier Richiesta Tier-2 al CNAF Stato e risultati DC06.
Layered Grid Architecture. Application Fabric “Controlling elements locally”: Access to, & control of, resources Connectivity “Talking to Grid elements”:
Dottorato in Fisica XXV Ciclo Padova 19 Aprile 2011 Ezio Torassa Corso avanzato di fisica del Modello Standard e di nuova fisica alla scala elettrodebole.
Calcolo esperimenti LHC 2004 F. Ferroni, P. Lubrano, A. Martin, M. Morandin, M. Sozzi.
CMS 1 M. Biasotto – Bologna 20/01/2005 Infrastruttura di calcolo per CMS-Italia M.Biasotto – INFN Legnaro e i gestori dei centri CMS Italia.
I testbed ed il loro uso 1 I testbed ed il loro uso L. Gaido, A.Ghiselli CSN1, Perugia novembre 2002.
Il gruppo di ricerca del Dipartimento di Scienze Fisiche dell’Università di Napoli “Federico II” partecipa a due esperimenti di fisica delle altissime.
Il CERN Km di circonferenza 90m di profondità Collisioni p+p a 7+7 TeV 2.
2. Il Modello Standard del Microcosmo Ricerca del Bosone di Higgs a LHC Pergola Aprile Il Modello Standard (SM) è descritto nelle 3 diapositive.
Gaetano Maron, Presentazione T2 LNL-Padova, Legnaro 22 dicembre Il Servizio Tecnologie Informatiche ed Elettroniche dei LNL Gaetano Maron.
Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 1 ATLAS Attività di TeV Attività di computing Attività di computing.
Referaggio sigla CALCOLO D. Bonacorsi, G. Carlino, P. Morettini CCR – Roma 9 Settembre 2014.
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
ESPERIMENTO MOLTO COMPLESSO Pierluigi Paolucci - Liceo Mercalli
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
Analisi dei dati dell’Esperimento ALICE
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
Transcript della presentazione:

Il modello di calcolo distribuito per gli esperimenti di Fisica delle Alte Energie Workshop su GRID computing e calcolo avanzato Napoli, 6 maggio 2003 Leonardo Merola Dipartimento di Scienze Fisiche - Università di Napoli “Federico II” Istituto Nazionale di Fisica Nucleare - Sezione di Napoli

La Fisica delle Particelle delle Alte Energie studia i costituenti fondamentali della materia (privi di struttura interna ?), che costituiscono i “mattoni” della Natura e le loro interazioni. (1 m) (10 -10 m) (< 10 -18 m) (10 -15 m) (10 -14 m)

(c = velocità della luce nel vuoto La tecnica più usata è la collisione di particelle ad altissima energia prodotte in acceleratori. L’energia della collisione viene “spesa” per la produzione di centinaia di particelle la cui natura e le cui caratteristiche dinamiche dipendono dal tipo di interazione, dall’energia totale, dalla natura delle particelle collidenti. E = mc2 (c = velocità della luce nel vuoto = 300.000 km/s)

Alte Energie significano anche alte temperature equivalenti e conseguentemente riproduzione in laboratorio di condizioni esistenti nel “lontano passato dell’Universo” 3 secondi 3 minuti 300.000 anni 1 miliardo di anni 15 miliardi di anni Big Bang Energia e protoni e nubi di atomi stelle e l’universo particelle neutroni di idrogeno e di galassie in oggi esotiche elio formazione

O G I Tempo Temperatura 10 32 10 15 10 13 10 9 6000 18 3 gradi Kelvin Adroni Nuclei Atomi -> Molecole Galassie O G I 10 32 10 15 10 13 10 9 6000 18 3 gradi Kelvin 1 Mld Tempo Temperatura

CERN LEP : Large Electron Positron collider (1989-2000) Centro Europeo per la Fisica delle Particelle LEP/ LHC SPS CERN GINEVRA LEP/ LHC SPS CERN GINEVRA 27 km LEP : Large Electron Positron collider (1989-2000) LHC: Large Hadron Collider (2007-2020)

LEP : elettroni positroni (ECM fino a 210 GeV) LHC : protoni protoni (ECM = 14000 GeV) LEP / LHC SPS CERN PS Aeroporto di Ginevra FRANCIA SVIZZERA

Parametri della macchina LHC F = 0.9, v = rev freq., N = Prot/bunch, s= transv beam size

Gli Esperimenti a LHC CMS ATLAS LHCb p-p p-p p-p Pb-Pb

Molteplici SFIDE VASTE COLLABORAZIONI INTERNAZIONALI: Decine di migliaia di fisici, tecnologi, tecnici Centinaia di Istituzioni e Università in decine di Paesi e vari Continenti

APPARATI SPERIMENTALI GIGANTESCHI: Peso: 12500 ton Diametro: 15 m Lunghezza: 21,6 m Campo magnetico: 4 Tesla C M S

FISICA DIFFICILE: Sezioni d’urto di produzione di eventi interessanti (ad es. Ricerca del bosone di HIGGS) molto basse e molto difficili da riconoscere in modo non ambiguo: dN/dt = s L N = N. eventi = Sezione d’urto del processo L = Luminosità della macchina tot = 70 mbarn =>109 interazioni al secondo Higgs 10-2 - 10-1 Hz Top 10 Hz W 2 kHz

calcolatore di un evento di collisione protone - protone Simulazione al calcolatore di un evento di collisione protone - protone (14 TeV) a LHC con produzione e decadimento di un bosone di Higgs: H  ZZ  4 m Simulazione di un evento: 3000 SpecInt95*sec  > 1 min su PIV 1GHz

Rivelatori,Trigger, DAQ, Computing SISTEMI DI RIVELAZIONE, ACQUISIZIONE DATI E SELEZIONE ON-LINE E OFF-LINE SOFISTICATI: Rivelatori,Trigger, DAQ, Computing Frequenza di Bunch-crossing = 40 MHz Frequenza di Interazione ~109 Hz @ L = 1034 cm-2 s-1 1° livello di Trigger 75-100 kHz Combina informazioni dai calorimetri e dallo spettrometro μ. Identificazione del Bunch Crossing ID 2° livello di Trigger ~1kHz Utilizza le ROI formate dal LVL1 Criteri di selezione piu’ stringenti 3° livello di trigger (EF) ~100 Hz Utilizzo software offline

109 eventi/s con incroci dei fasci a 40MHz (bunch-crossing 25 ns) 100 eventi/s su memoria di massa 1 MByte/evento  100MB/s 107 s tempo di raccolta dati/anno GRANDE MOLE DI DATI: ~ 1 PetaByte/anno di dati “RAW”+ ~ 1 PetaByte/anno di dati simulati INGENTI RISORSE DI CALCOLO: ~ 1 MSI95 (PIII 500 MHz ~ 20SI95) ~ 100.000 PC

CMS Situazione analoga per l’esperimento CMS ~ PetaByte/anno di dati “RAW”

COMPLESSITA’ DEI DATI DA TRATTARE: Ricostruzione di vertici di interazione e di decadimento, ricostruzione di tracce, identificazione di particelle, misura delle loro energie e degli impulsi: Ricca gerarchia di centinaia di tipi di dati complessi (classi) Molte relazioni fra essi Differenti tipi di accesso Uso della Tecnologia OO (Object Oriented) per il software di simulazione e ricostruzione di vertici e tracce, per il database degli eventi, per l’analisi dei dati Uso degli strumenti più avanzati SW e calcolo/analisi C++, JAVA, PERL, ROOT, GEANT4, PAW, … Event TrackList Tracker Calorimeter Track HitList Hit

Il problema non è l’hardware che è sempre più potente e costa sempre meno: CPU Nastri Dischi

Il problema è il software (e il middleware): Scientist MIDLEWARE Experiment Computing Storage Analysis Il fisico HEP (High Energy Physics) non deve vedere le differenze degli ambienti di calcolo a cui accede. Il “Middleware”, una via di mezzo tra hardware e software, deve assicurare la compatibilità fra i vari ambienti. CLRC Daresbury

Le “griglie computazionali” << GRID >> World Wide GRID Gli esperimenti di Fisica delle Alte Energie stanno sperimentando una soluzione su scala mondiale per: a) Calcolo intensivo distribuito b) Accesso veloce e flessibile a grandi moli di dati Le “griglie computazionali” << GRID >> World Wide GRID

Costituiremo VIRTUAL ORGANIZATIONS (VO) per la collaborazione e la condivisione delle risorse: Esperimenti: ATLAS, CMS, ALICE, LHCb, BABAR, CDF, …

Utilizzeremo i SERVIZI DI GRID Application Distributed Computing synchronous processing High-Throughput Computing asynchronous processing On-Demand Computing dynamic resources Data-Intensive Computing databases Collaborative Computing scientists User Application Internet Protocol Architecture Collective; es. RM Resource; es.CE,SE Connectivity;es IP Transport Internet Fabric; es. LSF.. Link

Su RETI VELOCI

Modello di calcolo distribuito per gli esperimenti a LHC Gerarchia “funzionale” a più livelli (Tier-x) Data Server CPU Server desktop CERN Tier 0 Tier 2 (Centri Nazionali e Regionali) Tier 3-4 (Dip. e Istituti) Tier 1 (Centri Nazionali

Struttura a Tiers di ATLAS Italy-INFN CNAF-BO US MI RM1 NA PV GE …

Tipo di dati da produrre e conservare: RAW DATA: 2 MB/evento, 100 Hz (Data acquisition, Reprocessing, Event Reconstruction) MC RAW DATA: 2 MB/evento, 3000 SI95*s ESD, Event Summary Data, output della ricostruzione: 500 KB/evento, 640 SI95*s (Reprocessing, Event Reconstruction, MC simulation) AOD, Analysis Object Data, formato "pubblico" di analisi: 10 KB/evento, 25 SI95*s (MC simulation, Physics Analysis) DPD, Derived Physics Data, formato “privato” di analisi, tipo n-pla: 1 KB/evento, 5 SI95*s (Physics Analysis) CERN Tier 0/1 Tier 1 Regional Centers Y Z X Lab a Uni n Tier2 Regional/National Centers Lab b Uni c Tier3/4 Departments    Desktop PHYSICS ANALYSIS

Risorse HW ATLAS a regime (2007) CPU (MSI95) Tape (PB) Disk (PB) CERN (T0+T1) @ 1/3 del totale 0,5 10 0,8 Each RC T1+T2 (6 RC in totale) S T1+T2 @ 1/3 del totale 0,2 2 0,4 Each T3 S T3+T4 @ 1/3 del totale 0,010 x 0,05 Total > 2 > 20 24 MCHF 8 MCHF/RC 1 T2: @ 10% RC 2003/4: @ 10% delle risorse a regime @ 50 CPU + 4 TB

Data Challenges DC0 – 2001/2002 DC1 - 2002/2003 DC2 - 2003/2004 Motivated by need to test scaling of solutions: Hardware, Middleware and Experiment Software) DC0 – 2001/2002 Tests of the ATLAS software DC1 - 2002/2003 Pile-Up Production (High and Low Luminosity) Large scale Grid test for reconstruction Reconstruction start March 2003 ~ 10**7 fully simulated events DC2 - 2003/2004 Geant4 replacing Geant3 Pile-up in Athena Use LCG common software Use widely GRID middleware Perform large scale physics analysis As for DC1: ~ 10**7 fully simulated events DC3 - 2004/2005 scale: 5 x DC2 DC4 - 2005/2006 scale: 2 x DC3

D US CERN J F I grid tools used at 11 sites CPUs Italia: 46 RM1 40 CNAF 16 NA 10 LNF J F I

La farm di ATLAS-Napoli 7 nodi diskless con 2 CPU PIII a 1 GHz, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GHz, 1 GB RAM, 2 schede di rete a 100 Mb/s, 1 scheda di rete a 1 GB/s 2 TB storage ATLAS SW e primi tools di GRID 1 Gb/s 100 Mb/s CPU Server Disk E’ in corso l’evoluzione dal ruolo di Tier-3 a quello di Tier-2, con l’estensione delle risorse della farm: 25 biprocessori e 4 TB disco.

Obiettivi GRID a breve termine della Farm di ATLAS Napoli Prendere parte ai test di ricostruzione con il Middleware EDG che già coinvolgono RAL, Lione, CNAF (e in seguito Milano, Cambridge e Roma). Registrare le risorse nella Virtual Organization di ATLAS e configurare diverse macchine della Farm come elementi della griglia mediante l'installazione del middleware di EDG. Istallare un Computing Element (che gestisce localmente l’allocazione del lavoro), uno Storage Element (che gestisce lo storage) e diversi Worker Nodes (che girano i job). Pubblicare le informazioni relative alle risorse dela Farm sulla GRID in modo che mediante un Resource Broker i job vengano assegnati alla Farm.

Il Modello di CMS Il Modello di calcolo di CMS Italia è un modello integrato di Funzionalità dei Tier1, Tier2 e Tier3. Tier2 di riferimento a Legnaro Schema di “calcolo” distribuito sulle Sedi. Alcune funzioni e specificita’ (chiamate in gergo “services”) sono tipiche di una gerarchia Modello di Tier0, Tier1, Tier2, Tier3 … Altre sono tipiche di una distribuzione paritaria Modello distribuito alla “GRID”

Ruolo del Tier1 (comune per l’INFN) ~40% del commitment italiano Assorbimento dei picchi di CPU (shared con gli altri Esperimenti) Mass Storage e accentramento dei dati di simulazione e analisi Riferimento core software (supporto) Ruolo dei Tier2 (incluso il Tier2 di riferimento) CPU e storage (solo dischi e/o archive) per l’analisi (distribuita) Dimensionamento delle attivita’ in funzione delle competenze ed interessi locali (dal farming alla analisi) Ruolo dei Tier3 ~20% del commitment italiano Punto di forza in item specifici sia di analisi che di software e/o supporto e/o middleware

Software in comune con gli altri esperimenti LHC Prodotti software che non hanno a che fare con “Dati e Calcolo distribuiti” (Grid independent): es. Generatori di Fisica, (Detector Description DataBase), … Prodotti software (middleware) che gestiscono la distribuzione dei dati e del calcolo (Grid dependent): es. Brokering dei job, Data replication, Information System, Monitoring, … Prodotti software che sono influenzati dalla caratteristica distribuita del Calcolo (Grid-aware): es. Persistenza, meta-data structure, Bookkeeping… Prodotti che NON “possono” essere comuni: programmi di ricostruzione dei vari detector, tools di gestione specifici dell’architettura del Computing Model, …

Logical components diagram Software Release Manager Repository Experiment Software Software release SW download & installation Dataset Input Specification Dataset Algorithm Specification Copy data Data Management System Dataset Catalogue Storage Service Data Dataset Definition New dataset request Data management operations Retrieve Resource status Read data Write data Resource Monitoring System Resource Directory Production on demand Publish Resource status Update dataset metadata Input data location Data Materializer Production monitoring Job creation The grid is composed by Computing Services, that provide CPU power and Storage services, that provide disk or tape to store data. The user machine is not shown and is ideally locate on the left. In general the kind of operations that are needed on the data are read/write from/to the storage starting from the computing nodes and data movement (copy). All the operations are not done directly on the Computing and Storage Services, but through interfaces that provide the security infrastructure: the Workload Management System and the Data Management System. The former has a database that keep information about the tasks it was requested to perform (jobs), the latter has a catalogue of datasets (collection of files) that it controls. The Resource Monitoring System keeps a directory of all the available resources so that the DMS and DMS can optimize their operations. The WMS can also get info from the DMS about datasets to optimize its choices. The Software Release Manager controls the access to the Experiment software, so that it can me installed on the computing nodes. At this point a job can be submitted to the WMS. A component that is important for CMS is the Job Monitoring System, where the running jobs can write information about the task they’re performing. This provides the necessary book-keeping of the production system. The specific monitoring operations are defined by the user. When a new dataset is requested (by a user or a physics group) its definition is stored in the DMS catalogue (The catalogue is indexed by the dataset name). The definition includes at least the following information: The executable to be used for the production of that dataset, which is a reference to the Software Release Manager The list of parameters to be used to correctly configure the executable The list of input datasets (if any), which are referencies to other entries of the DMS catalogue The output dataset name is the parameter by which the catalogue is indexed When a dataset which has been requested (but not produced yet) is accessed, The DMS invokes a “Data Materializer” i.e. a component that can builds the jobs that produce the requested data. The Data Materializer can also interrogate the Job Monitoring System to get information about the status of the production and update the DMS. Workload Management System Job Catalogue Job Definition Job assignment to resources Computing Service Job submission Job output filtering Job Monitoring System Job Book-keeping Job Monitoring Definition Push data or info Pull info Job type definition By Claudio Grandi

Layout farm LNL 2002: production + analysis + grid = grid enabled element N1 N24 Production computing nodes N1 N24 N1 N24 N1 N24 Analysis computing nodes FastEth FastEth FastEth SWITCH SWITCH SWITCH To WAN 34 Mbps 2001 ~ 1Gbps 2002 32 – GigaEth 1000 BT CE GW S1 S9 S10 S11 SE S10 S11 S12 G1 UI G2 Analysis servers Production servers Production control Remote login Analysis Grid enabled Analysis

Il progetto LCG (LHC Computing Grid) The Goal of the LHC Grid To help the experiments’ computing projects prepare, build and operate the computing environment needed to manage and analyze the data coming from the detectors LCG

2003 – Establish the LHC grid as a reliable, manageable, permanently available service including the Tier 1 and many Tier 2 centres Serve as one of the computing facilities used for simulation campaigns during 2H03 2004 – Stable service for batch analysis Scaling and performance tests, commissioning of operations infrastructure Computing model tests – 4 collaborations Tier 0 – Tier 1 – Tier 2 – Tier 3  Computing TDRs at end 2004 2005 – Full prototype of initial LHC service – second generation middleware - validation of computing models (4 collaborations) - validation of physical implementation – technology, performance, scaling LCG TDR – sizing/cost/schedule for the initial LHC service – July 2005 2006–2008 acquire, build and operate the LHC computing service LCG-1 LCG-3

La GRID dei TIER per LHC

Le Capacità Richieste per LHC CERN (Somma di tutti gli esperimenti): Mass Storage: 10 Peta Bytes (1015 B)/anno disk: 2 PB (100.000 Dischi da 20GB) CPU: 20 MSPECint2000 (40.000 Pentium@1GHz) Per ogni Tier 1 Multi-esperimento : Mass Storage: 1 - 3 PB/anno disk: 1.5 PB CPU: 10 MSPECint2000 Networking Tier 0 (CERN) --> Tier 1: 2 Gbps (>4.000 connessioni ADSL)

Il Tier 1 dell’INFN CNAF Programma delle Installazioni NB: I numeri quotati sono aggiuntivi per anno

Esperimento BaBar a SLAC (California, USA)

Struttura a Tiers di BABAR Tier 0: SLAC Stanford CA, USA TierA/B : Lione IN2P3, RAL, INFN-PD, INFN-CNAF Tier C: NA, …. Role of Tier A sites: reduce significantly computing burden at SLAC Primarily analysis: IN2P3, RAL Production: INFN-Padova Issues: data replication at Tier A’s data partitioning at Tier A’s (micro, mini, beam data, MC) transparent access to data across Tier A’s (BabarGrid) specialization of Tier A’s: skimming, (re-)processing, etc. Role of Tier C sites: smaller sites at remote institutes main contribution so far in MC production (majority of MC events produced away from SLAC) analysis at Tier C’s has been difficult due to problems with data distribution  need to resolve with new Computing Model

Il processo di analisi Identificazione dei campioni di dati da analizzare con strumenti di bookkeeping Omogenei per dati e Monte Carlo Sottomissione (e monitaggio) job di l’analisi Analisi combinatoria (D, D*, B-reco, …) Calcolo delle quantità fisiche Scrittura nuovo micro-DST ridotto contenente le informazioni per l’analisi Working Group Produzione centralizzata per tutta la collaborazione (ogni 3 mesi) Riduzione dei micro-DST per le analisi specifiche Produzione dei risultati con accesso interattivo ai micro-DST (ROOT, …) Oppure produzione di ntuple ridotte e istogrammi nel formato finale per l’analisi Preparazione dei documenti di analisi

CONCLUSIONI Stiamo costruendo un prototipo di sistema di calcolo distribuito basato su GRID. Dobbiamo essere pronti per lo startup di LHC: 2007 Numerosi sono i progetti su GRID nazionali (es. INFN-GRID, FIRB GRID.IT) ed europei (es. DataTAG, LCG, EGEE) in cui noi fisici delle Alte Energie siamo coinvolti. Auspichiamo una collaborazione stretta anche con altri settori scientifici per la realizzazione di una infrastruttura comune di GRID anche a livello locale.