La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Il modello di calcolo distribuito per gli esperimenti di Fisica delle Alte Energie Leonardo Merola Dipartimento di Scienze Fisiche - Università di Napoli.

Presentazioni simili


Presentazione sul tema: "Il modello di calcolo distribuito per gli esperimenti di Fisica delle Alte Energie Leonardo Merola Dipartimento di Scienze Fisiche - Università di Napoli."— Transcript della presentazione:

1 Il modello di calcolo distribuito per gli esperimenti di Fisica delle Alte Energie Leonardo Merola Dipartimento di Scienze Fisiche - Università di Napoli Federico II Istituto Nazionale di Fisica Nucleare - Sezione di Napoli Workshop su GRID computing e calcolo avanzato Napoli, 6 maggio 2003 Workshop su GRID computing e calcolo avanzato Napoli, 6 maggio 2003

2 (1 m)( m)(< m)( m) ( m)( m) (< m) La Fisica delle Particelle delle Alte Energie studia i costituenti fondamentali della materia (privi di struttura interna ?), che costituiscono i mattoni della Natura e le loro interazioni.

3 E = mc 2 (c = velocità della luce nel vuoto = km/s) La tecnica più usata è la collisione di particelle ad altissima energia prodotte in acceleratori. Lenergia della collisione viene spesa per la produzione di centinaia di particelle la cui natura e le cui caratteristiche dinamiche dipendono dal tipo di interazione, dallenergia totale, dalla natura delle particelle collidenti.

4 3 secondi 3 minuti anni 1 miliardo di anni 15 miliardi di anni Energia e protoni e nubi di atomi stelle e luniverso particelle neutroni di idrogeno e di galassie in oggi esotiche elio formazione Alte Energie significano anche alte temperature equivalenti e conseguentemente riproduzione in laboratorio di condizioni esistenti nel lontano passato dellUniverso

5 Adroni Nuclei Atomi -> Molecole Galassie O G I gradi Kelvin 1 Mld

6 LEP/ LHC SPS CERN GINEVRA LEP/ LHC SPS CERN GINEVRA LEP : Large Electron Positron collider ( ) LHC: Large Hadron Collider ( ) 27 km Centro Europeo per la Fisica delle Particelle

7 LEP / LHC SPS CERN PS Aeroporto di Ginevra FRANCIA SVIZZERA LEP : elettroni positroni (E CM fino a 210 GeV) LHC : protoni protoni (E CM = GeV)

8

9 Parametri della macchina LHC F = 0.9, v = rev freq., N = Prot/bunch, = transv beam size

10 CMS ATLAS LHCb Gli Esperimenti a LHC Pb-Pb p-p

11 Molteplici SFIDE VASTE COLLABORAZIONI INTERNAZIONALI: Decine di migliaia di fisici, tecnologi, tecnici Centinaia di Istituzioni e Università in decine di Paesi e vari Continenti

12 C M S APPARATI SPERIMENTALI GIGANTESCHI: Peso: ton Diametro: 15 m Lunghezza: 21,6 m Campo magnetico: 4 Tesla

13 tot = 70 mbarn =>10 9 interazioni al secondo tot = 70 mbarn =>10 9 interazioni al secondo Higgs Hz Top 10 Hz W 2 kHz Higgs Hz Top 10 Hz W 2 kHz FISICA DIFFICILE: Sezioni durto di produzione di eventi interessanti (ad es. Ricerca del bosone di HIGGS) molto basse e molto difficili da riconoscere in modo non ambiguo: dN/dt = L N = N. eventi = Sezione durto del processo L = Luminosità della macchina

14 Simulazione al calcolatore di un evento di collisione protone - protone (14 TeV) a LHC con produzione e bosone di Higgs decadimento di un bosone di Higgs: H ZZ 4 Simulazione di un evento: 3000 SpecInt95*sec > 1 min su PIV 1GHz

15 1° livello di Trigger kHz Combina informazioni dai calorimetri e dallo spettrometro μ. Identificazione del Bunch Crossing ID 2° livello di Trigger ~1kHz Utilizza le ROI formate dal LVL1 Criteri di selezione piu stringenti 2° livello di Trigger ~1kHz Utilizza le ROI formate dal LVL1 Criteri di selezione piu stringenti 3° livello di trigger (EF) ~100 Hz Utilizzo software offline 3° livello di trigger (EF) ~100 Hz Utilizzo software offline SISTEMI DI RIVELAZIONE, ACQUISIZIONE DATI E SELEZIONE ON-LINE E OFF-LINE SOFISTICATI: Rivelatori,Trigger, DAQ, Computing Frequenza di Bunch-crossing = 40 MHz Frequenza di Interazione ~10 9 L = cm -2 s -1

16 10 9 eventi/s con incroci dei fasci a 40MHz (bunch-crossing 25 ns) 100 eventi/s su memoria di massa 1 MByte/evento 100MB/s 10 7 s tempo di raccolta dati/anno GRANDE MOLE DI DATI: ~ 1 PetaByte/anno di dati RAW+ ~ 1 PetaByte/anno di dati simulati INGENTI RISORSE DI CALCOLO: INGENTI RISORSE DI CALCOLO: ~ 1 MSI95 (PIII 500 MHz ~ 20SI95) ~ PC

17 CMS Situazione analoga per lesperimento CMS ~ PetaByte/anno di dati RAW

18 –Ricca gerarchia di centinaia di tipi di dati complessi (classi) –Molte relazioni fra essi –Differenti tipi di accesso Uso della Tecnologia OO (Object Oriented) –per il software di simulazione e ricostruzione di vertici e tracce, –per il database degli eventi, –per lanalisi dei dati Uso degli strumenti più avanzati SW e calcolo/analisi C++, JAVA, PERL, ROOT, GEANT4, PAW, … Event TrackList TrackerCalorimeter Track Track Track Track Track HitList Hit Hit Hit Hit Hit COMPLESSITA DEI DATI DA TRATTARE: Ricostruzione di vertici di interazione e di decadimento, ricostruzione di tracce, identificazione di particelle, misura delle loro energie e degli impulsi:

19

20 Il problema non è lhardware che è sempre più potente e costa sempre meno: CPU Nastri Dischi

21 CLRC Daresbury Il fisico HEP (High Energy Physics) non deve vedere le differenze degli ambienti di calcolo a cui accede. Il Middleware, una via di mezzo tra hardware e software, deve assicurare la compatibilità fra i vari ambienti. Scientist MIDLEWAREMIDLEWARE Experiment Computing Storage Analysis Il problema è il software (e il middleware):

22 Gli esperimenti di Fisica delle Alte Energie stanno sperimentando una soluzione su scala mondiale per: a) Calcolo intensivo distribuito b) Accesso veloce e flessibile a grandi moli di dati Gli esperimenti di Fisica delle Alte Energie stanno sperimentando una soluzione su scala mondiale per: a) Calcolo intensivo distribuito b) Accesso veloce e flessibile a grandi moli di dati Le griglie computazionali > World Wide GRID

23 VO Costituiremo VIRTUAL ORGANIZATIONS ( VO ) per la collaborazione e la condivisione delle risorse : Esperimenti: ATLAS, CMS, ALICE, LHCb, BABAR, CDF, …

24 Application Fabric; es. LSF.. Connectivity;es IP Resource; es.CE,SE Collective; es. RM User Internet Transport Application Link Internet Protocol Architecture Distributed Computing – synchronous processing High-Throughput Computing – asynchronous processing On-Demand Computing – dynamic resources Data-Intensive Computing – databases Collaborative Computing – scientists Utilizzeremo i SERVIZI DI GRID

25 Su RETI VELOCI

26

27 Modello di calcolo distribuito per gli esperimenti a LHC Gerarchia funzionale a più livelli (Tier-x) Data Server CPU Server desktop CPU Server desktop CERN Tier 0 CPU Server Tier 2 (Centri Nazionali e Regionali) Tier 3-4 (Dip. e Istituti) Tier 1 (Centri Nazionali e Regionali)

28 Struttura a Tiers di ATLAS Italy-INFN CNAF-BO US MI RM1NA PV GE …

29 Tier3/4 Departments Desktop CERN Tier 0/1 Tier 1 Regional Centers X Y Z Tier2 Regional/National Centers Lab a Lab b Uni c Uni n PHYSICS ANALYSIS Tipo di dati da produrre e conservare: RAW DATA: 2 MB/evento, 100 Hz (Data acquisition, Reprocessing, Event Reconstruction) MC RAW DATA: 2 MB/evento, 3000 SI95*s ESD, Event Summary Data, output della ricostruzione: 500 KB/evento, 640 SI95*s (Reprocessing, Event Reconstruction, MC simulation) AOD, Analysis Object Data, formato "pubblico" di analisi: 10 KB/evento, 25 SI95*s (MC simulation, Physics Analysis) DPD, Derived Physics Data, formato privato di analisi, tipo n-pla: 1 KB/evento, 5 SI95*s (Physics Analysis)

30 CPU (MSI95) Tape (PB) Disk (PB) CERN (T0+T1) 1/3 del totale 0,5100,8 Each RC T1+T2 (6 RC in totale) 1/3 del totale 0,220,4 Each T3 1/3 del totale 0,010 x0,05 Total> 2> 20> 2 1 T2: 10% RC 2003/4: 10% delle risorse a regime 50 CPU + 4 TB Risorse HW ATLAS a regime (2007) 24 MCHF 8 MCHF /RC

31 Data Challenges Motivated by need to test scaling of solutions: Hardware, Middleware and Experiment Software) DC0 – 2001/2002 Tests of the ATLAS software DC /2003 Pile-Up Production (High and Low Luminosity) Large scale Grid test for reconstruction Reconstruction start March 2003 ~ 10**7 fully simulated events DC /2004 Geant4 replacing Geant3 Pile-up in Athena Use LCG common software Use widely GRID middleware Perform large scale physics analysis As for DC1: ~ 10**7 fully simulated events DC /2005 DC /2005 scale: 5 x DC2 DC /2006 DC /2006 scale: 2 x DC3

32 grid tools used at 11 sites CERN US D J F I CPUs Italia: 46 RM1 40 CNAF 16 NA 10 LNF

33 La farm di ATLAS-Napoli 7 nodi diskless con 2 CPU PIII a 1 GHz, RAM 512 MB, 2 schede di rete a 100 Mb/s. 7 nodi diskless con 2 CPU PIII a 1 GHz, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GHz, 1 GB RAM, 2 schede di rete a 100 Mb/s, 1 scheda di rete a 1 GB/s Server con 2 CPU PIII a 1 GHz, 1 GB RAM, 2 schede di rete a 100 Mb/s, 1 scheda di rete a 1 GB/s 2 TB storage 2 TB storage ATLAS SW e primi tools di GRID ATLAS SW e primi tools di GRID E in corso levoluzione dal ruolo di Tier-3 a quello di Tier-2, con lestensione delle risorse della farm: 25 biprocessori e 4 TB disco. 1 Gb/s 100 Mb/s CPU Server Disk Server

34 1.Prendere parte ai test di ricostruzione con il Middleware EDG che già coinvolgono RAL, Lione, CNAF (e in seguito Milano, Cambridge e Roma). 2.Registrare le risorse nella Virtual Organization di ATLAS e configurare diverse macchine della Farm come elementi della griglia mediante l'installazione del middleware di EDG. 3.Istallare un Computing Element (che gestisce localmente lallocazione del lavoro), uno Storage Element (che gestisce lo storage) e diversi Worker Nodes (che girano i job). 4.Pubblicare le informazioni relative alle risorse dela Farm sulla GRID in modo che mediante un Resource Broker i job vengano assegnati alla Farm. Obiettivi GRID a breve termine della Farm di ATLAS Napoli

35 Il Modello di CMS Il Modello di calcolo di CMS Italia è un modello integrato di Funzionalità dei Tier1, Tier2 e Tier3. u Tier2 di riferimento a Legnaro u Schema di calcolo distribuito sulle Sedi. u Alcune funzioni e specificita (chiamate in gergo services) sono tipiche di una gerarchia Modello di Tier0, Tier1, Tier2, Tier3 … Altre sono tipiche di una distribuzione paritaria Modello distribuito alla GRID

36 u Ruolo del Tier1 (comune per lINFN) ~40% del commitment italiano Assorbimento dei picchi di CPU (shared con gli altri Esperimenti) Mass Storage e accentramento dei dati di simulazione e analisi Riferimento core software (supporto) u Ruolo dei Tier2 (incluso il Tier2 di riferimento) ~40% del commitment italiano CPU e storage (solo dischi e/o archive) per lanalisi (distribuita) Dimensionamento delle attivita in funzione delle competenze ed interessi locali (dal farming alla analisi) u Ruolo dei Tier3 ~20% del commitment italiano Punto di forza in item specifici sia di analisi che di software e/o supporto e/o middleware

37 u Software in comune con gli altri esperimenti LHC Prodotti software che non hanno a che fare con Dati e Calcolo distribuiti (Grid independent): es. Generatori di Fisica, (Detector Description DataBase), … Prodotti software (middleware) che gestiscono la distribuzione dei dati e del calcolo (Grid dependent): es. Brokering dei job, Data replication, Information System, Monitoring, … Prodotti software che sono influenzati dalla caratteristica distribuita del Calcolo (Grid-aware): es. Persistenza, meta-data structure, Bookkeeping… u Prodotti che NON possono essere comuni: programmi di ricostruzione dei vari detector, tools di gestione specifici dellarchitettura del Computing Model, …

38 Logical components diagram Data Management System Dataset Catalogue Workload Management System Job Catalogue Resource Monitoring System Resource Directory Publish Resource status Read data Write data Retrieve Resource status Data management operations Job assignment to resources Data Materializer Job Definition Job submission Input data location Job creation Production on demand Experiment Software Release Manager Software Repository Software release SW download & installation Dataset Algorithm Specification Dataset Input Specification Dataset Definition New dataset request Job Monitoring System Job Book-keeping Job Monitoring Definition Job type definition Job output filtering Update dataset metadata Production monitoring Push data or info Pull info Copy data Storage Service Data Computing Service By Claudio Grandi

39 Layout farm LNL 2002: production + analysis + grid FastEth 32 – GigaEth 1000 BT SWITCH N1 FastEth SWITCH S1 S10 N24 N1 FastEth SWITCH N1 N24 S9 To WAN 34 Mbps 2001 ~ 1Gbps 2002 S11 S12 Production computing nodes Analysis computing nodes Production servers Analysis servers GW G1 G2 CE S10 S11 SE N1 N24 N1 N1 UI Productioncontrol Remote login Analysis Grid enabled Analysis = grid enabled element

40 Il progetto LCG (LHC Computing Grid) LCG The Goal of the LHC Grid The Goal of the LHC Grid To help the experiments computing projects prepare, build and operate the computing environment needed to manage and analyze the data coming from the detectors

41 LCG-3 LCG – Establish the LHC grid as a reliable, manageable, permanently available service including the Tier 1 and many Tier 2 centres Serve as one of the computing facilities used for simulation campaigns during 2H – Stable service for batch analysis Scaling and performance tests, commissioning of operations infrastructure Computing model tests – 4 collaborations Tier 0 – Tier 1 – Tier 2 – Tier 3 Computing TDRs at end – Full prototype of initial LHC service – second generation middleware - validation of computing models (4 collaborations) - validation of physical implementation – technology, performance, scaling LCG TDR – sizing/cost/schedule for the initial LHC service – July –2008 acquire, build and operate the LHC computing service

42 La GRID dei TIER per LHC

43 Le Capacità Richieste per LHC CERN (Somma di tutti gli esperimenti): –Mass Storage: 10 Peta Bytes (10 15 B)/anno –disk: 2 PB ( Dischi da 20GB) –CPU: 20 MSPECint2000 ( Per ogni Tier 1 Multi-esperimento : –Mass Storage: PB/anno –disk: 1.5 PB –CPU: 10 MSPECint2000 Networking Tier 0 (CERN) --> Tier 1: –2 Gbps (>4.000 connessioni ADSL)

44 Il Tier 1 dellINFN CNAF Programma delle Installazioni NB: I numeri quotati sono aggiuntivi per anno

45 Esperimento BaBar a SLAC (California, USA)

46 Struttura a Tiers di BABAR Tier 0 Tier 0: SLAC Stanford CA, USA TierA/BINFN-PD, INFN-CNAF TierA/B : Lione IN2P3, RAL, INFN-PD, INFN-CNAF Tier CNA Tier C: NA, …. Role of Tier A sites: reduce significantly computing burden at SLAC –Primarily analysis: IN2P3, RAL –Production: INFN-Padova –Issues: data replication at Tier As data partitioning at Tier As (micro, mini, beam data, MC) transparent access to data across Tier As (BabarGrid) specialization of Tier As: skimming, (re-)processing, etc. Role of Tier C sites: smaller sites at remote institutes –main contribution so far in MC production (majority of MC events produced away from SLAC) –analysis at Tier Cs has been difficult due to problems with data distribution need to resolve with new Computing Model

47 Il processo di analisi 1.Identificazione dei campioni di dati da analizzare con strumenti di bookkeeping Omogenei per dati e Monte Carlo 2.Sottomissione (e monitaggio) job di lanalisi Analisi combinatoria (D, D*, B-reco, …) Calcolo delle quantità fisiche Scrittura nuovo micro-DST ridotto contenente le informazioni per lanalisi Working Group Produzione centralizzata per tutta la collaborazione (ogni 3 mesi) 3.Riduzione dei micro-DST per le analisi specifiche 4.Produzione dei risultati con accesso interattivo ai micro-DST (ROOT, …) Oppure produzione di ntuple ridotte e istogrammi nel formato finale per lanalisi 5.Preparazione dei documenti di analisi

48 CONCLUSIONI Stiamo costruendo un prototipo di sistema di calcolo distribuito basato su GRID. Dobbiamo essere pronti per lo startup di LHC: 2007 Numerosi sono i progetti su GRID nazionali (es. INFN- GRID, FIRB GRID.IT) ed europei (es. DataTAG, LCG, EGEE) in cui noi fisici delle Alte Energie siamo coinvolti. Auspichiamo una collaborazione stretta anche con altri settori scientifici per la realizzazione di una infrastruttura comune di GRID anche a livello locale.


Scaricare ppt "Il modello di calcolo distribuito per gli esperimenti di Fisica delle Alte Energie Leonardo Merola Dipartimento di Scienze Fisiche - Università di Napoli."

Presentazioni simili


Annunci Google