La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Calcolo per LHCb Italia

Presentazioni simili


Presentazione sul tema: "Calcolo per LHCb Italia"— Transcript della presentazione:

1 Calcolo per LHCb Italia
Domenico Galli e Umberto Marconi Dipartimento di Fisica e INFN Bologna Napoli, 15 giugno 2000

2 Produzione di dati reali e Monte Carlo
Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

3 Produzione di dati reali e Monte Carlo
I RAW Tag contengono una classificazione degli eventi operata dal codice del trigger di alto livello. I RAWmc contengono anche la storia fisica dell’evento che viene tramandata fino agli AOD e che può essere usata nell’analisi. I dataset di eventi MC sono perciò più grandi di quelli reali. La ricostruzione degli eventi RAW (100 TB/a reali TB/a MC) produce i dati ESD (100 TB/a reali TB/a MC) e TAG di ricostruzione. Il CERN è il centro di produzione dei dati reali. Centri di produzione dei dati Monte Carlo sono i centri periferici (RAL, Lyon, INFN, Liverpool, …) e non il CERN. Potenza di calcolo richiesta in un centro di produzione Monte Carlo: SI95 (= 5000 CPU99). Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

4 Requisiti per la produzione di eventi Monte Carlo
Segnale: numero di eventi simulati pari a 10 volte il numero di eventi reali del medesimo canale (106 reali ® 107 MC). Fondo bb: tanti eventi simulati quanti eventi reali registrati (109 reali ® 109 MC). Tempo di CPU richiesto per segnale 3 ´ 1012 SI95 s. Tempo di CPU richiesto per fondo (anticipando il più possibile i tagli e riciclando i dati di generazione): 1.2 ´ 1013 SI95 s. Tempo di CPU totale produzione Monte Carlo: 1.5 ´ 1013 SI95 s. Produzione entro un anno (3 ´ 107 s) ” potenza di CPU richiesta: 5 ´ 105 SI95 (25000 CPU99) distribuiti tra i centri regionali Tier-1. Calcolo per LHCb Italia Domenico Galli e Umberto Marconi 1 CPU99 = 20 SPECint95

5 Tempo di CPU richiesto per la produzione di eventi Monte Carlo (107 eventi di segnale B®D*p)
Tempo di CPU/evento Tempo totale di CPU # [SI95 s/evt] [CPU99 s/evt] [SI95 s] [CPU99 s] Generazione 1010 200 10 2 ´ 1012 1011 Tracciamento 109 1000 50 1012 5 ´ 1010 Digitalizzazione 100 5 5 ´ 109 Triggering Ricostruzione 108 250 13 2.5 ´ 1010 Stati finali 107 20 1 2 ´ 108 Totale 1670 84 3 ´ 1012 1.5 ´ 1011 1 CPU99 = 20 SPECint95 Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

6 Tempo di CPU richiesto per la produzione di eventi Monte Carlo (109 eventi di fondo filtrati come B®D*p) eventi Tempo di CPU/evento Tempo totale di CPU # [SI95 s/evt] [CPU99 s/evt] [SI95 s] [CPU99 s] Generazione 1012 200 10 2 ´ 1014 1013 Tracciamento 1011 1000 50 1014 5 ´ 1012 Digitalizzazione 100 5 5 ´ 1011 Triggering Ricostruzione 109 250 13 2.5 ´ 1011 1.3 ´ 1010 Totale 1650 83 3 ´ 1014 1.5 ´ 1013 1 CPU99 = 20 SPECint95 Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

7 Analisi di produzione Calcolo per LHCb Italia
Domenico Galli e Umberto Marconi

8 Analisi di produzione Ricostruzione stati finali: i dati ESD (tracce, cluster, particle id.) sono analizzati per determinare i 4-impulsi corrispondenti alle tracce, per localizzare i vertici, per calcolare le masse invarianti e per identificare le risonanze (J/Y, p0, ecc.). Eseguita una sola volta per tutti i tipi di analisi utente nel centro di produzione. Richiesti 2000 SI95 (100 CPU99). Individuazione dell’analisi appropriata per il singolo evento sulla base dei TAG di ricostruzione: più di un algoritmo di analisi può essere eseguito per il singolo evento, in quanto può essere soddisfatta più di una delle condizioni richieste sui TAG di ricostruzione (p. es.: 2 muoni, 2 adroni, ecc.). Il risultato sono gli AOD (20 TB/a reali) e i TAG di analisi (1 TB/a reali). Soltanto AOD e TAG di analisi vengono esportati sistematicamente dai centri di produzione ai centri di analisi (a differenza di altri esperimenti LHC). Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

9 Analisi utente Calcolo per LHCb Italia
Domenico Galli e Umberto Marconi

10 Analisi utente Gli AOD che corrispondono a eventi con TAG di analisi di interesse (selezione) vengono processati e viene ricostruito il canale di decadimento del B in studio. Questo processo produce dati privati (n-ple) che possono essere interrogati interattivamente per produrre risultati fisici. Poiché il numero di canali in studio è molto alto, si può supporre che ogni fisico esegua un’analisi separata su di un canale specifico (non esistono gruppi di analisi come in altri esperimenti LHC). Potenza di calcolo richiesta: SI95 (=500 CPU99) nei centri regionali e SI95 (=1000 CPU99) al CERN. Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

11 Differenze rispetto al modello MONARC
L’architettura di base del modello di calcolo di LHCb corrisponde al modello MONARC. Tuttavia alcuni dettagli distinguono LHCb dai maggiori esperimenti LHC: Il numero di canali di analisi in studio è molto grande e si presume che i fisici lavorino in maniera molto indipendente sui diversi canali di analisi. Non vengono identificati gruppi di analisi. Il primo stadio dell’analisi è eseguito in comune per tutte le analisi che seguono nei centri di produzione. I centri di produzione esportano sistematicamente soltanto AOD e TAG (vengono distribuiti piccoli campioni di RAW ed ESD soltanto su richiesta). Non vi è una netta distinzione tra Tier1 e Tier2. Il trasferimento di dati è tale da potere essere realizzato esclusivamente su WAN. Il CERN agisce soltanto come centro di produzione di dati reali. I dati Monte Carlo vengono prodotti esclusivamente nei centri di produzione periferici (RAL, Lyon, INFN, …). Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

12 AOD e TAG sistematicamente
Il movimento dei dati Centro di produzione Dati reali: CERN Dati Monte Carlo: RAL, Lyon, INFN, … AOD e TAG sistematicamente Reali: 80 TB/a Monte Carlo: 120 TB/a Centro regionale Centro regionale Centro regionale Centro regionale Centro regionale AOD e TAG su richiesta Reali:10 TB/a Monte Carlo: 30 TB/a Server dipartimentale Server dipartimentale Server dipartimentale Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

13 Ruolo del middleware di Grid Scenario 1: analisi dati reali
Un fisico di Ferrara vuole analizzare la reazione B0 ® J/Y K0s. Gli AOD e i TAG per tutti i 109 eventi prodotti in un anno sono distribuiti sistematicamente dal CERN a tutti i Tier-1 (tra cui il Tier-1 INFN). Le procedure di selezione sono eseguite al Tier-1 INFN e identificano 107 candidati di interesse in base ai TAG. Gli AOD e i TAG corrispondenti ai 107 eventi selezionati (200 GB AOD + 10 GB TAG) sono copiati dal Tier-1 INFN al Tier-3 di Ferrara (alcune ore su WAN). I job di analisi utente sono eseguiti sul Tier-3 di Ferrara più volte sugli eventi selezionati. Evitare copie multiple degli stessi data set (diversi fisici eseguono analisi diverse sugli stessi dati). Il software di data caching & replication, in maniera trasparente per l’utente, deve gestire un database dei TAG per tenere traccia degli eventi disponibili localmente. Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

14 Ruolo del middleware di Grid Scenario 2: analisi dati reali (canale molto popolato)
Un fisico di Ferrara vuole analizzare la reazione B0 ® D*- p+. È simile allo scenario 1. In questo caso gli AOD selezionati (108 eventi, 2 TB) sono più grandi di un ordine di grandezza rispetto al caso precedente e non possono essere trasferiti su WAN in tempi ragionevoli. L’analisi utente sarà eseguita presso un Tier-1 (possibilmente con load balancing), invece che al Tier-3 di Ferrara. Spostamento dei job verso i dati invece di spostamento dei dati verso le macchine. Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

15 Ruolo del middleware di Grid Scenario 3: analisi fondo simulato
Un fisico di Cagliari vuole analizzare la reazione B0 ® J/Y K0s sugli eventi di fondo bb generati a Lyon. I 109 eventi (12 TB GEN, 200 TB RAW, 100 TB ESD, 20 TB AOD, 1 TB TAG) sono archiviati a Lyon (centro di produzione). Gli AOD, i GEN e i TAG per tutti i 109 eventi prodotti (33 TB) sono distribuiti sistematicamente da Lyon a tutti i Tier-1 (tra cui il Tier-1 INFN). Il fisico esegue al Tier-1 INFN il job di selezione che controlla i TAG e identifica i candidati di interesse (circa 105 eventi). I 105 eventi di interesse (3.3 GB di AOD, TAG e GEN) sono copiati dal Tier-1 INFN al Tier-3 di Cagliari attraverso la WAN. I job di analisi utente sono eseguiti sul Tier-3 di Cagliari più volte sugli eventi selezionati. Il software di data caching & replication, in maniera trasparente per l’utente, deve gestire un database dei TAG per tenere traccia degli eventi disponibili localmente ed evitare copie multiple degli stessi data set. Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

16 Ruolo del middleware di Grid. Compiti
Distribuzione sistematica AOD, TAG e GEN (per i dati MC) dai centri di produzione (CERN per dati reali, RAL + Lyon + INFN + Liverpool + … per dati Monte Carlo) a tutti i centri regionali Tier-1: CERN + RAL + Lyon + INFN + Liverpool + … (200 TB/a). Distribuzione selezione AOD (basata su TAG) da un centro regionale Tier-1 al server dipartimentale (Tier-3) che ne fa richiesta (per 107 eventi: 200 GB AOD e 10 GB TAG in alcune ore). Aggiornamento di un database dei TAG per tenere traccia dei dati disponibili localmente nei Tier-3 onde evitare trasferimenti multipli degli stessi data set. Distribuzione campioni ESD dai centri di produzione al Tier-3 che ne fa richiesta (per 105 eventi: 10 GB). Distribuzione campioni RAW dai centri di produzione al Tier-3 che ne fa richiesta (per 100 eventi: 100 MB). Per analisi su grandi campioni di eventi (B®D*p) spostamento dei job verso i dati (centri regionali Tier-1) e load balancing sui Tier-1. Distribuzione del database delle calibrazioni. Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

17 Piano di produzione di eventi Monte Carlo dal 2000 al 2005
La collaborazione LHCb intende avviare immediatamente la produzione Monte Carlo, che richiede una potenza di calcolo notevole. Necessariamente il piano di sviluppo del sistema di calcolo segue perciò uno schema bottom-up (che parte dalle esigenze a breve termine). : produzione di ~3 ´ 106 evt/a simulati per l’ottimizzazione dei rivelatori e del trigger di primo livello, in preparazione dei TDR del rivelatore, attesi nel 2001 e all’inizio del 2002); : studi degli algoritmi del trigger di alto livello (~6´106 evt/a); : produzione di grandi campioni di eventi di fondo (~107 evt/a). L’attività di produzione di eventi Monte Carlo verrà utilizzata per collaudare l’infrastruttura di calcolo. Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

18 Piano di test su grande scala del modello di calcolo (Data Challenge)
Dal 2002 al 2004 dovranno essere eseguiti i test per convalidare il modello di calcolo di LHCb; 2002: DC 1 – verifica del middleware di grid e del software di amministrazione della farm, utilizzando una simulazione reale e l’analisi di 107 eventi di decadimento del B. Parteciperanno: CERN, RAL, Lione/CCIN2P3, Liverpool, INFN. Scritture di dati RAW e ESD su disco da parte di molti processi MC simultanei. Accesso simultaneo al database di calibrazione da parte di molteplici job di ricostruzione. 2003: DC 2 – test del prototipo di grande scala di Tier-0 al CERN. Amministrazione del sistema e delle applicazioni. Analisi: studio di accessi ai dati di tipo caotico. Prove di sforzo del modello dei dati e degli algoritmi Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

19 Requisiti globali dei centri Tier-1 di LHCb
Unità 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 Eventi segnale a-1 106 2´106 3´106 5´106 107 Eventi fondo 1.5´106 4´106 109 CPU segnale SI95 104 2´104 3´104 5´104 105 CPU fondo 1.6´104 2.4´104 3.2´104 6.4´104 1.6´105 4´104 CPU analisi 2500 5000 7500 1.3´104 2.5´104 RAWmc disco TB 0.4 0.5 0.8 1.4 3 202 RAWmc nastro 404 606 808 1010 1212 ESDmc disco 0.2 0.25 0.7 1.5 101 AOD disco 0.06 0.1 0.3 50 TAG disco 0.01 0.015 2 Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

20 Requisiti globali dei centri Tier-1 di LHCb
TB Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

21 Piano di acquisti per un centro regionale Tier-1 di LHCb (valori incrementali)
Unità 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 CPU SI95 5700 1600 4100 8900 24200 60500 31500 Disco TB 0.18 0.07 0.09 0.38 0.69 111.2 22.4 Nastro 0.08 0.02 0.06 0.12 0.32 39.8 40.4 Risorse divise tra 5 centri regionali. Nel funzionamento a regime (a partire dal 2006) sostituzione ogni anno di 30% CPU e 20% dischi. Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

22 Il Tier-1 INFN di LHCb LHCb-Italia intende adeguarsi alla pianificazione della collaborazione entro la fine del 2001. LHCb-Italia intende concentrare il Tier-1 in un unico sito, alloggiato in un “consorzio di calcolo”, scelto in base alla convenienza economica con una gara d’appalto. Una sola istallazione. Architettura analoga agli altri Tier-1 europei. Assenza dei problemi connessi all’utilizzo della WAN (routing, ottimizzazione dei trasferimenti per ovviare ai limiti della banda, ecc.). Assenza di particolari esigenze di organizzazione e sincronizzazione. Il controllo remoto delle risorse richiede meno bandwidth di quanta non ne richieda la distribuzione geografica di dati e CPU. L’utilizzazione remota delle risorse di calcolo concentrate potrà essere trasparente per l’utente grazie al software di griglia. Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

23 Il Tier-1 INFN di LHCb (II)
Il consorzio si occupa dell’alloggiamento delle risorse di calcolo: allacciamenti; condizionamento; continuità; custodia. Al consorzio si intende dare in outsourcing il lavoro sistemistico: partecipazione all’istallazione del sistema; gestione e monitoraggio; intervento in caso di hang; intervento per il ripristino della connettività LAN o WAN; procedure di backup; aggiornamento e patch del sistema operativo. Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

24 Piano di investimenti di LHCb-Italia
Unità 2001 2002 2003 CPU [kE] 316 110 150 Switch 24 6 Rack 20 10 Disco 5.5 1.2 3.9 Nastro 0.11 0.03 0.04 Lettori nastro 4 Totale hardware 370 127 170 Numero CPU # 158 213 288 Energia elettrica 33 45 61 Alloggiamento 25 32 Personale sistemistico 55 60 67 Totale spese generali 108 130 160 Gran totale 478 257 330 Calcolo per LHCb Italia Domenico Galli e Umberto Marconi

25 Gruppo nazionale computing di LHCb
Sezione Test-bed HEP applications DATAGRID Totale Maurizio Bonesini MI 10% - Walter Bonivento CA 20% Domenico Galli BO 50% 30% 80% Alberto Gianoli FE Umberto Marconi Marco Paganoni Roberta Santacesaria RM1 Nicola Semprini Cesari Vincenzo Vagnoni 40% 60% Stefania Vecchi 240% 100% 400% Calcolo per LHCb Italia Domenico Galli e Umberto Marconi


Scaricare ppt "Calcolo per LHCb Italia"

Presentazioni simili


Annunci Google