La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Calcolo per LHCb Italia Domenico Galli e Umberto Marconi Dipartimento di Fisica e INFN Bologna Napoli, 15 giugno 2000.

Presentazioni simili


Presentazione sul tema: "Calcolo per LHCb Italia Domenico Galli e Umberto Marconi Dipartimento di Fisica e INFN Bologna Napoli, 15 giugno 2000."— Transcript della presentazione:

1 Calcolo per LHCb Italia Domenico Galli e Umberto Marconi Dipartimento di Fisica e INFN Bologna Napoli, 15 giugno 2000

2 Calcolo per LHCb Italia Domenico Galli e Umberto Marconi Produzione di dati reali e Monte Carlo

3 Calcolo per LHCb Italia Domenico Galli e Umberto Marconi Produzione di dati reali e Monte Carlo I RAW Tag contengono una classificazione degli eventi operata dal codice del trigger di alto livello. I RAWmc contengono anche la storia fisica dellevento che viene tramandata fino agli AOD e che può essere usata nellanalisi. I dataset di eventi MC sono perciò più grandi di quelli reali. La ricostruzione degli eventi RAW (100 TB/a reali TB/a MC) produce i dati ESD (100 TB/a reali TB/a MC) e TAG di ricostruzione. Il CERN è il centro di produzione dei dati reali. Centri di produzione dei dati Monte Carlo sono i centri periferici (RAL, Lyon, INFN, Liverpool, …) e non il CERN. Potenza di calcolo richiesta in un centro di produzione Monte Carlo: SI95 (= 5000 CPU99).

4 Calcolo per LHCb Italia Domenico Galli e Umberto Marconi Requisiti per la produzione di eventi Monte Carlo Segnale: numero di eventi simulati pari a 10 volte il numero di eventi reali del medesimo canale (10 6 reali 10 7 MC). Fondo bb: tanti eventi simulati quanti eventi reali registrati (10 9 reali 10 9 MC). Tempo di CPU richiesto per segnale 3 ´ SI95 s. Tempo di CPU richiesto per fondo (anticipando il più possibile i tagli e riciclando i dati di generazione): 1.2 ´ SI95 s. Tempo di CPU totale produzione Monte Carlo: 1.5 ´ SI95 s. Produzione entro un anno (3 ´ 10 7 s) potenza di CPU richiesta: 5 ´ 10 5 SI95 (25000 CPU99) distribuiti tra i centri regionali Tier-1. 1 CPU99 = 20 SPECint95

5 Calcolo per LHCb Italia Domenico Galli e Umberto Marconi Tempo di CPU richiesto per la produzione di eventi Monte Carlo (10 7 eventi di segnale B®D * p) eventiTempo di CPU/eventoTempo totale di CPU #[SI95 s/evt][CPU99 s/evt][SI95 s][CPU99 s] Generazione ´ Tracciamento ´ Digitalizzazione ´ 10 9 Triggering ´ 10 9 Ricostruzione ´ Stati finali ´ Totale ´ ´ CPU99 = 20 SPECint95

6 Calcolo per LHCb Italia Domenico Galli e Umberto Marconi Tempo di CPU richiesto per la produzione di eventi Monte Carlo (10 9 eventi di fondo filtrati come B®D * p) eventiTempo di CPU/eventoTempo totale di CPU #[SI95 s/evt][CPU99 s/evt][SI95 s][CPU99 s] Generazione ´ Tracciamento ´ Digitalizzazione ´ Triggering ´ Ricostruzione ´ ´ Totale ´ ´ CPU99 = 20 SPECint95

7 Calcolo per LHCb Italia Domenico Galli e Umberto Marconi Analisi di produzione

8 Calcolo per LHCb Italia Domenico Galli e Umberto Marconi Analisi di produzione Ricostruzione stati finali: i dati ESD (tracce, cluster, particle id.) sono analizzati per determinare i 4-impulsi corrispondenti alle tracce, per localizzare i vertici, per calcolare le masse invarianti e per identificare le risonanze (J/ Y, p 0, ecc.). Eseguita una sola volta per tutti i tipi di analisi utente nel centro di produzione. Richiesti 2000 SI95 (100 CPU99). Individuazione dellanalisi appropriata per il singolo evento sulla base dei TAG di ricostruzione: più di un algoritmo di analisi può essere eseguito per il singolo evento, in quanto può essere soddisfatta più di una delle condizioni richieste sui TAG di ricostruzione (p. es.: 2 muoni, 2 adroni, ecc.). Il risultato sono gli AOD (20 TB/a reali) e i TAG di analisi (1 TB/a reali). Soltanto AOD e TAG di analisi vengono esportati sistematicamente dai centri di produzione ai centri di analisi (a differenza di altri esperimenti LHC).

9 Calcolo per LHCb Italia Domenico Galli e Umberto Marconi Analisi utente

10 Calcolo per LHCb Italia Domenico Galli e Umberto Marconi Analisi utente Gli AOD che corrispondono a eventi con TAG di analisi di interesse (selezione) vengono processati e viene ricostruito il canale di decadimento del B in studio. Questo processo produce dati privati (n-ple) che possono essere interrogati interattivamente per produrre risultati fisici. Poiché il numero di canali in studio è molto alto, si può supporre che ogni fisico esegua unanalisi separata su di un canale specifico (non esistono gruppi di analisi come in altri esperimenti LHC). Potenza di calcolo richiesta: SI95 (=500 CPU99) nei centri regionali e SI95 (=1000 CPU99) al CERN.

11 Calcolo per LHCb Italia Domenico Galli e Umberto Marconi Differenze rispetto al modello MONARC Larchitettura di base del modello di calcolo di LHCb corrisponde al modello MONARC. Tuttavia alcuni dettagli distinguono LHCb dai maggiori esperimenti LHC: Il numero di canali di analisi in studio è molto grande e si presume che i fisici lavorino in maniera molto indipendente sui diversi canali di analisi. Non vengono identificati gruppi di analisi. Il primo stadio dellanalisi è eseguito in comune per tutte le analisi che seguono nei centri di produzione. I centri di produzione esportano sistematicamente soltanto AOD e TAG (vengono distribuiti piccoli campioni di RAW ed ESD soltanto su richiesta). Non vi è una netta distinzione tra Tier1 e Tier2. Il trasferimento di dati è tale da potere essere realizzato esclusivamente su WAN. Il CERN agisce soltanto come centro di produzione di dati reali. I dati Monte Carlo vengono prodotti esclusivamente nei centri di produzione periferici (RAL, Lyon, INFN, …).

12 Calcolo per LHCb Italia Domenico Galli e Umberto Marconi Server dipartimentale Centro regionale Il movimento dei dati Centro regionale Centro di produzione AOD e TAG sistematicamente Reali: 80 TB/a Monte Carlo: 120 TB/a AOD e TAG su richiesta Reali:10 TB/a Monte Carlo: 30 TB/a Dati reali: CERN Dati Monte Carlo: RAL, Lyon, INFN, …

13 Calcolo per LHCb Italia Domenico Galli e Umberto Marconi Ruolo del middleware di Grid Scenario 1: analisi dati reali Un fisico di Ferrara vuole analizzare la reazione B 0 J K 0 s. Gli AOD e i TAG per tutti i 10 9 eventi prodotti in un anno sono distribuiti sistematicamente dal CERN a tutti i Tier-1 (tra cui il Tier-1 INFN). Le procedure di selezione sono eseguite al Tier-1 INFN e identificano 10 7 candidati di interesse in base ai TAG. Gli AOD e i TAG corrispondenti ai 10 7 eventi selezionati (200 GB AOD + 10 GB TAG) sono copiati dal Tier-1 INFN al Tier-3 di Ferrara (alcune ore su WAN). I job di analisi utente sono eseguiti sul Tier-3 di Ferrara più volte sugli eventi selezionati. Evitare copie multiple degli stessi data set (diversi fisici eseguono analisi diverse sugli stessi dati). Il software di data caching & replication, in maniera trasparente per lutente, deve gestire un database dei TAG per tenere traccia degli eventi disponibili localmente.

14 Calcolo per LHCb Italia Domenico Galli e Umberto Marconi Ruolo del middleware di Grid Scenario 2: analisi dati reali (canale molto popolato) Un fisico di Ferrara vuole analizzare la reazione B 0 D *. È simile allo scenario 1. In questo caso gli AOD selezionati (10 8 eventi, 2 TB) sono più grandi di un ordine di grandezza rispetto al caso precedente e non possono essere trasferiti su WAN in tempi ragionevoli. Lanalisi utente sarà eseguita presso un Tier-1 (possibilmente con load balancing), invece che al Tier-3 di Ferrara. Spostamento dei job verso i dati invece di spostamento dei dati verso le macchine.

15 Calcolo per LHCb Italia Domenico Galli e Umberto Marconi Ruolo del middleware di Grid Scenario 3: analisi fondo simulato Un fisico di Cagliari vuole analizzare la reazione B 0 J K 0 s sugli eventi di fondo bb generati a Lyon. I 10 9 eventi (12 TB GEN, 200 TB RAW, 100 TB ESD, 20 TB AOD, 1 TB TAG) sono archiviati a Lyon (centro di produzione). Gli AOD, i GEN e i TAG per tutti i 10 9 eventi prodotti (33 TB) sono distribuiti sistematicamente da Lyon a tutti i Tier-1 (tra cui il Tier-1 INFN). Il fisico esegue al Tier-1 INFN il job di selezione che controlla i TAG e identifica i candidati di interesse (circa 10 5 eventi). I 10 5 eventi di interesse (3.3 GB di AOD, TAG e GEN) sono copiati dal Tier-1 INFN al Tier-3 di Cagliari attraverso la WAN. I job di analisi utente sono eseguiti sul Tier-3 di Cagliari più volte sugli eventi selezionati. Il software di data caching & replication, in maniera trasparente per lutente, deve gestire un database dei TAG per tenere traccia degli eventi disponibili localmente ed evitare copie multiple degli stessi data set.

16 Calcolo per LHCb Italia Domenico Galli e Umberto Marconi Ruolo del middleware di Grid. Compiti Distribuzione sistematica AOD, TAG e GEN (per i dati MC) dai centri di produzione (CERN per dati reali, RAL + Lyon + INFN + Liverpool + … per dati Monte Carlo) a tutti i centri regionali Tier-1: CERN + RAL + Lyon + INFN + Liverpool + … (200 TB/a). Distribuzione selezione AOD (basata su TAG) da un centro regionale Tier-1 al server dipartimentale (Tier-3) che ne fa richiesta (per 10 7 eventi: 200 GB AOD e 10 GB TAG in alcune ore). Aggiornamento di un database dei TAG per tenere traccia dei dati disponibili localmente nei Tier-3 onde evitare trasferimenti multipli degli stessi data set. Distribuzione campioni ESD dai centri di produzione al Tier-3 che ne fa richiesta (per 10 5 eventi: 10 GB). Distribuzione campioni RAW dai centri di produzione al Tier-3 che ne fa richiesta (per 100 eventi: 100 MB). Per analisi su grandi campioni di eventi (B ® D* p ) spostamento dei job verso i dati (centri regionali Tier-1) e load balancing sui Tier-1. Distribuzione del database delle calibrazioni.

17 Calcolo per LHCb Italia Domenico Galli e Umberto Marconi Piano di produzione di eventi Monte Carlo dal 2000 al 2005 La collaborazione LHCb intende avviare immediatamente la produzione Monte Carlo, che richiede una potenza di calcolo notevole. Necessariamente il piano di sviluppo del sistema di calcolo segue perciò uno schema bottom-up (che parte dalle esigenze a breve termine) : produzione di ~ evt/a simulati per lottimizzazione dei rivelatori e del trigger di primo livello, in preparazione dei TDR del rivelatore, attesi nel 2001 e allinizio del 2002); : studi degli algoritmi del trigger di alto livello (~ evt/a); : produzione di grandi campioni di eventi di fondo (~10 7 evt/a). Lattività di produzione di eventi Monte Carlo verrà utilizzata per collaudare linfrastruttura di calcolo.

18 Calcolo per LHCb Italia Domenico Galli e Umberto Marconi Piano di test su grande scala del modello di calcolo (Data Challenge) Dal 2002 al 2004 dovranno essere eseguiti i test per convalidare il modello di calcolo di LHCb; 2002: DC 1 – verifica del middleware di grid e del software di amministrazione della farm, utilizzando una simulazione reale e lanalisi di 10 7 eventi di decadimento del B. Parteciperanno: CERN, RAL, Lione/CCIN2P3, Liverpool, INFN. Scritture di dati RAW e ESD su disco da parte di molti processi MC simultanei. Accesso simultaneo al database di calibrazione da parte di molteplici job di ricostruzione. 2003: DC 2 – test del prototipo di grande scala di Tier-0 al CERN. Amministrazione del sistema e delle applicazioni. Analisi: studio di accessi ai dati di tipo caotico. Prove di sforzo del modello dei dati e degli algoritmi

19 Calcolo per LHCb Italia Domenico Galli e Umberto Marconi Requisiti globali dei centri Tier-1 di LHCb Unità Eventi segnale a Eventi fondo a CPU segnale SI CPU fondo SI CPU analisi SI RAWmc disco TB RAWmc nastro TB ESDmc disco TB AOD disco TB TAG disco TB

20 Calcolo per LHCb Italia Domenico Galli e Umberto Marconi Requisiti globali dei centri Tier-1 di LHCb SI95 TB

21 Calcolo per LHCb Italia Domenico Galli e Umberto Marconi Piano di acquisti per un centro regionale Tier-1 di LHCb (valori incrementali) Risorse divise tra 5 centri regionali. Nel funzionamento a regime (a partire dal 2006) sostituzione ogni anno di 30% CPU e 20% dischi. Unità CPU SI Disco TB Nastro TB

22 Calcolo per LHCb Italia Domenico Galli e Umberto Marconi Il Tier-1 INFN di LHCb LHCb-Italia intende adeguarsi alla pianificazione della collaborazione entro la fine del LHCb-Italia intende concentrare il Tier-1 in un unico sito, alloggiato in un consorzio di calcolo, scelto in base alla convenienza economica con una gara dappalto. Una sola istallazione. Architettura analoga agli altri Tier-1 europei. Assenza dei problemi connessi allutilizzo della WAN (routing, ottimizzazione dei trasferimenti per ovviare ai limiti della banda, ecc.). Assenza di particolari esigenze di organizzazione e sincronizzazione. Il controllo remoto delle risorse richiede meno bandwidth di quanta non ne richieda la distribuzione geografica di dati e CPU. Lutilizzazione remota delle risorse di calcolo concentrate potrà essere trasparente per lutente grazie al software di griglia.

23 Calcolo per LHCb Italia Domenico Galli e Umberto Marconi Il Tier-1 INFN di LHCb (II) Il consorzio si occupa dellalloggiamento delle risorse di calcolo: allacciamenti; condizionamento; continuità; custodia. Al consorzio si intende dare in outsourcing il lavoro sistemistico: partecipazione allistallazione del sistema; gestione e monitoraggio; intervento in caso di hang; intervento per il ripristino della connettività LAN o WAN; procedure di backup; aggiornamento e patch del sistema operativo.

24 Calcolo per LHCb Italia Domenico Galli e Umberto Marconi Piano di investimenti di LHCb- Italia Unità CPU[k E ] Switch[k E ]2466 Rack[k E ]2010 Disco[k E ] Nastro[k E ] Lettori nastro[k E ]400 Totale hardware[k E ] Numero CPU# Energia elettrica[k E ] Alloggiamento[k E ] Personale sistemistico[k E ] Totale spese generali[k E ] Gran totale[k E ]

25 Calcolo per LHCb Italia Domenico Galli e Umberto Marconi Gruppo nazionale computing di LHCb SezioneTest-bed HEP applications DATAGRIDTotale Maurizio BonesiniMI10%-- Walter BoniventoCA20%-- Domenico GalliBO50%-30%80% Alberto GianoliFE50%-- Umberto MarconiBO50%-30%80% Marco PaganoniMI20%-- Roberta SantacesariaRM1-20%- Nicola Semprini CesariBO-10%- Vincenzo VagnoniBO40%20%-60% Stefania VecchiBO-50%- Totale240%100%60%400%


Scaricare ppt "Calcolo per LHCb Italia Domenico Galli e Umberto Marconi Dipartimento di Fisica e INFN Bologna Napoli, 15 giugno 2000."

Presentazioni simili


Annunci Google