La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

ALICE-Italia: ALICE-Italia: IL CALCOLO Massimo Masera Dipartimento di Fisica Sperimentale e INFN – Torino Bari, 25 febbraio 2004.

Presentazioni simili


Presentazione sul tema: "ALICE-Italia: ALICE-Italia: IL CALCOLO Massimo Masera Dipartimento di Fisica Sperimentale e INFN – Torino Bari, 25 febbraio 2004."— Transcript della presentazione:

1 ALICE-Italia: ALICE-Italia: IL CALCOLO Massimo Masera Dipartimento di Fisica Sperimentale e INFN – Torino Bari, 25 febbraio 2004

2 M.MaseraIL CALCOLO NEL 2004 Indice Il Physics Data Challenge III (2004) – Obiettivi – Novita` in AliRoot e situazione attuale Strumenti di Grid: –EDG –LCG e AliEn Situazione del Tier-1 e dei Tier-2

3 M.MaseraIL CALCOLO NEL 2004 Period (milestone) Fraction of the final capacity (%) Physics Objective 06/01-12/011%pp studies, reconstruction of TPC and ITS 06/02-12/025%First test of the complete chain from simulation to reconstruction for the PPR Simple analysis tools. Digits in ROOT format. 01/04-06/04 10%Complete chain used for trigger studies. Prototype of the analysis tools. Comparison with parameterised MonteCarlo. Simulated raw data. 01/06-06/0620%Test of the final system for reconstruction and analysis. ALICE PHYSICS DATA CHALLENGES

4 M.MaseraIL CALCOLO NEL 2004 Physics Data Challenge 3: obiettivi Il Physics Performance Report di ALICE e in via di completamento Simulazioni post-PPR: enfasi su hard physics; jets e jet quenching: – a LHC, ma in parte a RHIC, dovrebbe crescere il contributo di minijet alla produzione di particelle nella zona centrale di rapidita`

5 M.MaseraIL CALCOLO NEL 2004 Physics Data Challenge 3: obiettivi signal-freeUna semplice parametrizzazione signal-free di un modello microscopico non puo` essere usata a causa dellassenza di fluttuazioni dovute alla produzione di jet e minijet E` necessario far ricorso a generatori di eventi come HIJING, che includano la produzione di jet, anche per la simulazione dei cosiddetti eventi di background usati con levent mixing per simulare fenomeni a bassa sezione durto A p T ~10-20 GeV/c ci si aspetta~1 jet per evento Studio di jet con p T ~ qualche 10 GeV/c: questo compito non e` semplice ed e` basato sullo studio della struttura dellevento, e sulla ricerca di leading particles ad alto p T nel barrel. La tecnica dellevent mixing (generazione separata di segnale e background) non e` possibile 50 volteStudio di jet con p t ~100 GeV/c e maggiore : event mixing. Un singolo evento di background puo` essere utilizzato fino a 50 volte

6 M.MaseraIL CALCOLO NEL 2004 Physics Data Challenge 3: obiettivi La definizione del numero di eventi da simulare nel DC-3 e` dovuta essenzialmente allo studio dei jet: –10 5 eventi per lo studio di jets with p T fino a GeV/c con statistica sufficiente – eventi per studi di correlazione di particelle e per iperoni con stranezza singola e doppia (, ) – 10 6 eventi: jet di alto p T ( ~10 5 eventi di background) –, stati di charmonio e bottomonio e + e - La statistica necessaria e` dello stesso ordine di grandezza di quanto necessario per i jet. Gli stessi eventi di background possono essere riutilizzati. –Centralita`: 50% central events (b<2-3 fm) 50% minimum bias

7 M.MaseraIL CALCOLO NEL 2004 Physics Data Challenge 3: obiettivi Oltre a simulazioni Pb-Pb: 10 7 eventi p-p (Pythia) e ~10 6 p-A (Hijing) Il DC serve anche per verificare la capacita` di simulare e soprattutto analizzare una mole di dati ~10% di quella da trattare a regime con le tecnologie informatiche a disposizione ricaduta su framework e middleware La durata del DC e` di 6 mesi: la Collaborazione vuole verificare quanti eventi e in grado si simulare e analizzare (in modalita` diretta o con mixing) in questo periodo sfruttando sia risorse proprie che risorse disponibili nellambito LCG Parte dei dati simulati sara` portata al Cern e di qui redistribuita per lanalisi distribuito È un test del framework offline e del modello di calcolo distribuito

8 M.MaseraIL CALCOLO NEL 2004 Novita` in AliRoot ROOT AliRoot STEER Virtual MC G3 G4 FLUKA HIJING MEVSIM PYTHIA6 PDF CRT EMCALZDC FMD ITS MUON PHOSPMDTRD TPC TOF STRUCT START RICH RALICE EVGEN HBTP HBTAN ISAJET AliEn DPMJET Production env. Interfaccia con il mondo C++ parte scritta dallutente Virtual MC: NUOVO

9 M.MaseraIL CALCOLO NEL 2004 NewIO Che cosa ce` di nuovo in AliRoot? NewIO AliLoader, AliRunLoader, AliDataLoaderNuovo I/O: verra usato nel DC-3 per la prima volta. La gestione dellIO e demandata a un set di classi dedicate (AliLoader, AliRunLoader, AliDataLoader…) e la dipendenza tra classi e ridotta con luso dei folder di root. –Highlights: migliore modularita facilita di rifare parti di ricostruzione possiblita di accedere (e spostare se serve) a parte dellinformazione che e distribuita su piu file possibilita` di aggiornare linformazione su MSS aggiungendo nuovi file (ad esempio: vertici, tracce, etc) senza alterare i file contenenti linformazione di partenza

10 M.MaseraIL CALCOLO NEL 2004 TPC.RecPoints.root Object Tree TPC.Hits.root Root dir Folder Kine.root Event #2 TreeH Event #2 TreeK Event #1 TreeH Event #1 TreeK TPC.Digits.root Event #1Event #2 File ITS.Tracks.rootITS.Digits.rootTPC.Tracks.rootITS.Hits.rootTPC.RecPoints.root Object g a lice.root RunLoader gAlice TreeE TreeD Nuovo I/O Piotr Skowronski

11 M.MaseraIL CALCOLO NEL 2004 Stato di AliRoot La versione di produzione e` la v4-01-Release (del 24/2/2004) clean-up del codice & notevole riduzione delle violazioni alle coding conventions RAW data format per i digits e` disponibile per TPC e ITS Usa Root v e Geant3 v0-6 (Geant3 + Geometrical Modeller ) Simulazione (dato un Config.C) effettuata attraverso una classe apposita –AliSimulation sim; –Sim.Run(# of events); Anche la ricostruzione (nel barrel) e` effettuata attraverso una classe dedicata: –AliReconstruction rec; –Rec.Run(); one go per tutti i rivelatori

12 M.MaseraIL CALCOLO NEL 2004 Digitizzazione e ricostruzione Summable digits e digits OK Il merging e` gestito dalla classe AliSimulation E` stata introdotta (Y. Belikov) una nuova classe ESD (Event Summary Data) per lanalisi. Contiene, oltre al resto: –La posizione del vertice primario misurata con i 2 piani di rivelatori a pixel dellITS –Tracce ricostruite nel barrel: (TPC+ITS), ITS stand- alone (versione V2), TRD, TOF.

13 M.MaseraIL CALCOLO NEL 2004 Event Summary Data (ESD) La classe AliESD e` essenzialmente un container per i dati Non ci sono funzioni per lanalisi E` il risultato della ricostruzione condotta sistematicamente attraverso lesecuzioni di job batch/Grid Contiene tutte leinformazioni per procedere con lanalisi Durante la ricostruzione puo` essere utilizzata per scambiare informazioni tra diverse fasi della ricostruzione stessa.

14 M.MaseraIL CALCOLO NEL 2004 Event Summary Data (ESD) ESD TPC tracker TRD trackerITS tracker ITS stand-alone TOF PHOS MUON File AllESD attualmente contribuiscono i rivelatori: ITS, TPC, TRD, TOF, PHOS and MUON. La classe ESD e` sufficiente per i seguenti canali di fisica: stranezza, charm, HBT, jets. Vertexer

15 M.MaseraIL CALCOLO NEL Event Summary Data in ALIROOT Class AliESD : //run number, event number //trigger info //primary vertex (AliESDVertex) … //array of ESD tracks //array of kinks //array of V0s //array of cascades //array of calorimeter tracks //array of MUON tracks … //and all the relations //between the above Classi legate al ESD Class AliESDtrack : //reconstruction status flags … //length, time, combined PID … //outer track params //inner track params //running/final track params … //for all the barrel detectors, //detector related info (chi2, num.of clusters, dE/dx…) AliESD, AliESDtrack, AliESDv0, AliESDcascade, AliCaloTrack, AliMUONtrack, AliESDVertex

16 M.MaseraIL CALCOLO NEL 2004 Vertexers AliVertexer AliITSVertexer AliITSVertexerIonsAliITSVertexerZAliITSVertexerFast AliESDVertex La struttura dei vertexer e degli oggetti Vertex e` stata riconfigurata nel febbraio 2004 STEER directory ITS directory Pb-Pb 3-D info for central events p-p and peripheral events NEW code Just a gaussian smearing of the generated vertex AliITSVertexerTracks High precision vertexer with rec. tracks (pp D0)

17 M.MaseraIL CALCOLO NEL pp events 5363 events with found vertex (~91%) New Z vertexer Optimization of speed It can be used also for p-A and Pb-Pb events

18 M.MaseraIL CALCOLO NEL 2004 PROGETTI LEGATI ALLE GRID EDG (European Data Grid) e` terminato con il La review finale si e` tenuta al Cern in febbraio La demo finale per HEP applications e` stata fatta da ALICE. In particolare da R. Barbera e P.G. Cerello. Per quanto il risultato della review sia stato buono, i test con il software di ALICE non sono del tutto positivi – La produzione HBT iniziata nel marzo 2003 si e conclusa a giugno con soli 450 eventi prodotti (su 5000 previsti) – La versione EDG-2 era sensibilmente migliore ma e` arrivata tardi il testimone e` passato a LCG

19 M.MaseraIL CALCOLO NEL 2004 LCG (1) LCG = LHC Computing Grid – Progetto nato al Cern (con lappoggio degli spokesman delle collaborazioni) –prepara linfrastruttura comune del sistema di calcolo per gli esperimenti ad LHC –2 fasi prototipo di testbed di produzione costruzione del sistema di calcolo per LHC PRIMO OBIETTIVO: fornire strutture e middleware per i data challenge del 2004

20 M.MaseraIL CALCOLO NEL 2004 LCG (2) Le componenti americane di Atlas e CMS hanno dichiarato di non voler registrare le loro risorse sotto EDG La tabella di marcia per le release del software non e` stata rispettata La versione LCG-2 (la prima che dovrebbe fornire tutti i servizi per il data challenge di Alice) e` stata rilasciata nel 2004 – Come conseguenza il data challenge di ALICE e` slittato di oltre un mese – La versione rilasciata ha ancora notevoli limitazioni, specialmente per quanto concerne la gestione dello storage I problemi di LCG sono preoccupanti e potrebbero avere ripercussioni sulla struttura del progetto stretto monitoring della situazione da parte dei vertici dellINFN

21 M.MaseraIL CALCOLO NEL 2004 LCG, AliEn e il Physics Data Challenge Il P.D.C. verra` effettuato usando AliEn come strumento di produzione AliEn sara usato anche come provider di servizi di Grid per le risorse di calcolo non registrate sotto LCG (e.g. farm di Catania, una farm di Torino) AliEn e` stato interfacciato con LCG (S. Bagnasco - prima milestone per il 2004 – raggiunta) – Si useranno le risorse LCG disponibili (1 farm a Torino – parte delle risorse del Tier-1) – Caveat: con LCG si usa come S.E. I test di pre-produzione sono in corso Start del data challenge: imminente

22 M.MaseraIL CALCOLO NEL 2004 CATANIA TORINO BOLOGNA CNAF PADOVA TRIESTE ROMA BARI CAGLIARI SALERNO TIER-1 TIER-2 TIER-3 I TIER di ALICE in Italia

23 M.MaseraIL CALCOLO NEL 2004 Tier3 Gran parte delle simulazioni necessarie per lo sviluppo dei detector e` svolta localmente nei Tier3 (produzioni non centralizzate) Farm di PC dislocate nelle sedi. Generalmente (ma non sempre) dedicate allesperimento – Processori Intel – OS: Linux Di solito gestite da persone di Alice In genere, le scelte tecniche adottate nei tier3 sono le medesime adottate nei centri piu` grandi

24 M.MaseraIL CALCOLO NEL 2004 CNAF TAPE LIBRARY CPU Storage su disco TORINO CATANIA 155 con 70 Mbps garantiti 34 Mbps 155 con 70 Mbps garantiti – da aprile Livelli 1 e 2 TIER1: Offre elevata capacita` di calcolo on demand Offre robotica per lo storage Connessione ad alta velocita` con il Tier-0 al CERN TIER2: Offrono buona capacita` di calcolo dedicata (o con alta priorita`) allesperimento Storage su disco Connessione ad alta velocita` con il Tier 1

25 M.MaseraIL CALCOLO NEL 2004 Tier 1 Risorsa INFN nata come centro regionale italiano per LHC + Virgo In realta` e` qualcosa di piu`: – il Cnaf e` GOC (Grid Operations Centre) per tutti i progetti Grid-related a cui partecipa lInfn (EDG, DataTag, Firb, LCG, EGEE) –Offre servizi di calcolo ad altri esperimenti: BaBar, CDF, AMS … Personale Tier-1 dedicato ad ALICE (1 fte) Contatti day-by-day gestiti dai colleghi di Alice- Bologna (M.Luvisetto)

26 M.MaseraIL CALCOLO NEL 2004 Management e Controllo Comitato dei Referee: (F. Ferroni, M. Sozzi, M. Taiuti, P. Lubrano, A. Marini, G. Salina) Comitato di Gestione: –Svolge il ruolo di gestione per lannuale programmazione dellallocazione delle risorse e delle probelmatiche di gestione. –Rappresentanti degli Esperimenti (M.Masera per Alice). Comitato Tecnico: –Coordina gli aspetti tecnici degli esperimenti con lo staff del Tier1 –Rappresentanti Tecnici degli Esperimenti (R.Barbera e M.Luvisetto per ALICE). Responsabile del Progetto e Tier1-staff.

27 M.MaseraIL CALCOLO NEL 2004 Infrastrutture E` un progetto importante che e` gia` operativo e sta passando alla nuova sede (cfr. foto slide successive) Nuova Sala Macchine da 1000 mq. Gruppo Elettrogeno 1250 KVA ed UPS 800 KVA. Gruppo Frigorifero 550 KW e Sistema di Condizionamento con: Unità di Trattamento Aria (Temperatura + Umidità) da 110 KW e Unità Locali. Sistema di alimentazione via Blindo-sbarre con corrente trifase ed alimentatori/sezionatori nei Racks. Sistema rivelazione incendi e spegnimento (gas FM200). Trasmissione Dati completata con cablatura interna (UTP e FO) ed esterna (FO Mono e Multi-modo); in corso di completamento lattestazione GARR (è realizzata temporaneamente con delle FO fra le due sale macchine). 60 Racks: 35 con power switch a controllo remoto dellaccensione e spegnimento. Consolle remota con apparati di switch KVM (tastiera, Video, Mouse) analogici e digitali (via IP) in uso.

28 M.MaseraIL CALCOLO NEL 2004 Gruppo Elettrogeno

29 M.MaseraIL CALCOLO NEL 2004 UPS

30 M.MaseraIL CALCOLO NEL 2004 Unità Trattamento Aria

31 M.MaseraIL CALCOLO NEL 2004 Gruppo Frigo

32 M.MaseraIL CALCOLO NEL 2004 Il Tier1 multiutenza Fino al 2003 venivano assegnate le risorse in maniera statica per periodi di tempo definiti. Questo non ottimizzava luso delle risorse, nonostante i tempi di passaggio da una configurazione ad unaltra fossero brevi (poche ore). Nella attuale fase, viene assegnato in maniera statica solo un massimo del 50% delle risorse e le altre devono essere accedute dinamicamente sulla base delle richieste in coda (PBS) con opportune priorità. GRID permette(ra`) un accesso trasparente ad entrambe le tipologie di risorse.

33 M.MaseraIL CALCOLO NEL 2004 Risorse HW attuali TipoDescrizioneCapacità Farm 320 biprocessori Ghz +55 Babar +48 CDF +30 LHCb 608 KSI2K +100 CDF,Babar, LHCb Disco Dischi FC, IDE, SCSI, NAS46 TB Raw RAID5+35 TB Nastri Robot L180 STK18 TB / 36 TB (comp.) 118/236 TB Robot L5500 STK 100 TB / 200 TB (comp.) Rete 14 Switch periferici (Rack)48 FE UTP + 2 GE FO 672 FE UTP 48 GE UTP 132 GE FO 2 Switch Periferici24 GE UTP + 4 GE FO 2 Core Switch96 GE FO

34 M.MaseraIL CALCOLO NEL 2004 Libreria Nastri L5500 Equipaggiata con 6 drive LTO cassette (altre 800 in arrivo)

35 M.MaseraIL CALCOLO NEL 2004 Farm 320 CPU - LCG Un rack e` in questo momento allocato ad ALICE per il Data Challenge

36 M.MaseraIL CALCOLO NEL 2004 FARM di Processori 1U dual CPU Pentium III e MHz –3GHz/CPU 2 disks GB/Node 512MB – 2GB/Node 1 or 2 FE + 2GE Switches Singola console TFT via KVM

37 M.MaseraIL CALCOLO NEL 2004 Architetture Storage Luso combinato di dischi in tecnologia IDE/SATA con Controller RAID 5 in Fibre Channel è attualmente la nostra scelta primaria. Aspetti rilevanti sono la gestibilità di sistemi da espandere fino a centinaia di TB che comportano luso di migliaia di dischi (1 PB = 4000 dischi 250 GB). In questi casi anche un MTBF di 0.2Mh x 1000 dischi risulta in un failure rate di circa un disco a settimana. Avere dischi di Hot Spare riduce i rischi di failures combinate di due o più dischi. Accesso allo storage di massa attraverso il sistema CASTOR

38 M.MaseraIL CALCOLO NEL 2004 CASTOR al CNAF 6 drive LTO 2 Fibre Channel Robot access ACSLS CASTOR STK L5500 LAN Staging Disk = 10-20% Capacità Libreria

39 M.MaseraIL CALCOLO NEL 2004 Accesso al GARR del CNAF Settimanale (media su 30 minuti) 100 Mbps di Banda Garantita su 1 Gbps di Banda di Accesso

40 M.MaseraIL CALCOLO NEL 2004 I Tier-2 Risorse in gran parte finanziate dalla CSNIII per ALICE (una parte del centro di Torino e` del progetto speciale INFN/Grid) Storage su disco: – accesso veloce per lanalisi – I file prodotti nei Tier-2 vengono replicati nel Tier-1 di riferimento MSS via CASTOR Uso attraverso: – AliEn – LCG (da sperimentare nel DCIII) – accesso diretto via queue manager (open PBS) Next slide: a titolo di esempio schema farm Torino. La farm di Catania e` di concezione simile

41 Farm di ALICE a Torino / 1 ~3 TB server TB server2 6.5 TB NAS tape library 2.5 TB (*) CPU 2 proc PIII e Xeon (da 800 MHz a 3GHz) Switch Rete esterna (70 Mb/s) Switch 1 Gbps 100 Mbps Finanziato dalla CSNIII (Server 2 e 6 biprocessori finanziati con COFIN 2000) (*) 14 nodi sono da installare – consegna imminente. Sono incluse risorse MIUR 2.6 TB serverLCG

42 M.MaseraIL CALCOLO NEL 2004 Farm di ALICE a Torino / 2 Farm CSNIII gestita da membri di Alice (M. Sitta) Soluzione H/W: – i 10 nodi piu` vecchi (quarto anno) sono PC tower – gli altri sono biprocessori rack mountable 1U – gli ultimi 14 (da installare) acquistati con fondi MIUR sono IBM blade server 14 biproc in 7U – Storage: 1 server con dischi SCSI in RAID5 in sostituzione con un server IDE+RAID5 1 NAS Procom con dischi Fiber Channel –Sistema operativo: Linux Red Hat 8 (il s/w di Alice in realta` non pone alcun requisito sul sistema operativo) –I nodi sono su una rete privata

43 M.MaseraIL CALCOLO NEL 2004 Farm di ALICE a Torino / 2 La farm costituisce un computing element e storage element di AliEn Sistema di gestione delle code: open PBS ROOT e AliRoot accessibili da tutti i nodi Gestione della tape library: – attraverso CASTOR (usata per test e backup) –Implementazione DB nastri attraverso Oracle Farm LCG gestita da personale afferente al progetto speciale (L.Gaido, S.Lusso) In programma: doppia registrazione dei W.N. sia sotto LCG che sotto AliEn

44 M.MaseraIL CALCOLO NEL 2004 Necessita` per la WAN Le connessioni dei due tier-2 con il CNAF dovrebbero essere sufficienti per il data challenge del 2004 Il data challenge fornira` unoccasione per valutare le necessita` di banda delle altre sedi Riteniamo importante potere usufruire di bandwidth on demand Il GARR ha seguito con interesse e disponibilita` i nostri test di stress della rete condotti nel 2003 Con la fase 2 di Garr-G questanno, le sedi tier-2 avranno collegamenti con il Garr di 2.5 Gps possibilita` tecnica di aumentare la banda se necessario

45 M.MaseraIL CALCOLO NEL 2004 Conclusioni Ce` un ritardo di oltre 1 mese per il P.D.C. in gran parte dovuto al ritardo di LCG P.D.C via Alien e LCG: – al CNAF – a Catania e Torino Le attivita` legate alla Grid in Alice sono prevalentemente italiane Lo stato di AliRoot e` piuttosto soddisfacente: –In generale lattenzione, anche della componente italiana, e` rivolta prevalentemente alla ricostruzione e analisi piuttosto che al core offline


Scaricare ppt "ALICE-Italia: ALICE-Italia: IL CALCOLO Massimo Masera Dipartimento di Fisica Sperimentale e INFN – Torino Bari, 25 febbraio 2004."

Presentazioni simili


Annunci Google