Analysis unibo una proposta
Work flow di una tipica analisi 1.Simulazione di piccoli campioni di eventi per studio segnale 2.Generazione in grande scala di eventi 3.Selezione di dati reali 4.Analisi finale (istogrammi, fit, …) 1 e 4: uso di risorse locali 2 e 3: uso di risorse grid
Work flow di una tipica analisi 1.Simulazione di piccoli campioni di eventi per studio segnale – Software athena, database: risorse disponibili al Tier1 2.Generazione in grande scala di eventi – Tier1 e Tier2, skimming dati ESD e AOD 3.Selezione di dati reali – Tier1 e Tier2, skimming dati ESD, dESD e AOD 4.Analisi finale – Campione di dati (DPD, ntuple), proof, file system parallelo tipo GPFS/LUSTRE
Configurazione grid della farm Sviluppo software in ambiente athena e test su grid Analisi (interattiva) eventi ATLAS su eventi selezionati da jobs grid Software e DB si possono usare risorse del cnaf Organizzazione storage: Consigliabile file system parallelo con accesso grid (GPFS-StoRM) Occorre definire due space token (aree logiche): SCRATCHDISK: per contenere output dei job locali LOCALGROUPDISK: conservazione permanente dati analisi Rete interna: consigliabile avere link multi-gigabit (10Gb/s) Farm root/proof: cluster virtuale (da capire con aiuto farming cnaf)
Tabù: sito Tier 3 In atlas non c’è un modello ufficiale di Tier3 Esistono diverse tipologie di T3, basate sulle esperienze dei singoli siti In Italia c’è genova, roma3, trieste Altri siti in sviluppo (milano, roma1,roma2,pisa,napoli, bologna?) Esiste un coordinamendo ATLAS e un coordinamento ATLAS-IT Disponibile buona documentazione e supporto da altri siti