7-3-2007D. Martello Dip. Fisica - Lecce Sintesi piani esperimenti CSN2 CNAF 7-marzo-2007.

Slides:



Advertisements
Presentazioni simili
E835 & Hera-B Concezio Pisa, 21/12/2004. E835 (aka Jet-FNAL) timeline dell'esperimento –Presa dati conclusa nel Alcune analisi tuttora in corso.
Advertisements

Run I Distribuzione inclusive di Min Bias (Mult. Carica, Pt). Correlazioni dello stato finale ( -Mult) + mini-jet (soft hard physics). Campioni utilizzati:
23/01/01Alberto Masoni – GR1 - Roma1 I MODELLI DI CENTRI REGIONALI POSIZIONE DI ALICE ITALIA CENTRO ITALIANO: CPU 450 KSI95, DISCO 400 TB (INSIEME TIER-1.
L. Perini CSN1 -Roma 23 Gen Centri Regionali per il calcolo di ATLAS in Italia Tier-1 e Tiers-N : funzioni, localizzazione, necessita di h/w, personale.
Computing: Attività 2010 Reprocessing e ri-simulazione dati Run7 Extra-production di dati MC alla Y(4S) 10 x cross section bb e cc, 2 x cross section u.
Computing: Attività 2009 Reprocessing e ri-simulazione dati Run7 Extra-production di dati MC alla Y(4S) 10 x cross section bb e cc, 2 x cross section u.
Computing: Attività 2011 Limitate produzioni di MC e skim E il dataset finale (rel24/26) Grosso sforzo per il Long Term Data Access project: cluster di.
Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
Monitoraggio online con la mappa del tracker M.S. Mennea, G. Zito Università & INFN di Bari Riunione Consorzio – Bari 9 Settembre 2005.
SP-Grid - setup Implementazione dei servizi per la produzione al CNAF: –Integrazione tra i tool di produzione standard di BaBar (ProdTools) e gli strumenti.
Grid Computing Sergio Andreozzi. Chi è interessato ad analizzare i dati generati da LHC? Circa 5,000 scienziati –distribuiti nel mondo –appartenenti ad.
Tier1 - cpu KSI2k days ATLAS KSI2k days CMS. Tier1 - storage CASTOR disk space CMS requires: T1D0, T0D1 ATLAS requires: T1D0, T0D1 and T1D1.
1 DAQ Layout VME Readout Unit (XDAQ) TTCvi TTCex TRG BSY Builder Unit (XDAQ) Monitor (ORCA) BSY TRG CCB MiniCrate DT Chamber 1 ROB CCB MiniCrate DT Chamber.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
Alessia Tricomi Università & INFN Catania
* * Data Challenge 04 Stato dei centri di produzione in Italia.
Analysis unibo una proposta. Work flow di una tipica analisi 1.Simulazione di piccoli campioni di eventi per studio segnale 2.Generazione in grande.
COMPUTING DELLA CSN2 D. Martello Dep. Of Physics - Lecce.
6 Febbraio 2006CSN1 - Roma1 MEG : relazione dei referees P. Cenci R. Contri P. Morettini M. Sozzi.
COMPASS Gruppo 1 P.Bagnaia, P. Cenci, S. Zucchelli Roma, Maggio COMPASS : STATO ESPERIMENTO  COMPASS sta analizzando i dati 2002 e preparando il.
1 CSN1 - Lecce 22/09/2003 Babar Relazione e proposte finanziarie Referee: M. de Palma, P. Lubrano, C. Luci, L. Perini,A. Staiano.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
CSN Maggio 2005 P. Capiluppi Il Computing Model (LHC) nella realta’ italiana u I Computing models degli esperimenti LHC gia’ presentati a Gennaio.
Attivita' Grid in BaBar Workshop sulle Problematiche di Calcolo e Reti nell'INFN Maggio 2004.
1 LHCb Computing Angelo Carbone, INFN-CNAF CSN1, 21/9/06 Aggiornamento richieste Tier Richiesta Tier-2 al CNAF Stato e risultati DC06.
Federico Ruggieri Riunione CSN1 PISA 22 Giugno 2004 Il Progetto TIER1 Status Update.
27/05/2004C.Bigongiari & M.Pieraccini INFN Workshop Castiadas (CA) 1 Stato e Prospettive del Calcolo di MAGIC M ajor A tmospheric G amma I maging C herenkov.
CSN1-Assisi L.Perini1 BaBar Calcolo L. Perini per i referees: L.Perini,A.Staiano…
Alessandro Tirel - Sezione di Trieste Storage Area Network Riunione gruppo Storage Padova, 5 ottobre 2005.
3 Luglio 2006CSN1 - Catania1 MEG : relazione dei referees P. Cenci R. Contri P. Morettini M. Sozzi.
Gruppo di referaggio: Forti (chair), Bossi, Ferrari, Menasce, Morandin, Simone, Taiuti, Zoccoli TIER2: Update F. Bossi, CSN1 Trieste 7/7/05.
Tier-2 ATLAS Tier-2 Lamberto Luminari CSN1 – Roma, 10 Ottobre 2005.
Federico Ruggieri INFN-CNAF Commissione Scientifica Nazionale I Lecce 24 Settembre 2003 Il Progetto TIER1 Status Update.
Calcolo LHC Francesco Forti, Università e INFN – Pisa Per il gruppo di referaggio: F. Bossi, C. Bozzi, R. Carlin, R. Ferrari, F.F., D.Martello, M.Morandin,
CDF Calcolo Another brick in the wall Paolo Morettini CSN1 Lecce Valerio Vercesi Settembre 2003.
ATLAS Computing Model Lamberto Luminari CSN Gennaio, 2005.
26 Giugno 2007CSN1 - Frascati1 Temi di attualità nella CCR Accanto alla tradizionale attività di controllo dei finanziamenti per le infrastrutture di calcolo.
Update linea 6 (rispetto alle slides di novembre) (A. Di Virgilio, E. Milotti, G. Zavattini con contributi per queste slides di A. Nobili e G. Tino) GG/GGG:
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Lecce 30 Settembre 2015.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
1 referee-BaBar CSN I, LNF giugno 2007 RELAZIONE DEI REFEREE DI BaBar M.De Palma, C.Luci, C.Troncon, B.Gobbo(calcolo) 26 giugno 2007.
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
17 GennaioTier2 Milano G. Costa 1 17-Gennaio-2006.
Uso della rete geografica e richieste di upgrade CCR 31/3/2015 (Roma) S.Zani.
Progetto ReCaS status update Giuseppe Andronico WS CCR, Catania 28 Maggio 2014.
Aggiornamento sui lavori di ampliamento degli impianti infrastrutturali del TIER1 e stato delle risorse Cristina Vistoli – Massimiliano Fiore INFN-CNAF.
1 ALICE I ITER2 DI ALICE IN ITALIA Bologna, 6 marzo 2007 M. Masera
Referaggio TIER2 di Pisa 30 giugno 2006 Silvia Arezzini (Servizio Calcolo e Reti)
Referaggio Calcolo ATLAS II Gianpaolo Carlino INFN Napoli Catania, 12 Settembre 2012 Risorse e Richieste 2013 nei preventivi Aggiornamento in seguito all’allungamento.
Disaster Recovery Resoconto delle attività del Gruppo di Lavoro DR CCR CNAF 5-7/2/2013 S.Zani.
G. Maggi 24/1/2006 Il Progetto del TIER2 di Bari Giorgio Maggi.
KLOE - Referee Paolo Checchia, Luca Lista, Ezio Menichetti, Pierluigi Paolucci con l’aiuto sostanziale di Luca dell’Agnello, Mauro Morandin CSN1.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Catania 1 Ottobre 2014.
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
The INFN Tier-1: progetto di ampliamento Cristina Vistoli – INFN CNAF Referee Meeting Sep
ATLAS Italia – Sestri Levante, 15 Giugno 2010 G. Carlino – Richieste Run Efficiency = time for physics / total time LHC Efficiency = time with colliding.
Il calcolo per l’esperimento GERDA Luciano Pandola INFN, Laboratori del Gran Sasso Riunione della CSN2, LNF Frascati, 29 Novembre 2011.
Aggiornamento AFS R.Gomezel Commissione Calcolo e Reti Presidenza 5/10/2010-7/10/2010.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Dip. di Fisica & INFN - Univ. Del Salento
D. Martello, F. Ricci, F. Ruggieri
CALCOLO CSN B.Bertucci.
Richieste preliminari calcolo non LHC
Assegnazione risorse Stato INFN CNAF,
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
23,6% 2,8% 10,5% 22,8% 22% 18,3%.
INFN Il calcolo scientifico presso la sede INFN di Padova e di Legnaro
Transcript della presentazione:

D. Martello Dip. Fisica - Lecce Sintesi piani esperimenti CSN2 CNAF 7-marzo-2007

Obiettivi Gli obiettivi di questa review sono stati: Evidenziare: Lo status degli esperimenti Le loro richieste per il triennio Riassumere l’utilizzo del CNAF da parte degli esperimenti

Esperimenti Coinvolti Gli esperimenti di CSN2 che utilizzano il CNAF per il loro calcolo sono: AMS02, ARGO-YBJ, GLAST, MAGIC, OPERA, PAMELA, VIRGO Le problematiche e l’ordine di grandezza delle risorse necessarie per ogniuno di questi esperimenti sono molto differenti tra loro.

AMS2 L’Esperimento non è in presa dati. La messa in orbita è prevista per la primavera Nel suo modello di calcolo prevede di utilizzare il CNAF come Tier1 e localizza il proprio Tier0 presso il CERN. L’esperimento sta utilizzando il CNAF prevalentemente come un centro di calcolo e di storage dati. Status

AMS Q1Q2Q3Q4Q1Q2Q3Q4Q1Q2Q3Q4 Storage (TB) Tape (TB) CPU (kSI2k) Lancio Tabella dipendente dalla data di lancio

GLAST Status Previsto lancio ottobre 2007 Nel suo modello di calcolo prevede di utilizzare il CNAF come facility di calcolo per generare eventi MC. Colloca il proprio Tier0 presso SLAC. La simulazione avverra’ in periodi di tempo limitati (2-3 mesi) per cui le necessita’ di potenza di calcolo saranno limitate al periodo di generazione. I dati prodotti ogni anno saranno archiviati per rendere disponibile lo spazio disco per le generazioni successive.

GLAST Q1Q2Q3Q4Q1Q2Q3Q4Q1Q2Q3Q4 Storage (TB)1-210 Tape (TB) CPU (kSI2k) Lancio

MAGIC L’Esperimento è in presa dati. Nel suo modello di calcolo prevede di utilizzare il CNAF come Tier1 e di collocare il suo Tier0 presso il PIC di Barcellona (Tier1). L’esperimento sta utilizzando il CNAF prevalentemente come un centro di calcolo e di storage dati. Status L’Esperimento è in presa dati. Nel suo modello di calcolo prevede di utilizzare il CNAF come Tier1 e di collocare il suo Tier0 presso il PIC di Barcellona (Tier1). L’esperimento sta utilizzando il CNAF prevalentemente come un centro di calcolo e di storage dati. La componente italiana della collaborazione ha la responsabilita’ per la generazione degli eventi MC.

MAGIC Q1Q2Q3Q4Q1Q2Q3Q4Q1Q2Q3Q4 Storage (TB) Tape (TB) CPU (kSI2k) 20 Tabella aggiornata in questi giorni. Da definire la potenza di calcolo. Lieve ritocco dello spazio disco. CPU non aggiornata.

OPERA L’esperimento opera sta ultimando l’installazione dell’apparato. I primi neutrini da fascio sono stati rivelati nei LNGS da Opera e da altri esperimenti li in acquisizione. Il modello di calcolo di Opera si basa sull’utilizzo di un DB Oracle che sarà duplicato in tre master copy in tre centri di calcolo (Bologna-CNAF, Nagoya, CERN o Lyon). Per cui il CNAF sarà uno dei Tier0. Il numero di eventi dipende dalla quantità di background che potrà essere valutata con certezza solo durante la presa dati. Status

OPERA Il DB sara’ tutto in linea su disco. I tape serviranno per tenere un backup del DB che secondo metodologie industriali indicate dalla ORACLE deve conservare 3 versioni. La potenza di calcolo e’ quella stiamata di due server dedicati Q1Q2Q3Q4Q1Q2Q3Q4Q1Q2Q3Q4 Storage (TB) Tape (TB) CPU (kSI2k)

PAMELA-WIZARD Status Il satellite è in orbita e acquisisce dati Nel suo modello di calcolo prevede di utilizzare il CNAF come Tier0. L’esperimento sta utilizzando il CNAF prevalentemente come un centro di calcolo e di storage dati.

PAMELA-WIZARD Q1Q2Q3Q4Q1Q2Q3Q4Q1Q2Q3Q4 Storage (TB) 10 Tape (TB) CPU (kSI2k) 25 Tabella rivista dalla collaborazione in base all’effettiva rate di trasferimento dati dal satellite. Non comprimibile.

ARGO-YBJ Status L’Esperimento è in presa dati. Nel suo modello di calcolo prevede di utilizzare il CNAF come Tier0. L’esperimento sta utilizzando il CNAF prevalentemente come un centro di calcolo e di storage dati. Sta valutando la possibilità di utilizzarlo attraverso GRID per l’analisi dei dati.

ARGO-YBJ ACQ Dati Raw 5000 Hz YBJ-LaboratoryCNAF Bologna Pre-proc.Rec. Analysis Raw Root Rec Root Stream 100 Hz 35 Hz 370 GB/day80 GB/day435 GB/day

ARGO-YBJ Dati (154)GiorniTotale GBGiorniTotale TB Raw Root Rec. Root Streaming Totale:50946 CASTOR Disk Tot 90 Day Latenza Raw-YBJ 10 gg (GB)4356 Dati Raw pre-proc. 3 mesi (GB)33347 Dati Rec. 1 anno (GB) Stream 20% 1 anno (GB) Analisi (GB)05000 MC (GB) Totale TB STORAGE

ARGO-YBJ Rate Hz5000 CPU CNAF 0.66 kSi2k rate30 kSI2k 1 event0,022 kSI2k sec110 Fattore di sicurezza2 Effic.0,90 Tempo morto0,05 Tot kSI2k188 Utilizzo CPU CNAF

ARGO-YBJ Q1Q2Q3Q4Q1Q2Q3Q4Q1Q2Q3Q4 Storage (TB) 46 (20) Tape (TB) 51 (45) CPU (kSI2k) 188 (20) 188 Tabella aggiornata in base stime attuali. Maggiore necessita’ di storage in linea per sopperrire a eccessivi accessi CASTOR.

VIRGO Status L’Esperimento è in presa dati. Nel suo modello di calcolo prevede di utilizzare il CNAF come Tier1 e colloca il proprio Tier0 presso EGO di Cascina. L’esperimento sta utilizzando il CNAF sia come un centro di calcolo e di storage dati che attraverso GRID

VIRGO Cascina 6.5 MB/sec LioneCNAF OGGI Desiderata CNAFLione

VIRGO Run Time (Day)Data (TB) Prima meta Seconda meta Prima meta Seconda meta Tot (kSI2K.day) CNAF Lyon Continuous signal Coalescing Binary Burst Sources Total STORAGE CPU

VIRGO Q1Q2Q3Q4Q1Q2Q3Q4Q1Q2Q3Q4 Storage (TB) Tape (TB) CPU (kSI2k) Update a Virgo+ Analisi con LIGO Virgo+ in acq. Tabella nuovamente aggiornata in base all’accordo con LIGO e contenente una prima stima per il 2009

Tabella Riassuntiva CSN2 CPU Q1Q2Q3Q4Q1Q2Q3Q4Q1Q2Q3Q4 AMS ARGO20188 GLAST MAGIC020 OPERA PAMELA1025 VIRGO Totale G Totale no virgo

Tabella Riassuntiva CSN2 Disco Q1Q2Q3Q4Q1Q2Q3Q4Q1Q2Q3Q4 AMS22, ARGO GLAST0110 MAGIC1, OPERA PAMELA3,610 VIRGO Totale G Totale G2 No Virgo

Tabella Riassuntiva CSN2 Tape Q1Q2Q3Q4Q1Q2Q3Q4Q1Q2Q3Q4 AMS28, ARGO GLAST MAGIC1, OPERA PAMELA2, VIRGO Totale G Totale G2 No Virgo 60,

BACKUP