L. Perini CSN1 -Roma 23 Gen 2001 1 Centri Regionali per il calcolo di ATLAS in Italia Tier-1 e Tiers-N : funzioni, localizzazione, necessita di h/w, personale.

Slides:



Advertisements
Presentazioni simili
MODALITÀ E CONDIZIONI OPERATIVE
Advertisements

ECTS: la conversione dei voti Maria Sticchi Damiani Parte IV Conservatorio di Musica “N. Paganini” Genova, 2 maggio
Gestione della memoria centrale
E835 & Hera-B Concezio Pisa, 21/12/2004. E835 (aka Jet-FNAL) timeline dell'esperimento –Presa dati conclusa nel Alcune analisi tuttora in corso.
Run I Distribuzione inclusive di Min Bias (Mult. Carica, Pt). Correlazioni dello stato finale ( -Mult) + mini-jet (soft hard physics). Campioni utilizzati:
1 ALLEGATI RIFERITI A POSTE DI BILANCIO REPORT ED INFORMAZIONI EXTRA BILANCIO UNIVERSITÀ DEGLI STUDI DI GENOVA DIREZIONE AMMINISTRATIVA Dati al 11 Dicembre.
Esercitazione Mesimex Rischio Vesuvio ottobre 2006 ATTIVITA A CURA DELLE REGIONI.
Inferenza Statistica Le componenti teoriche dell’Inferenza Statistica sono: la teoria dei campioni la teoria della probabilità la teoria della stima dei.
Considerazioni sullinserimento dei giovani nellINFN Gruppo di lavoro: S. Falciano, A. Kievsky, S. Leone e il rappresentante nazionale: E. Vigezzi Assemblea.
23/01/01Alberto Masoni – GR1 - Roma1 I MODELLI DI CENTRI REGIONALI POSIZIONE DI ALICE ITALIA CENTRO ITALIANO: CPU 450 KSI95, DISCO 400 TB (INSIEME TIER-1.
rendicontazione delle Aziende Sanitarie
Identificazione delle attività
P.Capiluppi I Workshop CMS Italia del Computing & Software Roma Novembre 2001 Qualche conclusione e pianificazione per il prossimo futuro.
CONVENZIONE FONDOSVILUPPO – ICCREA BANCA
Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
Outlook La produzione in GT di gap e camere va avanti secondo il programma (una o due figure) Pavia, HT e Bari sono operativi a pieno regime(una o due.
Aspetti critici rete LAN e WAN per i Tier-2
Zeus proposte di asseganzione in corso danno Sebastiano Albergo Giovanni Chiefari Raffaello Dalessandro CSN1 - Pisa 21 Giugno 2004.
Economia politica II – Modulo di Macroeconomia
Lezione 8 La valutazione dello scarto per “fuori tolleranza”
Mercato Privati CAMPAGNE COMMERCIALI PRODOTTI CORRIERE ESPRESSO NAZIONALE ED INTERNAZIONALE MODALITÀ E CONDIZIONI OPERATIVE.
Grid Computing Sergio Andreozzi (INFN-CNAF). A chi interessano i dati prodotti da LHC? Circa 5,000 scienziati –sparsi nel mondo –appartenenti ad istituzioni/università
Grid Computing Sergio Andreozzi. Chi è interessato ad analizzare i dati generati da LHC? Circa 5,000 scienziati –distribuiti nel mondo –appartenenti ad.
Tier1 - cpu KSI2k days ATLAS KSI2k days CMS. Tier1 - storage CASTOR disk space CMS requires: T1D0, T0D1 ATLAS requires: T1D0, T0D1 and T1D1.
Istituto Nazionale di Fisica Nucleare Roma,12 febbraio 2001 Netgroup meeting Situazione attuale e attivita futura - R.Gomezel 1 Netgroup meeting Situazione.
1 Riunione Testbed - 17 gennaio Agenda - stato del testbed di INFN-GRID (L. Gaido) - le risorse del CNAF (A. Italiano) - report sullo stress test.
Il calcolo distribuito in ATLAS
Conclusioni M. Paganoni workshop CMS Italia, Napoli 13-14/2/07.
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
1 Istituto Comprensivo Jesi Centro dal vecchio al nuovo Assemblea dIstituto 29/11/2005 A cura della RSU: Gigli Lorella - Romagnoli Elisiana I dati dellIstituto.
AssegnatoSpesoDisponibile (fino al 17/5/04) = 6 k Spesa prevista (Giugno-Dic.) = 6 k x 7 mesi = 42 k Previsto – disponibile = 22 k Necessari 22.
Alessia Tricomi Università & INFN Catania
* * Data Challenge 04 Stato dei centri di produzione in Italia.
La ricostruzione della carriera del personale della scuola:
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
CSN1 – 7 febbraio 2006 Francesco Forti, INFN-Pisa per il gruppo di referaggio.
Analysis unibo una proposta. Work flow di una tipica analisi 1.Simulazione di piccoli campioni di eventi per studio segnale 2.Generazione in grande.
Manutenzioni e Mezzi di Calcolo Paolo Morettini – INFN Genova Valerio Vercesi – INFN Pavia CSN1 - Catania Settembre 2002.
Costo per l’Upgrade del Tracker di ATLAS G. Darbo - INFN / Genova Roma 1, 10 Gennaio 2006 Costo per l’Upgrade del Tracker di ATLAS G. Darbo - INFN / Genova.
CCR 14-15/03/2006 Status Report Gruppo Storage CCR.
21 Settembre 2004CSN1 - Assisi1 MEG : relazione dei referees G. Carugno P. Cenci R. Contri P. Morettini.
AFS Working Group R.Gomezel CCRWS Verso la sfida di LHC Otranto (Lecce), 6-9 Giugno 2006.
L. Perini Riunione CSN1, Frascati Il Calcolo di CDF: Relazione dei referees Fabrizio Gagliardi, Laura Perini e Valerio Vercesi.
L. Perini Riunione CSN1, Catania Il Calcolo di CDF: Relazione dei referees Laura Perini e Valerio Vercesi.
3 Aprile CSN1 P. Capiluppi Tier2 CMS Italia.
1 CSN1 - Lecce 22/09/2003 Babar Relazione e proposte finanziarie Referee: M. de Palma, P. Lubrano, C. Luci, L. Perini,A. Staiano.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
1 LHCb Computing Angelo Carbone, INFN-CNAF CSN1, 21/9/06 Aggiornamento richieste Tier Richiesta Tier-2 al CNAF Stato e risultati DC06.
Perugia - 12 novembre 2002 M. Morandin - INFN Padova Budget calcolo Babar 2003 e contributo INFN.
CSN1-Assisi L.Perini1 BaBar Calcolo L. Perini per i referees: L.Perini,A.Staiano…
Tier-2 Tier-2 ATLAS (Osservazioni sulla proposta dei referee del calcolo LHC) Lamberto Luminari CSN1 – Roma, 3 Aprile 2006.
Calcolo esperimenti LHC 2004 F. Ferroni, P. Lubrano, A. Martin, M. Morandin, M. Sozzi.
6/4/2004 S. Patricelli - CSN1 - Roma 1 Preparazione RRB di Aprile Addendum al MoU per HLT/DAQ (CERN-RRB )* Consuntivi 2003 M&O (CERN-RRB
Gruppo 1 - Catania 16/09/2002 – R. Fantechi, P. Lubrano, S. Zucchelli (R. Fantechi, P.Lubrano, L. Perini per il calcolo) KLOE - Richieste aggiuntive 2002.
CDF Calcolo Another brick in the wall Paolo Morettini CSN1 Lecce Valerio Vercesi Settembre 2003.
24 Sett. 04Totem -Relazione dei referee1 CSN1 - Assisi 24/09/2004 TOTEM Relazione e proposte finanziarie Referee: G: Chiefari, M. Curatolo, M. de Palma.
26 Giugno 2007CSN1 - Frascati1 Temi di attualità nella CCR Accanto alla tradizionale attività di controllo dei finanziamenti per le infrastrutture di calcolo.
D. Martello Dip. Fisica - Lecce Sintesi piani esperimenti CSN2 CNAF 7-marzo-2007.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Lecce 30 Settembre 2015.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
Centralizzazione del servizio di posta elettronica per l’INFN ─ INTEGRAZIONE ─ Ombretta Pinazza Per il Gruppo Mailing CCR, Marzo 2008.
ATLAS e CMS Relazione dei referees A. Cardini, M. Grassi, G. Passaleva, A. Passeri, V.Vagnoni.
17 GennaioTier2 Milano G. Costa 1 17-Gennaio-2006.
19/4/2013 D. Menasce, M. Serra - Referaggio Progetti INFRA e WLCG 1.
Stato e previsione rete nelle sedi INFN Survey ed ipotesi di sviluppo fino al 2018 CCR 8-10 Settembre 2018 (Roma) 1 S.Zani (Netgroup)
Referaggio TIER2 di Pisa 30 giugno 2006 Silvia Arezzini (Servizio Calcolo e Reti)
Referaggio Calcolo ATLAS II Gianpaolo Carlino INFN Napoli Catania, 12 Settembre 2012 Risorse e Richieste 2013 nei preventivi Aggiornamento in seguito all’allungamento.
L.Perini Milano: 10 Gennaio Ex-ATLAS-Grid (Tier2 incluso) l Ruolo dei Tiers in ATLAS e grid l Le persone di Milano e le attività l Le infrastrutture.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Transcript della presentazione:

L. Perini CSN1 -Roma 23 Gen Centri Regionali per il calcolo di ATLAS in Italia Tier-1 e Tiers-N : funzioni, localizzazione, necessita di h/w, personale

L. Perini CSN1 -Roma 23 Gen Validita delle stime presentate: h/w Le stime per ATLAS globale sono tratte dai rapporti preliminari discussi correntemente nella CERN Computing Review in corso di conclusione. I rapporti non sono ne pubblici, ne finali: sono educated guess di un membro dei panels (LP); ci potrebbero essere variazioni nel rapporto finale (ma non credo >20%). Da tenere comunque conto extra incertezza su estrapolazione costi 2006

L. Perini CSN1 -Roma 23 Gen Validita delle stime: persone e infrastrutture Le stime per il personale sono ancora preliminari, in particolare: –Le stime di F.Ruggieri per il Tier-1 sono assunte, senza che ATLAS Italia le abbia ancora discusse (come dovra fare) –Le valutazioni dettagliate per come coprire le necessitadelle sedi con funzioni di Tier-2 a regime devono ancora essere fatte Nessuna stima e finora stata fatta per quanta riguarda eventuali infrastrutture aggiuntive per Tier-2 in particolare.

L. Perini CSN1 -Roma 23 Gen ATLAS Data Size Raw Data (anche generati con MC) 2 MB/evento. La stima originale era 1 MB e si sta cercando di riavvicinarsi a 1 MB. ESD, Event Summary Data, output della ricostruzione 500 KB/evento AOD, Analysis Object Data, formato "pubblico" di analisi 10 KB/evento DPD, Derived Physics Data, formato privato di analisi, tipo ntupla, 1 KB/evento

L. Perini CSN1 -Roma 23 Gen CPU ATLAS CPU per ricostruire un evento 640 SpecInt95*sec CPU per simulare un evento 3000 SpecInt95*sec CPU per generare AOD di un evento 25 SpecInt95*sec CPU per generare DPD di un evento 5 SpecInt95*sec CPU per analizzare AOD o DPD di un evento 3 SpecInt95*sec

L. Perini CSN1 -Roma 23 Gen ATLAS RC: Considerazioni generali La decisione se avere anche dei Tier-2 oltre che un Tier-1 e' lasciata ai singoli paesi: US e UK hanno gia' deciso per una presenza importante di Tier-2 (in US ~50% della CPU), mentre Germania e forse Francia sono orientate a non avere Tier-2. Nella stima risorse per ATLAS il limite inferiore dell'intervallo e' dato dalla valutazione per 270 Hertz e 2 MB; quello inferiore corrisponde ai valori originali 100 Hertz e 1 MB.

L. Perini CSN1 -Roma 23 Gen Funzioni dei diversi Tier in Italia In linea con le posizioni di ATLAS internazionale, si assegna in esclusiva al Tier1 tutto cio' che ha Raw come input (reprocessing etc.) e tutto cio' che ha ESD come input. I Tier2 hanno storage completo degli AOD, e sono usati per l'analisi e la produzione MC. I Tier3 producono MC nei cicli spare e storano i dati che servono per le analisi "locali". La suddivione dettagliata delle funzioni Tier1/2 e Tier2/3 sara' determinata dopo i 3 anni di sperimentazione GRID.

L. Perini CSN1 -Roma 23 Gen Siti dei diversi Tiers Per il Tier-1 si assume un RC unico multiesperimento localizzato al CNAF (proposta F. Ruggieri) Per la fase disperimentazione prevediamo 2-3 siti in sezioni ATLAS per studiare le funzionalita' Tier2 (in rapporto a quelle Tier1 e Tier3). Siti: Roma1 e Milano (Lecce forse presenteraanche sua candidatura, da discutersi poi in ATLAS) Il numero finale di Tier2 di ATLAS in Italia sara' probabilmente o 1 o 2, ma l'opzione 0 e' ancora aperta.

L. Perini CSN1 -Roma 23 Gen Stima risorse h/w ATLAS globale (1) CPU per Tier-0 al CERN + insieme di tutti i Tier-1 e Tier-2: K SI-95 CPU nelle installazioni puramente locali (Tier-3,4): K SI- 95 Esistono anche stime considerevolmente piu' elevate, che potrebbero fare salire perfino di un 25% la stima globale della CPU di ATLAS Indicativamente ci si aspetta che la CPU sia suddivisa ~1/3 al CERN, ~1/3 nei Tier-1 fuori del CERN e ~1/3 nei Tier-2,3 etc. CPU al CERN 506 K SI-95. Questa cifra suppone che tutta la prima produzione dei Raw Data acquisiti e un completo re-processing (della durata di 3 mesi) si svolgano al CERN.

L. Perini CSN1 -Roma 23 Gen Stima risorse h/w ATLAS globale (2) Disco in un Tier-1 (compresi eventuali Tier-2 satelliti): TB. Questo valore e' dominato dal 35% degli ESD che si suppone di mantenere sempre su disco e che ammontano da soli a TB. Disco globale per ATLAS (esclusi Tier-3,4 e calcolando CERN + 6 Tier-1 come sopra): PB Nastri (archivio) in un Tier-1 ( compresi eventuali Tier-2 satelliti): TB Nastri global per ATLAS (esclusi Tier-3,4 e calcolando CERN + 6 Tier-1 come sopra): PB

L. Perini CSN1 -Roma 23 Gen Stima risorse h/w ATLAS globale (3) Valutazione del costo del sistema al CERN (fatta utilizzando le stime di PASTA e assumendo di acquistare rispettivamente il 30, 30 e 40% del totale negli anni 2005,6,7): 24 MCHF (nella configurazione 270 Hertz e 2 MB) suddivisi in ~10.7 per CPU ~2 per disco ~11.2 per nastro. Valutazione del costo di un "tipico Tier-1" (assumendo che ognuno ospiti 1/6 della CPU non-CERN = 209 K SI-95, e con le stesse assunzioni sui costi fatte sopra): 8.5 MCHF

L. Perini CSN1 -Roma 23 Gen Stima per ATLAS in Italia Si assume l'ipotesi 270 Hertz e 2 MB. La consistenza della parte italiana di ATLAS si puo' stimare in 10-11% della collaborazione totale. Sembra percio' coerente richiedere di installare in Italia (in totale : Tier-1,2,3,4) CPU ~250 K SI-95 (~4 MCHF) Disco ~400 TB (~ 1.7 MCHF) Nastro ~2PB (~3.3 MCHF)

L. Perini CSN1 -Roma 23 Gen Suddivisione h/w nei Tiers a regime CPU: ~50 K SI-95 nei Tier-3 ( da 4 a 10 K SI-95 per ciascuno a seconda della dimensione) ; ~200 nell'insieme Tier-1,2 riservando comunque almeno ~140 K SI-95 al Tier-1 Disco: almeno ~ 300 TB per il Tier-1 e almeno ~30 TB nell'insieme dei Tier-3. Nastri: almeno ~1.6 PB nel Tier-1. ATLAS prevede di usare i nastri come archivio esclusivamente i quindi non ritiene necessario "full MSS system" neppure nei Tier-1. Si studiera' la possibilita' di concentrare l'archivio su Tier-1,2 liberando cosi' i Tier-3 da questa necessita'.

L. Perini CSN1 -Roma 23 Gen Personale Le esigenze di personale "s/w experts", sia per il supporto al s/w specifico di esperimento, sia per il supporto ai fisici-utenti, relativo sempre al s/w specifico di ATLAS, e' valutabile in ~6-8 FTE. Questo personale dovra' essere attivamente coinvolto nella fase di sviluppo s/w dell'esperimento, nei prossimi anni, in modo da poter poi svolgere efficientemente il ruolo di supporto (il discorso vale anche per parte dei ~20 tecnologi di supporto non-esperimento- specifico destinati a regime al Tier-1 per tutto LHC, secondo le stime F.Ruggieri). Attualmente sono in servizio solo 2 esperti s/w di questo tipo in ATLAS, con posizioni temporanee. Da 4 a 6 ulteriori FTE devono quindi essere acquisiti, preferibilmente nei prossimi 2 anni, e restare in ATLAS.

L. Perini CSN1 -Roma 23 Gen Personale: collocazione ATLAS s/w esperts A regime 1-2 FTE ATLAS s/w experts dovranno essere collocati presso il Tier-1, ma la maggior parte dovra' mantenere uno stretto contatto con i fisici impegnati nell'esperimento. La struttura Tier-2 potrebbe fornire un buon bilanciamento fra la necessita' di contatto con i fisici e l'esigenza di efficienza che porta ad un certo grado di centralizzazione in alcune delle attivita' di supporto s/w.

L. Perini CSN1 -Roma 23 Gen Suddivisione personale sistemistico Distinti dai s/w experts citati sopra, ma le persone fisiche possono anche in certi casi essere le stesse: –Per il Tier-1 si concorda in prima approssimazione con le valutazioni fatte nel documento di Federico Ruggieri: 10 per tutto LHC – Per un Tier-2 si valuta che serviranno FTE comprendendo anche qualche competenza s/w non-ATLAS specifica –Per un Tier-3 l'esigenza non dovrebbe eccedere ~0.5 FTE Per ogni Tier-2 si valuta che saranno necessari a regime ~1-1.5 FTE aggiuntivi rispetto al personale attualmente reperibile nelle sedi interessate.

L. Perini CSN1 -Roma 23 Gen Localizzazione Tiers A regime si puo' ritenere che tutte le sezioni ATLAS saranno sede di un Tier-3. Nella fase di sperimentazione le sezioni che intendono svolgere questo ruolo sono: Genova, Lecce, Napoli, Pavia, Pisa, Roma2. Le sezioni di Milano e Roma1 intendono svolgere il ruolo di Tier-2 per la fase di sperimentazione. La sezione di Lecce stima di avere le risorse di personale sufficienti ad assumere anche il ruolo di Tier-2 per la fase di sperimentazione e sta prendendo in considerazione la possibilita' di candidarsi a questo ulteriore ruolo.

L. Perini CSN1 -Roma 23 Gen Resorse per la fase di sperimentazione A fine sperimentazione (seconda meta' del ?) si valuta che le risorse necessarie in Italia saranno aprossimativamente il 10% di quelle a regime: –CPU: ~20-25 K SI-95 (corrispondenti a ~ biprocessori): ~50-60% nel Tier-1, 4-6 K SI-95 nei 2-3 Tier-2 ( con –2-2.5 ciascuno, equivalenti a biprocessori). In ciascuno dei 5-6 Tier-3 andrebbero K SI-95 ( da 3-5 biprocessori) a seconda dell'utenza locale. –Disco: ~30 TB di cui ~15 TB al Tier-1, ~1 TB per ogni Tier-3, ~3-4 TB per ogni Tier-2. –Nastro ~ 60 TB, distribuiti come il disco.

L. Perini CSN1 -Roma 23 Gen Sistemisti per la fase sperimentazione Personale sistemistico (esluso Tier-1): per un Tier-3 si valuta sufficiente 20-30% di FTE, per un Tier-2 si valuta un'esigenza di ~0.5-1 FTE. Questo livello di personale personale sembra gia presente all'interno dei servizi calcolo delle sezioni interessate.

L. Perini CSN1 -Roma 23 Gen Conclusioni Il Tier-1 e un pezzo fondamentale del calcolo di ATLAS, anche nella fase dei prototipi, coperta da INFN-GRID ATLAS (come gli altri esperimenti) deve potere esercitare sul Tier-1 una forte azione di steering e controllo (piu stile consiglio amministrazione che non comitato utenti) Deve essere preparato in tempi brevi, con forte ruolo degli esperimenti, un progetto per le risorse, funzioni e gestione del Tier-1 e loro sviluppo temporale, che si integri nel piano di prototipi dei RCs per LHC previsto in INFN-GRID