INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.

Slides:



Advertisements
Presentazioni simili
Fisica Subnucleare – Esperimento ATLAS
Advertisements

A.Fanfani - C.Grandi CMS Bologna 10 febbraio 2009 La nuova farm di CMS Bologna al CNAF Alessandra Fanfani Claudio Grandi.
23/01/01Alberto Masoni – GR1 - Roma1 I MODELLI DI CENTRI REGIONALI POSIZIONE DI ALICE ITALIA CENTRO ITALIANO: CPU 450 KSI95, DISCO 400 TB (INSIEME TIER-1.
L. Perini CSN1 -Roma 23 Gen Centri Regionali per il calcolo di ATLAS in Italia Tier-1 e Tiers-N : funzioni, localizzazione, necessita di h/w, personale.
Computing: Attività 2010 Reprocessing e ri-simulazione dati Run7 Extra-production di dati MC alla Y(4S) 10 x cross section bb e cc, 2 x cross section u.
Computing: Attività 2009 Reprocessing e ri-simulazione dati Run7 Extra-production di dati MC alla Y(4S) 10 x cross section bb e cc, 2 x cross section u.
Computing: Attività 2011 Limitate produzioni di MC e skim E il dataset finale (rel24/26) Grosso sforzo per il Long Term Data Access project: cluster di.
P. Capiluppi Organizzazione del Software & Computing CMS Italia I Workshop CMS Italia del Computing & Software Roma Novembre 2001.
Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
Stato del Tier2 di Atlas a Napoli Il ruolo dei Tier2 in Atlas La Federazione Italiana dei Tier2 Il Tier2 di Napoli Napoli, 21 Dicembre 2006 – A.Doria.
Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
Riunione CRESCO Infrastruttura HPC Cresco Analisi Preliminare.
Grid Computing Sergio Andreozzi. Chi è interessato ad analizzare i dati generati da LHC? Circa 5,000 scienziati –distribuiti nel mondo –appartenenti ad.
Tier1 - cpu KSI2k days ATLAS KSI2k days CMS. Tier1 - storage CASTOR disk space CMS requires: T1D0, T0D1 ATLAS requires: T1D0, T0D1 and T1D1.
Software Computing & Challenges nei Tier 2 - ATLAS - Gianpaolo Carlino INFN Napoli IV Workshop ATLAS & CMS Bologna, Novembre 2006.
LNL M.Biasotto, Bologna, 13 dicembre Installazione automatica Massimo Biasotto – INFN LNL.
Il calcolo distribuito in ATLAS
Conclusioni M. Paganoni workshop CMS Italia, Napoli 13-14/2/07.
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
1 M. Biasotto – Legnaro, 22 Dicembre 2005 Prototipo Tier 2 di Legnaro-Padova INFN Legnaro.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
Stefano Belforte INFN Trieste 1 necessita' CDF al Tier1 2 feb 2004 CDF stato e necessita Poco cambiato dal 18 Dicembre 2003.
EGEE is a project funded by the European Union under contract IST Using SRM: DPM and dCache G.Donvito,V.Spinoso INFN Bari
Alessia Tricomi Università & INFN Catania
* * Data Challenge 04 Stato dei centri di produzione in Italia.
FESR Trinacria Grid Virtual Laboratory ADAT (Archivi Digitali Antico Testo) Salvatore Scifo TRIGRID Second TriGrid Checkpoint Meeting Catania,
LNL GM, CNAF, 18 ottobre INFN-Farm Management Toolkit 1.Fabric Management per DataGrid e INFNGrid 2.Definizione dei requisiti degli esperimenti.
CSN1 – 7 febbraio 2006 Francesco Forti, INFN-Pisa per il gruppo di referaggio.
ATLAS Distributed Analysis Lamberto Luminari CSN1 – Roma, 16 Maggio 2006.
Analysis unibo una proposta. Work flow di una tipica analisi 1.Simulazione di piccoli campioni di eventi per studio segnale 2.Generazione in grande.
Test Storage Resource Manager per SC4 Giacinto Donvito Vincenzo Spinoso.
16 Maggio CSN1 Computing-Software-Analysis CMS-INFN TEAM Analisi in CMS: stato e prospettive del supporto italiano.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
Condor standard. Sistema Batch. Tool di installazione D. Bortolotti,P.Mazzanti,F.Semeria Workshop Calcolo Paestum 9-12 Giugno 2003.
LNF Farm E. V. 9/8/2006. Hardware CE, LCFG, HLR, 3 WN: DL 360 1U; SE: DL 380 2U 5 WN: BL 25 P In totale 25 jobs general purpuse (coda Atlas) + una coda.
1 LHCb Computing Angelo Carbone, INFN-CNAF CSN1, 21/9/06 Aggiornamento richieste Tier Richiesta Tier-2 al CNAF Stato e risultati DC06.
CMS 1 M. Biasotto – Bologna 20/01/2005 Infrastruttura di calcolo per CMS-Italia M.Biasotto – INFN Legnaro e i gestori dei centri CMS Italia.
ATLAS Computing Model Lamberto Luminari CSN Gennaio, 2005.
ATLAS PRIN Alessandro De Salvo A. De Salvo – 12 novembre 2015 Cloud Computing Condivisione di risorse tra gruppi EventIndex LHCONE PoD T2D.
BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015.
FESR Trinacria Grid Virtual Laboratory Rosanna Catania Rita Ricceri INFN Catania 25 Luglio 2006 Grid Monitoring: GridICE – bacct - lsload.
Tier-2 Legnaro-Padova Massimo Sgaravatto (INFN Padova) On behalf of the Legnaro-Padova T2 team Tier-2 Legnaro-Padova 1.
26 Giugno 2007CSN1 - Frascati1 Temi di attualità nella CCR Accanto alla tradizionale attività di controllo dei finanziamenti per le infrastrutture di calcolo.
Riunione PRIN STOA - Bologna - 18 Giugno 2014 Testbed del T2 distribuito Napoli-Roma Dr. Silvio Pardi INFN-Napoli Riunione PRIN STOA – Bologna 18 Giugno.
Atlas Italia - Milano, 17/11/2009 G. Carlino – News dal Computing 1 1 News dal computing Gianpaolo Carlino INFN Napoli Atlas Italia, Milano, 17/11/09 Nuovo.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 1 ATLAS Attività di TeV Attività di computing Attività di computing.
Il primo anno di presa dati di LHC L’esperienza di calcolo nell’esperimento ATLAS Attività condotte nel 2010 e prospettive future Lorenzo Rinaldi (INFN-CNAF)
Overview del middleware gLite Guido Cuscela INFN-Bari II Corso di formazione INFN su aspetti pratici dell'integrazione.
Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 1 Referaggio Tier2 ATLAS Attività di Computing 2009 Attività di Computing 2009 Stato dei.
1 Firenze, 6 Settembre 2011 G. Carlino – Relazione Referaggi Computing ATLAS Relezione Riunioni Referaggio Calcolo ATLAS Computing Model News Computing.
1 ALICE I ITER2 DI ALICE IN ITALIA Bologna, 6 marzo 2007 M. Masera
CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 1 ATLAS Referaggio Tier2 Attività di TeV Attività di TeV Richieste.
TIER-2: Risorse e tabella di marcia M.L. Ferrer. 5/12/2005 M.L. Ferrer Referaggio TIER-2 LNF 2 Presenti Calcolo: Massimo Pistoni Claudio Soprano Dael.
Referaggio Calcolo ATLAS II Gianpaolo Carlino INFN Napoli Catania, 12 Settembre 2012 Risorse e Richieste 2013 nei preventivi Aggiornamento in seguito all’allungamento.
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
Domenico Elia1CdG Tier1-Tier2 / CNAF ALICE Tier2 sites Domenico Elia CdG Tier1-Tier2 Bologna, 15 Aprile 2015  Infrastruttura e risorse, coordinamento.
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
ATLAS Italia – Sestri Levante, 15 Giugno 2010 G. Carlino – Richieste Run Efficiency = time for physics / total time LHC Efficiency = time with colliding.
1 Bari, 21 Settembre 2011 G. Carlino – ATLAS: il calcolo ATLAS: il Calcolo Attività di Computing nel 2011 Attività di Computing nel 2011 Richieste Tier2.
Il calcolo per l’esperimento GERDA Luciano Pandola INFN, Laboratori del Gran Sasso Riunione della CSN2, LNF Frascati, 29 Novembre 2011.
L’infrastruttura del progetto ReCaS Paolo Lo Re on behalf of ReCaS collaboration.
Referaggio Calcolo ATLAS Gianpaolo Carlino INFN Napoli CNAF, 11 Maggio 2012 Attività di Computing ATLAS Attività di Computing in Italia Risorse e Richieste.
L.Perini Milano: 10 Gennaio Ex-ATLAS-Grid (Tier2 incluso) l Ruolo dei Tiers in ATLAS e grid l Le persone di Milano e le attività l Le infrastrutture.
1 Computing di BaBar Fabrizio Bianchi Universita’ di Torino e INFN Sez. di Torino Roma, 20 novembre 2007.
Offline Report Finale Grid! I Corso di formazione INFN su aspetti pratici dell'integrazione di applicazioni in GRID Domenico D’Urso Roberto.
Attività Gruppo Virtualizzazione Andrea Chierici CNAF Riunione CCR
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Transcript della presentazione:

INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività di Ricerca Tecnologica Richieste e supporto I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività di Ricerca Tecnologica Richieste e supporto Light explosion in datacenter By P. Ricci

Tier-2 18/11/2011INFN-BOLOGNA-T3 L. Rinaldi2 I siti Tier-3 nel modello di calcolo di Atlas Tier-0 Tier-1 Tier-2 Tier-2D Tier-2 Tier-1 Tier-3 Cloud T0  T1 Dati primari (RAW, ESD, AOD) T0  T2 Calibration stream Trasferimenti tra le cloud Tier1  Tier1: Dati riprocessati (ESD, AOD, dESD per l’analisi) Tier 1/2  Tier2/3: Output analisi utente su storage area locale Trasferimenti nella cloud Tier1  Tier2: distribuzione nei Tier2 dei dati per l’analisi e cancellazione dal Tier1 Tier1  Tier2/3: simulazioni Monte Carlo Tier1/2  Tier2/3: Output analisi utente su storage area locale T0  T1 Dati primari (RAW, ESD, AOD) T0  T2 Calibration stream Trasferimenti tra le cloud Tier1  Tier1: Dati riprocessati (ESD, AOD, dESD per l’analisi) Tier 1/2  Tier2/3: Output analisi utente su storage area locale Trasferimenti nella cloud Tier1  Tier2: distribuzione nei Tier2 dei dati per l’analisi e cancellazione dal Tier1 Tier1  Tier2/3: simulazioni Monte Carlo Tier1/2  Tier2/3: Output analisi utente su storage area locale

18/11/2011INFN-BOLOGNA-T3 L. Rinaldi3 I siti Tier-3 nel modello di calcolo di Atlas Tier-0 (CERN)‏ Archivio dei RAW data ricevuti dal detector e distribuzione ai Tier1 Prompt Reconstruction delle calibration e express streams e dei physics streams Distribuzione output ricostruzione (ESD, AOD,TAG) ai Tier-1 Tier-0 (CERN)‏ Archivio dei RAW data ricevuti dal detector e distribuzione ai Tier1 Prompt Reconstruction delle calibration e express streams e dei physics streams Distribuzione output ricostruzione (ESD, AOD,TAG) ai Tier-1 Tier-2 Simulazione Monte Carlo Archivio di una frazione di AOD e TAG data Archivio dati utenti Analisi utente e di gruppo e sviluppo di codice Calibrazione e allineamento per sub-detectors di interesse locale Tier-2 Simulazione Monte Carlo Archivio di una frazione di AOD e TAG data Archivio dati utenti Analisi utente e di gruppo e sviluppo di codice Calibrazione e allineamento per sub-detectors di interesse locale Tier-3 Analisi locale e sviluppo di codice Archivio dati utenti (produzione e simulazione) Tier-3 Analisi locale e sviluppo di codice Archivio dati utenti (produzione e simulazione) Tier-1 Accesso a lungo termine e archivio su tape di un subset di RAW data Copia dei RAW data di un altro Tier-1 Reprocessing della ricostruzione dei propri RAW data con parametri di calibrazioni e allineamenti finali e distribuzione AOD ai Tier-2 Archivio su disco di tutti gli AOD e TAG data e di una frazione di ESD data Archivio dati simulati prodotti nei Tier-2 Simulazione Monte Carlo Analisi di gruppo Tier-1 Accesso a lungo termine e archivio su tape di un subset di RAW data Copia dei RAW data di un altro Tier-1 Reprocessing della ricostruzione dei propri RAW data con parametri di calibrazioni e allineamenti finali e distribuzione AOD ai Tier-2 Archivio su disco di tutti gli AOD e TAG data e di una frazione di ESD data Archivio dati simulati prodotti nei Tier-2 Simulazione Monte Carlo Analisi di gruppo

18/11/2011INFN-BOLOGNA-T3 L. Rinaldi4 Configurazione del sito INFN-BOLOGNA-T3 Sito co-locato al Tier1 del CNAF Stessa infrastruttura (elettricità, cooling, … ) Stessa rete (connessione esterna 20Gb) Sito utilizzato da Atlas, CMS e LHCb condivisione di Computing Element, Storage Element, servizi grid Storage partizionato per esperimento, Worker Nodes condivisi Storage: 150 TB su sistema StoRM/GPFS File System Farm: 39 Worker Nodes 8-core di ultima generazione con batch system LSF Sito co-locato al Tier1 del CNAF Stessa infrastruttura (elettricità, cooling, … ) Stessa rete (connessione esterna 20Gb) Sito utilizzato da Atlas, CMS e LHCb condivisione di Computing Element, Storage Element, servizi grid Storage partizionato per esperimento, Worker Nodes condivisi Storage: 150 TB su sistema StoRM/GPFS File System Farm: 39 Worker Nodes 8-core di ultima generazione con batch system LSF

18/11/2011INFN-BOLOGNA-T3 L. Rinaldi5 Attività di produzione e analisi (GRID) Status delle code di analisi dei T3 italiani Code testate con software HammerCloud (invio costante di jobs di tipo analisi) La coda viene esclusa automaticamente se ci sono 3 fallimenti consecutivi in un’ora Monitor costante. In caso di problemi, vengono inviate alert- Status delle code di analisi dei T3 italiani Code testate con software HammerCloud (invio costante di jobs di tipo analisi) La coda viene esclusa automaticamente se ci sono 3 fallimenti consecutivi in un’ora Monitor costante. In caso di problemi, vengono inviate alert- Atlas SiteStatusBoard

18/11/2011INFN-BOLOGNA-T3 L. Rinaldi6 Attività di produzione e analisi (GRID) WCT (K sec) Da Ottobre: modifica share tra produzione e analisi Da Ottobre: modifica share tra produzione e analisi Mancano jobs local (bsub)!!

18/11/2011INFN-BOLOGNA-T3 L. Rinaldi7 Attività di produzione e analisi (GRID) Share di utilizzo delle risorse (tempo di running dei jobs) fra i tier-3 della cloud italiana T3-BO è il più performante in Italia (media giugno-novembre) Share di utilizzo delle risorse (tempo di running dei jobs) fra i tier-3 della cloud italiana T3-BO è il più performante in Italia (media giugno-novembre) Share di tutti i siti della cloud italiana BO-T3 detiene il 3% (T1+T2s = 93%) Share di tutti i siti della cloud italiana BO-T3 detiene il 3% (T1+T2s = 93%)

18/11/2011INFN-BOLOGNA-T3 L. Rinaldi8 Traffico dati e utilizzo del disco Site ▾ Used(GB)Free(GB)Total(GB)% HOTDISK (DBReleases) LOCALGROUPDISK (permanent storage) PRODDISK (output jobs production) SCRATCHDISK (output jobs analysis) TRAFFICO IN ENTRATA TRAFFICO IN USCITA Occupazione spazio disco

18/11/2011INFN-BOLOGNA-T3 L. Rinaldi9 Attività di analisi (LOCAL) Numero di jobs in locale (Include jobs CMS) Numero di jobs in locale (Include jobs CMS) Job eff. CPT/WCT e utilizzo delle risorse locali (WCT)

18/11/2011INFN-BOLOGNA-T3 L. Rinaldi10 Attività di Ricerca Tecnologica Abstract per conferenza CHEP2012: Exploiting the WNoDeS framework to support local communities at the CNAF Computing Center WNoDeS: piattaforma per instanziazione di macchine virtuali, sviluppato al CNAF Ottimizzazione e test con diverse modalità di accesso ai dati da VM Sviluppo e test di applicazioni su WNoDeS Virtual Interactive Pool (VIP) interface (CMS) Test di PROOF-on-Demand su piattaforme WNoDeS (creazione dinamica di farm virtuali per applicazioni di calcolo parallelo ottimizzate per l’analisi dati) Abstract per conferenza CHEP2012: Exploiting the WNoDeS framework to support local communities at the CNAF Computing Center WNoDeS: piattaforma per instanziazione di macchine virtuali, sviluppato al CNAF Ottimizzazione e test con diverse modalità di accesso ai dati da VM Sviluppo e test di applicazioni su WNoDeS Virtual Interactive Pool (VIP) interface (CMS) Test di PROOF-on-Demand su piattaforme WNoDeS (creazione dinamica di farm virtuali per applicazioni di calcolo parallelo ottimizzate per l’analisi dati)

18/11/2011INFN-BOLOGNA-T3 L. Rinaldi11 Attività di Ricerca Tecnologica Test HammerCloud (standard analisi su MC) su due code con nodi reali e virtuali, Accesso ai dati senza copia sul nodo locale, file system montato sul nodo Macchine virtuali mediamente 10% meno performanti, in programma test per ridurre il gap Calo delle performance delle VM compensato da maggiore flessibilità nell’uso delle risorse (es. T1 + T3  maggior numero di VM a disposizione degli utenti) Test HammerCloud (standard analisi su MC) su due code con nodi reali e virtuali, Accesso ai dati senza copia sul nodo locale, file system montato sul nodo Macchine virtuali mediamente 10% meno performanti, in programma test per ridurre il gap Calo delle performance delle VM compensato da maggiore flessibilità nell’uso delle risorse (es. T1 + T3  maggior numero di VM a disposizione degli utenti) Macchine reali Macchine virtuali

18/11/2011INFN-BOLOGNA-T3 L. Rinaldi12 Richieste e Supporto Per richieste (installazioni) e segnalazioni di problemi sulle macchine Contattare Per problemi specifici atlas/grid/panda/DQ2 Usare le liste Lavori in corso: o Priorità nelle code: riservate 4 slot per jobs interattivi (bsub) abilitazione del ruolo atlas/it (automatico quando si inizializza il proxy) incrementare priorità dei job “italiani” e limitazione sui jobs altri utenti o Monitoring (mancano le statistiche di utilizzo grid vs local e per singoli exp) o Migrazione progressiva ad ambiente virtuale (da concordare con CNAF e altri esperimenti) Grazie a tutti gli utenti per le continue interazioni, fondamentale per configurare il sito in base alle esigenze degli utenti Per richieste (installazioni) e segnalazioni di problemi sulle macchine Contattare Per problemi specifici atlas/grid/panda/DQ2 Usare le liste Lavori in corso: o Priorità nelle code: riservate 4 slot per jobs interattivi (bsub) abilitazione del ruolo atlas/it (automatico quando si inizializza il proxy) incrementare priorità dei job “italiani” e limitazione sui jobs altri utenti o Monitoring (mancano le statistiche di utilizzo grid vs local e per singoli exp) o Migrazione progressiva ad ambiente virtuale (da concordare con CNAF e altri esperimenti) Grazie a tutti gli utenti per le continue interazioni, fondamentale per configurare il sito in base alle esigenze degli utenti

18/11/2011INFN-BOLOGNA-T3 L. Rinaldi13

18/11/2011INFN-BOLOGNA-T3 L. Rinaldi14 Back Up