ALICE Computing Readiness Workshop Tier-2 CNAF Jan 17-18, 2008 - 1 ALICE Computing Readiness 1) ALICE Italia: Persone & organizzazione 2) Test & commisioning.

Slides:



Advertisements
Presentazioni simili
EGEE is a project funded by the European Union under contract IST Test di performance su dCache G.Donvito,V.Spinoso INFN Bari
Advertisements

23/01/01Alberto Masoni – GR1 - Roma1 I MODELLI DI CENTRI REGIONALI POSIZIONE DI ALICE ITALIA CENTRO ITALIANO: CPU 450 KSI95, DISCO 400 TB (INSIEME TIER-1.
Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
Aspetti critici rete LAN e WAN per i Tier-2
Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
La facility nazionale Egrid: stato dell'arte Egrid-Team Trieste, 9 ottobre 2004.
INFN-GRID WP1 20 novembre 2000 Sperimentazione GridFTP Luciano Gaido 1 Progetto INFN-GRID Sperimentazione GridFTP Riunione WP1 (GLOBUS) Cnaf, 20 novembre.
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
1 M. Biasotto – Legnaro, 22 Dicembre 2005 Prototipo Tier 2 di Legnaro-Padova INFN Legnaro.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
Architettura di storage ad alta affidabilita e bilanciamento di carico per volumi centrali e di esperimento A.Brunengo, M.Corosu INFN Sezione di Genova.
Riunione CCR 20/10/2005 Gruppo Storage Relazione attivita primo semestre 2005 e pianificazione 2006 Alessandro Brunengo.
EGEE is a project funded by the European Union under contract IST Using SRM: DPM and dCache G.Donvito,V.Spinoso INFN Bari
* * Data Challenge 04 Stato dei centri di produzione in Italia.
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
Analysis unibo una proposta. Work flow di una tipica analisi 1.Simulazione di piccoli campioni di eventi per studio segnale 2.Generazione in grande.
CCR 14-15/03/2006 Status Report Gruppo Storage CCR.
Test Storage Resource Manager per SC4 Giacinto Donvito Vincenzo Spinoso.
Francesco M. Taurino 1 NESSUS IL Security Scanner.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
L. Servoli - CCR Roma 15 marzo Il progetto High Availability D. Salomoni - CNAF L. Servoli - INFN Perugia.
Workshop CCR Otranto - giugno 2006 Gruppo storage CCR Status Report Alessandro Brunengo.
Alessandro Tirel - Sezione di Trieste Storage Area Network Riunione gruppo Storage Padova, 5 ottobre 2005.
Grid nelle sezioni: Milano Luca Vaccarossa INFN – Sezione di Milano Workshop sulle Problematiche di Calcolo e Reti nell'INFN.
CMS 1 M. Biasotto – Bologna 20/01/2005 Infrastruttura di calcolo per CMS-Italia M.Biasotto – INFN Legnaro e i gestori dei centri CMS Italia.
La Farm di Alice a Torino Workshop sulle problematiche di calcolo e reti Isola d’Elba 6-9 maggio 2002 Mario Sitta (Università del Piemonte Orientale e.
LNL CMS M.Biasotto, Bologna, 28 maggio Upgrade farm a RH-7.3  Due anni fa la farm era stata installata usando una versione customizzata di ANIS.
M.Biasotto, Bologna, 28 giugno 2004 M.Biasotto, Bologna, 28 giugno LNL CMS T2 Legnaro Stato attuale e richieste 2004/2005.
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
CDF Calcolo Another brick in the wall Paolo Morettini CSN1 Lecce Valerio Vercesi Settembre 2003.
Bologna Batch System (BBS). BBS e’ un sistema batch basato su Condor. L’utente sottomette i job da una macchina e il sistema li distribuisce sulle altre.
BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015.
Report R.Gomezel CCR dicembre 2006 Roma.
CNAF 6 Novembre Layout del testbed  wn a OS SL5.0 8 GB RAM kernel xen_3.1.0 SMP  wn a OS SL5.0 8 GB RAM kernel.
Roberto Covati INFN di Parma. Workshop CCR/INFN GRID Palau maggio Sommario VmWare Server (in produzione dal 2004 al 2008) VmWare Infrastructure.
FESR Trinacria Grid Virtual Laboratory Rosanna Catania Rita Ricceri INFN Catania 25 Luglio 2006 Grid Monitoring: GridICE – bacct - lsload.
Tier-2 Legnaro-Padova Massimo Sgaravatto (INFN Padova) On behalf of the Legnaro-Padova T2 team Tier-2 Legnaro-Padova 1.
1 Attività per la formazione Scuole INFN Grid Edizione 2008 Valeria Ardizzone INFN Catania.
Atlas Italia - Milano, 17/11/2009 G. Carlino – News dal Computing 1 1 News dal computing Gianpaolo Carlino INFN Napoli Atlas Italia, Milano, 17/11/09 Nuovo.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
Brunengo - Padova - 18/12/2007 Infrastrutture di storage per Tier2 Gruppo storage CCR.
Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 1 ATLAS Attività di TeV Attività di computing Attività di computing.
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
6/1/2016ATLAS Milano1 Agenda :. 6/1/2016ATLAS Milano2 Agenda : A)AGGIORNAMENTO SITUAZIONE RELIABILITY SITO -potrebbe essere utile discutere le nostre.
FESR Consorzio COMETA - Progetto PI2S2 Il Tier-2 di ALICE a Catania Roberto Barbera Università di Catania e INFN Visita Referee.
Referaggio sigla CALCOLO D. Bonacorsi, G. Carlino, P. Morettini CCR – Roma 9 Settembre 2014.
IV Corso di formazione INFN per amministratori di siti GRID Tutorial di amministrazione DGAS Giuseppe Patania.
1 ALICE I ITER2 DI ALICE IN ITALIA Bologna, 6 marzo 2007 M. Masera
P. Morettini. Organizzazione della CCR Le principali attività della CCR consistono da un lato nell’assegnazione di fondi per le infrastrutture di rete.
Test di storage a 10 Gbps proposta. Storage server a 10Gbps Si vuole vedere quali prestazioni si possano ottenere da server connessi a 10 GE –capacita’
G. Maggi 24/1/2006 Il Progetto del TIER2 di Bari Giorgio Maggi.
Domenico Elia1CdG Tier1-Tier2 / CNAF ALICE Tier2 sites Domenico Elia CdG Tier1-Tier2 Bologna, 15 Aprile 2015  Infrastruttura e risorse, coordinamento.
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
The INFN Tier-1: progetto di ampliamento Cristina Vistoli – INFN CNAF Referee Meeting Sep
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
JOB MONITORING Donvito Giacinto INFN-Bari. OUTLINE ● Use-case ● Informazioni utilizzate e metodologie di raccolta per il job monitoring ● Informazioni.
ATLAS Italia – Sestri Levante, 15 Giugno 2010 G. Carlino – Richieste Run Efficiency = time for physics / total time LHC Efficiency = time with colliding.
CCR - Roma 15 marzo 2007 Gruppo storage CCR Report sulle attivita’ Alessandro Brunengo.
EGEE is a project funded by the European Union under contract IST Il pre-production service in EGEE e in INFN-GRID D. Cesini - INFN-CNAF IV.
ALICE Computing Readiness Workshop Tier-2 CNAF Jan 17-18, ALICE Computing Readiness 1) ALICE Italia: Persone & organizzazione 2) Test & commisioning.
FESR Trinacria Grid Virtual Laboratory Workload Management System (WMS) Muoio Annamaria INFN - Catania Primo Workshop TriGrid VL Catania,
1 Le macchine di questo pool fanno parte di una lan privata (la 125 illustrata a pag.2), di cui t2cmcondor è il gateway. Sono presenti 3 macchine su rete.
CNAF. storage Siamo in una fase di tuning con lo storage, che al momento sembra essere un collo di bottiglia 1.~10 giorni fa vista saturazione GPFS.
Attività Gruppo Virtualizzazione Andrea Chierici CNAF Riunione CCR
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Torino, Andrea Dainese 1 Andrea Dainese (INFN – LNL) Stato del Tier-2 ALICE a Legnaro.
20-21/03/2006Workshop sullo storage - CNAF Alessandro Brunengo.
Status Report Gruppo Storage CCR CCR 14-15/03/2006.
Interfacce SRM: l'utilizzo di STORM - Overview e prospettive (ALICE)
Transcript della presentazione:

ALICE Computing Readiness Workshop Tier-2 CNAF Jan 17-18, ALICE Computing Readiness 1) ALICE Italia: Persone & organizzazione 2) Test & commisioning S. Bagnasco, M.Masera Torino

ALICE Computing Readiness Workshop Tier-2 CNAF Jan 17-18, Outline Attività su GRID della collaborazione italiana Stato del deployment, test e commissioning dei servizi  Per le infrastrutture si veda talk di R. Barbera Scelte tecniche ai Tier-2  CPU cooling  Storage

ALICE Computing Readiness Workshop Tier-2 CNAF Jan 17-18, Test & Commissioning

ALICE Computing Readiness Workshop Tier-2 CNAF Jan 17-18, Test e Commissioning WMS Componenti AliEn ed LCG  AliEn: Task Queue, JobAgent, VO-Box  LCG: RB/WMS, CE, VO-Box, MyProxy server Il sistema complessivo è stato testato progressivamente e (quasi) senza interruzione nelle Data Challenge di ALICE Sistema progettato per essere poco sensibile alle inefficienze “sottostanti”

ALICE Computing Readiness Workshop Tier-2 CNAF Jan 17-18, Rampa job simultanei Actual maximum value ever: 7341 jobs (Nov 10, 2007)

ALICE Computing Readiness Workshop Tier-2 CNAF Jan 17-18, Test & file transfer T0 to T1 export via FTS Tutti gli altri transfer via xrootd  Canali FTS non necessari Test possibili solo da quando sono installati storage xrootd-enabled T1-T2: appena disponibile T2-T2: stanno partendo in questi giorni  Non esplicitamente previsti dal computing model  Lo stesso importanti per l’analisi distribuita (non tanto file transfer ma accesso remoto interattivo ad xroot: vedi anche la demo)

ALICE Computing Readiness Workshop Tier-2 CNAF Jan 17-18, Test di file transfer aliensh:[alice] [12] /alice/cern.ch/user/s/sbagnasc/ >whereis largeFileTest.Catania.2 Jan 16 14:56:29 info The file largeFileTest.Catania.2 is in SE => ALICE::Catania::DPM pfn =>root://aliserv1.ct.infn.it:1094//dpm/ct.infn.it/home/xrootd/15/29507/… aliensh:[alice] [13] /alice/cern.ch/user/s/sbagnasc/ >cp largeFileTest.Catania.2 [xrootd] Total MB |====================| % [7.1 Mb/s] [xrootd] Total MB |====================| % [10.6 Mb/s] Preparato un tool per file transfer simultanei  Al momento usato per test locali di scalabilità SE-WN [xrdcp] ################################################################# [xrdcp] # Source Name : root://aliserv1.ct.infn.it:1094//dpm/ct.infn.it/home/xrootd/15/29507/… [xrdcp] # Destination Name : root://grid008.to.infn.it//dpm/to.infn.it/home/xrootd/aliense/… [xrdcp] # Data Copied [bytes] : [xrdcp] # Realtime [s] : [xrdcp] # Eff.Copy. Rate[Mb/s] : [xrdcp] #################################################################

ALICE Computing Readiness Workshop Tier-2 CNAF Jan 17-18, Deployment, test e commissioning storage Installati, funzionanti e in fase di test:  DPM+xrootd (TO)  DPM+xrootd “over GPFS” (CT)  dCache + xrootd (BA) In arrivo:  dCache + xrootd (LNL) Tempi lunghi dovuti allo sviluppo delle interfacce con xrootd da parte del core team al CERN

ALICE Computing Readiness Workshop Tier-2 CNAF Jan 17-18, Deployment DPM Xrootd su Storage Element  Visita ad Artem Trunov a Lione per architettura SE [marzo 2006]  Head node, redirector, DMZ etc. Xrootd su dCache  Funzionante a GSI  Istruzioni (in tedesco…) di Kilian Schwarz [gennaio2007] Soluzione di storage sviluppate dall’esperimento  Interfaccia DPM-xrootd per T2  Emulazione xrootd in dCache per T1 Prima installazione funzionante di DPM + xrootd fuori dal CERN [aprile 2007]  Intervento di Andreas Peters a Torino  Aggiornamento di AliEn (distruttivo…)  Andreas corregge alcuni bug nella nuova procedura di installazione Di nuovo funzionante [novembre 2007] Installazione a DPM a Catania  Sempre con il supporto (remote) di A. Peters [novembre 2007] Test di scrittura e lettura [gennaio 2008]

ALICE Computing Readiness Workshop Tier-2 CNAF Jan 17-18, Deployment dCache Installazione pool node su SLC4.5 con yaim  Almeno fino a novembre non era possibile  Installazione manuale (con qualche trucco) Configurazione xrootd door (e/o gridftp door)  Dopo varie prove con G. Donvito TokenAuthZ security plugin per ALICE:  Si sono seguiti i passaggi della guida di Kilian Schwarz corretti dopo vari tentativi e dopo una lunga e attenta lettura del dCache Book per la parte relativa a questo.  Interazione con Furano al CERN ha girato il mio mail ad Andreas Peters.  Interazione con Andreas Peters mi ha detto di scrivere a Kilian Schwarz.  Interazione con Kilian Swartz mi ha detto di provare la sua procedura perchè a lui funzionava (è vero funziona ma rimuovendo gli errori)

ALICE Computing Readiness Workshop Tier-2 CNAF Jan 17-18, Test di accesso: Torino “Daily” Graph (5 Minute Average) N job con 5 letture contemporanee di file a caso con xrdcp dai WN verso il server lanciati con qsub sulla farm Max In 73.3 Mbps (7.3) Average In kbps (0.8%) Current In kbps (0.8%) Max Out Mbps (52.6%)Average Out Mbps (10.5%) Current Out Mbps (42.6%) Rate ~400Mbps n >4 Job che scrivono Peak bandwidth sulla porta dello switch [Mbps] N job Server down!

ALICE Computing Readiness Workshop Tier-2 CNAF Jan 17-18, Test di accesso: Catania File con dimensioni dell'ordine delle decine di MB, preventivamente copiate sullo SE (11 file nella lista passata allo script, tutte copie fisiche distinte di vari file); Lanciato lo script con un numero di trasferimenti plausibile (4 su macchine a 4 core, su un intervallo di tempo di 10 minuti, con numero crescente di WN.

ALICE Computing Readiness Workshop Tier-2 CNAF Jan 17-18, Test di accesso: piani Test di scalabilità approfonditi con un modello realistico di accesso  I Tier-2 sono Write Once, Read Really A Lot  I file sono di diversa dimensione (ESD, AOD, qualche RAW specialmente all’inizio)  Accessi dai WN ma anche interattivi dai laptop: vedi demo di ieri e oggi.  Test con variazioni dei parametri del disco (hdparam) e della configurazione di TCP Quanti server per TB?  Non ne siamo sicuri…  Soluzioni SAN molto più flessibili in questo senso

ALICE Computing Readiness Workshop Tier-2 CNAF Jan 17-18, Test di accesso: piani Confronti di prestazioni tra DPM con e senza GPFS  Può essere utile sia per le prestazioni sia per funzionalità mancanti a DPM (replica) Valutazione di StoRM  L’interfacciamento con xrootd va fatto comunque per il Tier-1  Soluzione interessante anche per i Tier-2 Caveat: licenza IBM, supporto StoRM Verifica delle configurazioni di rete  NAT etc.

ALICE Computing Readiness Workshop Tier-2 CNAF Jan 17-18, Opzioni SRM 3 soluzioni in fase di test  +1 potenziale: StoRM+GPFS La scelta di dCache è comoda nei T-2 “condivisi” Per le altre (GPFS o non GPFS) la scelta non è definitiva  Per lo meno fino a che ci sono pochi dati sullo storage…

ALICE Computing Readiness Workshop Tier-2 CNAF Jan 17-18, Scelte storage FC-2-SATA  Migliore scalabilità  Razionalità dei cablaggi  Semplicità di management e controllo  Maggiore fault tolerance  Maggiore flessibilità resa necessaria dal non conoscere bene i pattern di accesso  Costi che tendono a quelli del DAS dopo qualche decina di TB  Esperienze negative nel prototipo Tier-2 di Torino (con DAS)  Esperienze negativa con NAS Procom

ALICE Computing Readiness Workshop Tier-2 CNAF Jan 17-18, SCELTA CPU Blade pro  Minore consumo  Densità di core più elevata  Minore necessiyà di cooling  Razionalizzazione dei cablaggi  Risparmio di switch KVM e rete  Semplicità di gestione Contro  Costo lievemente maggiore, parzialmente compensato se lo chassis viene riempito