LNF Farm E. V. 9/8/2006. Hardware CE, LCFG, HLR, 3 WN: DL 360 1U; SE: DL 380 2U 5 WN: BL 25 P In totale 25 jobs general purpuse (coda Atlas) + una coda.

Slides:



Advertisements
Presentazioni simili
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks Sicurezza in EGEE Vincenzo Ciaschini Roma.
Advertisements

A.Fanfani - C.Grandi CMS Bologna 10 febbraio 2009 La nuova farm di CMS Bologna al CNAF Alessandra Fanfani Claudio Grandi.
23/01/01Alberto Masoni – GR1 - Roma1 I MODELLI DI CENTRI REGIONALI POSIZIONE DI ALICE ITALIA CENTRO ITALIANO: CPU 450 KSI95, DISCO 400 TB (INSIEME TIER-1.
L. Perini CSN1 -Roma 23 Gen Centri Regionali per il calcolo di ATLAS in Italia Tier-1 e Tiers-N : funzioni, localizzazione, necessita di h/w, personale.
Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
1 STATO DELLINTEGRAZIONE TRA I 4 PROGETTI AVVISO 1575/2004 ATTIVITA DEL GRUPPO TECNICO OPERATIVO Riunione del Comitato Tecnico sullInteroperabilità MUR,
1 STATO DELLINTEGRAZIONE TRA I 4 PROGETTI AVVISO 1575/2004 Riunione del Comitato Tecnico sullInteroperabilità MUR, 28/02/2008 S.Pardi.
Comitato Tecnico sullInteroperabilità MUR, L. Merola.
Roma 30 ottobre 2008 UNIONE EUROPEA 1 Stato dell'interoperabilita' tra i progetti PON 1575 Riunione del Comitato di interoperabilià Roma 30/10/2008 Silvio.
1 STATO DELLINTEGRAZIONE TRA I 4 PROGETTI AVVISO 1575/2004 Riunione del Comitato Tecnico sullInteroperabilità MUR, 20/12/2007 S.Pardi.
1 Riunione del 29 Marzo 2007 IL PROGETTO SCoPE Prof. Guido Russo I lavori Le apparecchiature Il portale.
Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
La facility nazionale Egrid: stato dell'arte Egrid-Team Trieste, 9 ottobre 2004.
Gruppo Directory Services Rapporto dell'attivita' svolta - Marzo 2000.
Michele Michelotto INFN-Padova
INFN-GRID WP1 11 gennaio 2001 GridFTP: stato dellarte Luciano Gaido 1 Progetto INFN-GRID GridFTP: stato dellarte Riunione WP1 (GLOBUS) Cnaf, 11 gennaio.
M. Biasotto – INFN Legnaro
LNL M.Biasotto, Bologna, 18 ottobre La farm CMS di Padova - Legnaro Proposta di acquisto hardware 2° semestre 2001.
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
1 M. Biasotto – Legnaro, 22 Dicembre 2005 Prototipo Tier 2 di Legnaro-Padova INFN Legnaro.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
Last quarter work and future activities
Alessia Tricomi Università & INFN Catania
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
Analysis unibo una proposta. Work flow di una tipica analisi 1.Simulazione di piccoli campioni di eventi per studio segnale 2.Generazione in grande.
CCR 14-15/03/2006 Status Report Gruppo Storage CCR.
Infrastruttura GRID di produzione e i T2 Cristina Vistoli Cnaf.
Servizio Sistema Informativo - Area Gestione Sistemi e Sicurezza – LNF – Dael Maselli Area Gestione Sistemi e Sicurezza LNF Plenaria Servizio Sistema Informativo.
Test Storage Resource Manager per SC4 Giacinto Donvito Vincenzo Spinoso.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
Attivita' Grid in BaBar Workshop sulle Problematiche di Calcolo e Reti nell'INFN Maggio 2004.
L. Servoli - CCR Roma 15 marzo Il progetto High Availability D. Salomoni - CNAF L. Servoli - INFN Perugia.
Workshop CCR Otranto - giugno 2006 Gruppo storage CCR Status Report Alessandro Brunengo.
Alessandro Tirel - Sezione di Trieste Storage Area Network Riunione gruppo Storage Padova, 5 ottobre 2005.
Grid nelle sezioni: Milano Luca Vaccarossa INFN – Sezione di Milano Workshop sulle Problematiche di Calcolo e Reti nell'INFN.
Calcolo esperimenti LHC 2004 F. Ferroni, P. Lubrano, A. Martin, M. Morandin, M. Sozzi.
La Farm di Atlas a Roma 1 Outline Architettura della farm Architettura della farm Installazione Installazione Monitoring Monitoring Conclusioni Conclusioni.
Cosa cambia per CDF  S.Belforte mantiene per ora 20% (1 day/week) su CDF: il necessario per una attivita’ di coordinamento e transizione verso un nuovo.
F.Murtas1 Preventivi e Consuntivi Introduzione Novità Preventivi Database Consuntivi 2002.
Report HEPiX Spring meeting 2002 Workshop sulle problematiche di calcolo e reti nell'INFN 6-9 Maggio 2002 La Biodola - Isola d'Elba Silvia Arezzini.
Federico Ruggieri INFN-CNAF Commissione Scientifica Nazionale I Lecce 24 Settembre 2003 Il Progetto TIER1 Status Update.
CMS 1 M. Biasotto – Bologna 20/01/2005 Infrastruttura di calcolo per CMS-Italia M.Biasotto – INFN Legnaro e i gestori dei centri CMS Italia.
La Farm di Alice a Torino Workshop sulle problematiche di calcolo e reti Isola d’Elba 6-9 maggio 2002 Mario Sitta (Università del Piemonte Orientale e.
M.Biasotto, Bologna, 28 giugno 2004 M.Biasotto, Bologna, 28 giugno LNL CMS T2 Legnaro Stato attuale e richieste 2004/2005.
Storage (ieri, oggi e domani) Luca dell’Agnello INFN-CNAF.
FESR Trinacria Grid Virtual Laboratory Rosanna Catania Rita Ricceri INFN Catania 25 Luglio 2006 Grid Monitoring: GridICE – bacct - lsload.
Roberto Covati – Roberto Alfieri INFN di Parma. Incontri di lavoro CCR dicembre Sommario VmWare Server (in produzione dal 2004) VmWare ESX.
Atlas Italia - Milano, 17/11/2009 G. Carlino – News dal Computing 1 1 News dal computing Gianpaolo Carlino INFN Napoli Atlas Italia, Milano, 17/11/09 Nuovo.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 1 ATLAS Attività di TeV Attività di computing Attività di computing.
High Avaliability with RHCS HA INFN CNAF 22 Marzo 2006 Bologna Ricci Pier Paolo, on behalf of INFN TIER1 Staff
Overview del middleware gLite Guido Cuscela INFN-Bari II Corso di formazione INFN su aspetti pratici dell'integrazione.
19 Ottobre 2012ATLAS Milano1 Stato delle risorse locali di calcolo L. Carminati, L. Perini, D. Rebatto, L. Vaccarossa.
1 ALICE I ITER2 DI ALICE IN ITALIA Bologna, 6 marzo 2007 M. Masera
Martedi 8 novembre 2005 Consorzio COMETA “Progetto PI2S2” UNIONE EUROPEA Accesso all’infrastruttura Grid del Consorzio COMETA Grid Open Day alla Facoltà.
TIER-2: Risorse e tabella di marcia M.L. Ferrer. 5/12/2005 M.L. Ferrer Referaggio TIER-2 LNF 2 Presenti Calcolo: Massimo Pistoni Claudio Soprano Dael.
SCOPE: stato e piano di integrazione Phd. Silvio Pardi CNAF
Test di storage a 10 Gbps proposta. Storage server a 10Gbps Si vuole vedere quali prestazioni si possano ottenere da server connessi a 10 GE –capacita’
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
The INFN Tier-1: progetto di ampliamento Cristina Vistoli – INFN CNAF Referee Meeting Sep
Il calcolo per l’esperimento GERDA Luciano Pandola INFN, Laboratori del Gran Sasso Riunione della CSN2, LNF Frascati, 29 Novembre 2011.
EGEE is a project funded by the European Union under contract IST Il pre-production service in EGEE e in INFN-GRID D. Cesini - INFN-CNAF IV.
1 Le macchine di questo pool fanno parte di una lan privata (la 125 illustrata a pag.2), di cui t2cmcondor è il gateway. Sono presenti 3 macchine su rete.
L.Perini Milano: 10 Gennaio Ex-ATLAS-Grid (Tier2 incluso) l Ruolo dei Tiers in ATLAS e grid l Le persone di Milano e le attività l Le infrastrutture.
Aggiornamento AFS R.Gomezel Commissione Calcolo e Reti Presidenza 5/10/2010-7/10/2010.
Workshop congiunto CCR & INFN-GRID. Tema: l’efficienza Sede: Hotel Cala di Lepre – Palau Date: maggio Comitato organizzatore: V. Ardizzone, D. Anzellotti,
Assegnazione risorse Stato INFN CNAF,
Transcript della presentazione:

LNF Farm E. V. 9/8/2006

Hardware CE, LCFG, HLR, 3 WN: DL 360 1U; SE: DL 380 2U 5 WN: BL 25 P In totale 25 jobs general purpuse (coda Atlas) + una coda riservata a test (ops) DL 360 1U, DL 380 2U : HP Proliant DL 360 1U Dual Pentium Xeon a 2.8 GHz (512KB cache) bus 400MHz, 1 GB RAM 400MHz, U160WideSCSI integrata e controller RAID 0/1, 1 o 2 dischi da 18 GB 15K rpm, Doppia scheda LAN 10/100/1000 (protocollo PXE) BL 25 P: 6 HP Server Blade BL25P - dual Core - doppia CPU AMD Opteron TM GHz/1MB cache, 4GB RAM, Controller Ultra320 scsi 6I raid, HD73GB 10Krpm 5 TB +1,4 TB di spazio disco - Dischi SCSI ~ 2TB raw, - Storage Tek Flexline FC/SATA da 400 GB: ~ 6.5 TB raw Sistema Operativo: Scientific Linux CERN SW di grid: gLite 3.0.0

Macchine atlaslcfgatlasceatlasseatlashlratlascn001atlascn002atlascn003atlascn004atlascn005atlascn006atlascn007atlascn008atlascn009 Grid LCFG (install. conf. autom.) CE (Computing Element) SE (Storage Element) server HLR (Accounting) WN (Worker Node) WNWNWNWNWN DB Server? WNWN

ATTIVITA’ GRID VO supportate: ATLAS, DTEAM, OPS, INFNGRID hp?ExecutingSite=INFN-FRASCATI hp?ExecutingSite=INFN-FRASCATI Prossima partecipazione alla seconda parte dell’SC4 (eventuale partecipazione alla replica della prima parte dell’SC4: trasferimento di files dal CNAF, SI durante la II fase) Prossima partecipazione al tutorial di Milano sull’uso della Grid, la produzione di ATLAS e analisi distribuita Prossima partecipazione alla Atlas ProSys Possibile gestione della replica del database dei servizi VOMS del CNAF: dichiarata disponibilita’ da parte dei Laboratori (macchina atlascn007, nessun problema per lo spazio disco, per ora pochissimo, backup???). La stessa macchina potrebbe essere proposta come DB server per il database della calibrazione (attualmente su una macchina di test a Roma3) o sua replica.

Definizioni ProdSys: The Production Systems' primary responsibility is the generation of Monte Carlo data on the 3 contributing grids LCG, NorduGrid and Grid3 LCG NorduGridLCG NorduGrid LCFG is a system for automatically installing and managing the configuration of large numbers of Unix systems GANGA: a user-interface for Atlas and LHCb : 0ganga%22 0ganga%22Intoduction Job Priorities on LCG Datamanagement on LCG Introduction to GANGA (with practical exercise) AOD Jobs with GANGA (with practical exercise) Running ATLAS transformations with GANGA GANGA GUI

ATTIVITA’ Locale Nello storage: file di simulazione, ricostruzione e Analisi di Silvia Ventura: AOD, ESD, ecc… Nella farm: jobs di Silvia di simulazione, ricostruzione e analisi, ci sono anche altri jobs da parte di utenti esterni se la coda e’ libera, in particolare dagli utenti che fino ad ora hanno gestito la produzione di Atlas (es. Silvia Resconi).

Problemi incontrati

Personale attuale M. L. F. supervisione M. W. 100% A. M. 60% E. V. 100% CALCOLO: C.S. 50% D.M. 50%

Cosa deve fare un sito Il CNAF ha preparato una lista di attivita’ minime richieste ad un sito. Per ora stiamo svolgendo: Partecipazione SA1 Ph.Conf Compilazione Report settimanali Effettuare tutti gli upgrade Risposta ai Ticket in tempi ragionevoli Partecipazione seconda fase SC4

Per usare la grid: Richiedere un certificato: Iscriversi alla VO Atlas: Come si sottomette un job:

Condizioni per far parte della grid di produzione fornire risorse di calcolo, storage (ed eventualmente servizi). La dimensione delle farm (minimo 10 CPU) e la quantita’ di storage saranno concordati con ciascun sitogarantire man power sufficiente per amministrare il sito: almeno 2 persone (per un totale minimo di 1 FTE) gestire efficacemente le risorse del sito: effettuare installazione del m/w, fare gli aggiornamenti, applicare patch, modificare configurazioni come richiesto dal CMT e nel tempo massimo stabilito per le varie operazioni prendere in carico e aggiornare i ticket relativi al sito in un tempo massimo di 24 ore (T2) o 48 ore (gli altri) dal lunedi’ al venerdi’

monitorare “ proattivamente” il sito, controllando periodicamente lo stato delle risorse e dei servizi (usando i tools esistenti: GridICE, Gstat, etc.) garantire continuita’ al supporto ed alla gestione del sito, anche durante i periodi di ferie (2 possibilita’ : turnazione locale o affido temporaneo della gestione del sito, e delle password di amministratore, al CMT) garantire la partecipazione dei site manager alle phone conference quindicinali ed alle riunioni SA1/grid di produzione e compilare i pre-report settimanali (entro il venerdi’ ) mantenere aggiornate le informazioni relative al sito nel GOC DB Supportare le vo di test e controllo (ops, dteam, infngrid) dandogli priorita' maggiori rispetto alle altre VO Eventuali inadempienze rilevate dal ROC verranno riportate alle phone conference bisettimanali di INFNGRID, quindi ai COLG e infine all'EB.

DISCUSSIONE SUCCESSIVA Discussione sulla questione del supporto durante le ferie. PROPOSTA: chiusura delle code se non c’e’ supporto (ad esempio quando il sito chiude), ma la proposta e’ stata dichiarata inaccettabile per i siti con ruolo di Tier-2. Cmq ogni sito dovra’ firmare. Ipotesi: i laboratori non sono ancora stati dichiarati Tier-2, per ora lo possiamo sottoscrivere senza prendere impegni per i periodi di chiusura. Dell’SC4 se ne parlera’ la prossima volta (2 settimane)