La Farm di Alice a Torino Workshop sulle problematiche di calcolo e reti Isola d’Elba 6-9 maggio 2002 Mario Sitta (Università del Piemonte Orientale e.

Slides:



Advertisements
Presentazioni simili
E835 & Hera-B Concezio Pisa, 21/12/2004. E835 (aka Jet-FNAL) timeline dell'esperimento –Presa dati conclusa nel Alcune analisi tuttora in corso.
Advertisements

Progetto Speciale Prototipo Tier1 F. Ruggieri INFN – CNAF I Workshop CMS Italia del SW e Computing Roma 22 Novembre 2001.
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
Aspetti critici rete LAN e WAN per i Tier-2
Francesca Del Corso, CCR - Gruppo Windows, Bologna 16/02/2006 SUS - WSUS per il Security Patch Management.
WP 2.4 al Cnaf Cnaf 13/11/00 P.M Hardware: - 12 PC Rack mountable IBM XSeries 330 (1U) 2 processori Pentium III 800 Mhz, FSB 133 Mhz 512 MB Mem Ecc, Controller.
Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
Riunione CRESCO Infrastruttura HPC Cresco Analisi Preliminare.
Vincenzo Vagnoni per il gruppo di Bologna
Linux Riunione Referenti-CCL 2-Luglio Utilizzo di Linux Principale (unica) piattaforma di calcolo per HEP Grid Supportato dalle maggiori industrie.
Michele Michelotto INFN-Padova
Il Tutorial INFN-GRID/EDG di Torino Testbed INFN-GRID.
LNL M.Biasotto, Bologna, 13 dicembre La farm di Legnaro Massimo Biasotto – INFN LNL.
LNL M.Biasotto, Bologna, 13 dicembre Installazione automatica Massimo Biasotto – INFN LNL.
Execution benchmarks Obiettivi Test dettagliati e ben caratterizzati Esecuzione di benchmark standard Test di applicazioni dell'esperimento ALICE 20 Novembre.
LNL M.Biasotto, Bologna, 18 ottobre La farm CMS di Padova - Legnaro Proposta di acquisto hardware 2° semestre 2001.
LNL M.Biasotto, Bologna, 19 marzo La farm CMS di Padova - Legnaro Proposta di acquisto hardware 1° semestre 2001.
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
1 M. Biasotto – Legnaro, 22 Dicembre 2005 Prototipo Tier 2 di Legnaro-Padova INFN Legnaro.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
Case study Maiora srl.
GIADA O N L I N E.
Benigno Gobbo – INFN Trieste 1 CSN 1 17 settembre 2002 Stato della Farm di Trieste CSN 1 17 settembre 2002 Benigno Gobbo INFN Sezione di Trieste
Benigno Gobbo – INFN Trieste 1 CSNI 21 maggio 2001 Stato della farm di COMPASS-TS CSNI Roma, 21 maggio 2001 Benigno Gobbo INFN Trieste
INFO Sevizio Centralizzato Informatica e Reti Modalità di utilizzo dei server di calcolo del C.E.D. di Frascati.
Alessia Tricomi Università & INFN Catania
LNL GM, CNAF, 18 ottobre INFN-Farm Management Toolkit 1.Fabric Management per DataGrid e INFNGrid 2.Definizione dei requisiti degli esperimenti.
Works in progress.  Semplificazione e maggiore efficienza della gestione  Risparmio (nel medio periodo)  Riallocazione delle risorse (hardware e timesheet)
Manutenzioni e Mezzi di Calcolo Paolo Morettini – INFN Genova Valerio Vercesi – INFN Pavia CSN1 - Catania Settembre 2002.
Riunione gruppo storage – Roma 05/05/2005 Test di affidabilita’ e performance a Genova Alessandro Brunengo.
Extreme Cluster Administration Toolkit Alberto Crescente, INFN Sez. Padova.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
Condor standard. Sistema Batch. Tool di installazione D. Bortolotti,P.Mazzanti,F.Semeria Workshop Calcolo Paestum 9-12 Giugno 2003.
LNF Farm E. V. 9/8/2006. Hardware CE, LCFG, HLR, 3 WN: DL 360 1U; SE: DL 380 2U 5 WN: BL 25 P In totale 25 jobs general purpuse (coda Atlas) + una coda.
Attivita' Grid in BaBar Workshop sulle Problematiche di Calcolo e Reti nell'INFN Maggio 2004.
Federico Ruggieri Riunione CSN1 PISA 22 Giugno 2004 Il Progetto TIER1 Status Update.
Antivirus per mailserver: RAV Antivirus & altri Marco De Rossi – “Workshop sulle problematiche di calcolo e reti nell'INFN” 6-9 Maggio La Biodola.
Istituto Nazionale di Fisica Nucleare La Biodola, Isola d’Elba, 6-9 maggio 2002 AFS: Status Report WS CCR R.Gomezel Workshop sulle problematiche.
Alessandro Tirel - Sezione di Trieste Storage Area Network Riunione gruppo Storage Padova, 5 ottobre 2005.
Grid nelle sezioni: Milano Luca Vaccarossa INFN – Sezione di Milano Workshop sulle Problematiche di Calcolo e Reti nell'INFN.
La Farm di Atlas a Roma 1 Outline Architettura della farm Architettura della farm Installazione Installazione Monitoring Monitoring Conclusioni Conclusioni.
Federico Ruggieri Riunione della CSN I Catania 18 Settembre 2002 Il Progetto TIER1 Status Report.
Stato del calcolo in BaBar e richieste per il 2004, F. Galeazzi, Giugno 2003 Calcolo in BaBar Stato e richieste al CSN1 per il 2004 presentato da F. Galeazzi.
1 Calcolo e software G. Bagliesi 23/3/01 Riassunto riunione calcolo Bologna 19/3/01 B/tau : futuri miniworkshop.
Federico Ruggieri INFN-CNAF Commissione Scientifica Nazionale I Lecce 24 Settembre 2003 Il Progetto TIER1 Status Update.
BaBar: stato ed utilizzo delle farms, F. Galeazzi, Settembre 2004, pag. 1 BaBar: stato ed utilizzo delle farms presentato da Fulvio Galeazzi a nome del.
Benigno Gobbo – INFN Trieste 1 CSN1 13 ottobre 2003 Obsolescenza dei PC Riunione CSN1 Roma, 13 ottobre 2003 Benigno Gobbo INFN Sezione di Trieste
Riunione Servizi Servizio Calcolo e Reti 13 settembre 2004 Silvia Arezzini.
Nuovo Ambiente CS7402. Attività Principali Gli obiettivi principali della migrazione sono stati quelli di ottenere: –Un’infrastruttura di produzione (Mainframe.
Report R.Gomezel CCR dicembre 2006 Roma.
Corso linux RiminiLUG presenta Rete a bassissimo budget per il piccolo ufficio architettura di rete LTSP in contesti professionali corso linux 2008.
Roberto Covati INFN di Parma. Workshop CCR/INFN GRID Palau maggio Sommario VmWare Server (in produzione dal 2004 al 2008) VmWare Infrastructure.
FESR Trinacria Grid Virtual Laboratory Rosanna Catania Rita Ricceri INFN Catania 25 Luglio 2006 Grid Monitoring: GridICE – bacct - lsload.
Roberto Covati – Roberto Alfieri INFN di Parma. Incontri di lavoro CCR dicembre Sommario VmWare Server (in produzione dal 2004) VmWare ESX.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Lecce 30 Settembre 2015.
CCR - Frascati 29 settembre 2008 Gruppo storage CCR Status Report Alessandro Brunengo.
FESR Consorzio COMETA - Progetto PI2S2 Il Tier-2 di ALICE a Catania Roberto Barbera Università di Catania e INFN Visita Referee.
Sistema di monitoraggio integrato Introduzione a cura di P. Mastroserio Servizio Calcolo & Reti Infn-Napoli P. Mastroserio Workshop CCR - INFN Grid Acireale.
Attività e servizi di calcolo a Roma Tor Vergata R. Kwatera, R. Lulli, R. Sparvoli Roma Tor Vergata.
1 ALICE I ITER2 DI ALICE IN ITALIA Bologna, 6 marzo 2007 M. Masera
Martedi 8 novembre 2005 Consorzio COMETA “Progetto PI2S2” UNIONE EUROPEA Accesso all’infrastruttura Grid del Consorzio COMETA Grid Open Day alla Facoltà.
G. Maggi 24/1/2006 Il Progetto del TIER2 di Bari Giorgio Maggi.
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
The INFN Tier-1: progetto di ampliamento Cristina Vistoli – INFN CNAF Referee Meeting Sep
Silvia Arezzini 2 luglio 2014 Consiglio di Sezione per Preventivi.
Attivita’ e compiti del Servizio Impianti Calcolo e Reti
Assegnazione risorse Stato INFN CNAF,
Transcript della presentazione:

La Farm di Alice a Torino Workshop sulle problematiche di calcolo e reti Isola d’Elba 6-9 maggio 2002 Mario Sitta (Università del Piemonte Orientale e INFN – Sezione di Torino)

La Farm di Alice a Torino " Componenti della farm " Software installato " Uso attuale della farm " Futuri sviluppi

Componenti della farm

Il server " Pentium 800 MHz doppia CPU " 512 MB RAM " 20 GB disco di sistema SCSI " 680 GB RAID5 disk (650 effettivi) " 2 schede di rete – 100 Mbit/s per la connessione esterna (LAN di Istituto) – 1 Gbit/s (in fibra ottica) per la rete interna

I client 10 "Desktop" client " Pentium 800 MHz (doppia CPU) " 1 GB RAM " 46 GB disco di sistema IDE " 1 scheda di rete 100 Mb/s in rame 8 "Rack mounted" client " Pentium 1000 MHz (doppia CPU) " 1 GB RAM " 40 GB disco di sistema SCSI " 1 scheda di rete 100 Mbit/s in rame

Lo switch " Componibile secondo le esigenze, programmabile (sottoreti, ecc.), controllabile via rete dal server " Attualmente: – 2 porte 1 Gbit/s in fibra – 6 porte 1 Gbit/s in rame – 24 porte 100 Mbit/s in rame

La tape library " Collegata via SCSI al server " 1 drive " 1 robot (comandabile manualmente o via SCSI) " 24 cassette LTO " capacità 2.4 TB " espandibile con – un secondo drive – fino a quattro librerie " Prove positive con CASTOR

Sistema operativo " Linux RedHat 7.2 (installazione standard + patches) " Disco RAID (storage area) e software Alice esportati in NFS ai client " Sul server – SNMP e MRTG farm monitoring – HTTP web server per presentarlo – BIND e NAT collegamento esterno dei client – PBS distribuzione dei job ai client – AliEn gestione della produzione

Portable Batch System " Ricompilato localmente da sorgente (free software) " 36 job contemporanei su due code – 26 su coda riservata alla produzione (via AliEn) – 10 su coda per utenti locali

Utenti " Produzione: – AliEn su account locale aliprod " Account locali: – account generici alipub e na50pub – account personali per manutenzione " In futuro: – uso di Grid (primi test positivi con vecchia versione)

Uso attuale e futuro " Produzione eventi PbPb con AliEn " Produzione eventi pp da account locale " Altre produzioni e test di sviluppo " Compilazione e test pachetti ROOT/AliRoot " Uso da parte di utenti non-Alice nei momenti di minor utilizzo (MonteCarlo NA50/MD)

(Alcuni) Problemi incontrati " Kernel RH 6.2 e AcceleRAID " RH 6.2 e 7.2 (pre-patch) e IntelExpress1000 " RH 7.2 (e patch) e SNMP RISOLTI! " Quantum|ATL e CASTOR

Futuri sviluppi " Nuovo server EIDE – 2 Pentium III 1.3 GHz, 2 GB RAM – Disco di sistema EIDE 20 GB, RAID EIDE 1.2 TB " 6 nuovi client "rack mounted" " Storage disco da 6.5 TB " Pieno uso della tape library con CASTOR