La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Federico Ruggieri INFN-CNAF Commissione Scientifica Nazionale I Lecce 24 Settembre 2003 Il Progetto TIER1 Status Update.

Presentazioni simili


Presentazione sul tema: "Federico Ruggieri INFN-CNAF Commissione Scientifica Nazionale I Lecce 24 Settembre 2003 Il Progetto TIER1 Status Update."— Transcript della presentazione:

1 Federico Ruggieri INFN-CNAF Commissione Scientifica Nazionale I Lecce 24 Settembre 2003 Il Progetto TIER1 Status Update

2 Sommario Stato delle infrastrutture Stato del Personale Uso da parte degli Esperimenti Il Tier1 come Grid Operations Centre Tecnologia: Archiviazione Disco e Nastro Nuove Risorse: Piano 2004 e 2005-2008 Piano dei Finanziamenti

3 Infrastrutture Gruppo Elettrogeno ed UPS Installati e Collaudati. Cabina Elettrica con nuovi quadri completati. Gruppo Frigorifero e Sistema di Condizionamento in fase di collaudo. Sala Macchine “quasi” completata. Il completamento è previsto per fine settembre con approvazione da parte del CD della perizia di variante per 100.000,00 €. Trasmissione Dati completa, manca attestazione GARR. 10 Racks con power switch a controllo remoto della APC pronti per l’installazione. Consolle remota con apparati Raritan (analogico) e Avocent (digitale via IP) in uso.

4 Gruppo Elettrogeno

5 UPS

6 UTA

7 Gruppo Frigo

8 Sala Macchine

9 Sala Macchine (2)

10 Personale Personale di ruolo: –Pietro Matteuzzi: (Responsabile Servizi di Calcolo del CNAF) –Luca Dell’Agnello: Sistemi Linux, File Systems, Sicurezza, Rete. –Stefano Zani: Storage e Rete –Massimo Cinque: Servizi Generali ed Approvigionamento. Personale a Contratto: –Daniele Bonaccorsi (Art. 2222) Supporto SW Esp. (CMS) –Andrea Chierici: (Art.23) LCFG, Sistemistica, Site Man. GRID. –Donato De Girolamo (Art.2222) Sistemistica, Allarmistica e Sicurezze. –Giuseppe Lo Re (A.R.) Supporto SW Esp. (ALICE)/CASTOR –Barbara Martelli (Borsa) Sviluppo SW, DB e GRID (RLS). –Guido Negri (A.R.) Supporto SW Esp. (ATLAS) –Pier Paolo Ricci: (Art.23) CASTOR, Storage, Robotica, GRID (RLS). –Felice Rosso: (Art. 15) Monitoring Sistemistica ed LCFG.

11 Personale (2) Altro personale su attività collegate: –Alessandro Italiano: (Art.15) Robotica e Libreria, VideoConferenze, Site Manager GRID. –Massimo Donatelli: (Art.15) Sistemistica, AFS, NFS, KERBEROS. Nuovo Personale –2 Assegni di Ricerca (2003) uno già bandito. –Tecnologo di ruolo (concorso in espletamento). –Tecnico (CTER) di ruolo (concorso in espletamento) –2 Posti Tecnologo riassegnati per turnover (uno in richiesta di bando).

12 Risorse HW attuali TipoDescrizioneCapacità Farm 14 biproc. 800Mhz10K SPECint2000 608 KSI2K 55 biproc. 1000 MHz55K SPECint2000 70 biproc. 1400Mhz100K SPECint2000 20 biproc. 2200 MHz44K SPECint2000 5 biproc. 3000 MHz15K SPECint2000 160 biproc 2400384K SPECint2000 Dischi NAS Procom17 TB Raw RAID5 67 TB NAS EIDE (Naos)2.5 TB Raw RAID5 Dischi SCSI2 TB Raw RAID5 Dischi FC10.5 TB Raw RAID5 NAS35 TB Raw RAID5 Nastri Robot L180 STK3.6 TB / 8 TB (comp.) 115/230 TB Drives LTO15 TB / 30 TB (comp.) Robot L5500 STK100 TB / 200 TB (comp.) Rete 14 Switch 1/2U48 FE UTP + 2 GE FO 672 FE UTP 48 GE UTP 132 GE FO 2 Switch 1.5 U24 GE UTP + 4 GE FO 1 Core Switch32 GE FO 1 Core Switch64 GE FO + 48 KSI2K CDF + 30 KSI2K LHCb

13 Esperimenti ATLAS – Ha fatto produzioni su circa 20-50 CPU, 5 TB disco. ALICE – Produzioni con 12 – 20 CPU, 4 TB disco. CMS – pre-DC04 in corso 2.5 Mev. 90 CPU 4 TB disco. LHCb – produzioni ed analisi 70-80 CPU 2TB disco. VIRGO – produzioni su 12-20 CPU 6TB disco. CDF – Analisi su 12 CPU + Farm Simulazione di 24 CPU in corso di installazione + 72 CPU in corso di acquisto, 1 TB disco + 7 TB in corso di acquisto BaBar -E’ stata trasferita al CNAF la facility del CASPUR, verrà consegnata la farm nuova. AMS – Tests Archiviazione 0.5 TB.

14 Alice Atlas CPU Esperimenti LHCb CDF

15 CMS Pre-DC04 Jobs in Coda Jobs in Esecuzione Disco 4 Disco 2 Disco 3 USATO VUOTO

16 Efficienza CPU su Job CMS Jobs/day CPU MHz

17 Il TIER1 come GOC Il CNAF è coinvolto in prima linea nella sperimentazione di GRID sin dal 1999 con INFN-GRID ed in progetti Europei come DataGRID (2001-2003) e DataTAG (2002- 2003) Dal 2002 è finanziato un progetto MIUR su Fondi FIRB (Grid.it) per la Grid Italiana della ricerca. Presso il CNAF c’è il Tier1 di LHC Computing GRID che è partito con la prima release questo mese di Settembre 2003. Al CNAF sarà attivato uno dei Grid Operation Centre di EGEE, l’infrastruttura Europea di GRID finanziata dall’U.E. con circa 32 M€, che partirà ufficialmente nei primi mesi del 2004.

18 Infrastruttura EGEE

19 Architetture Storage L’uso combinato di dischi in tecnologia IDE/ATA con Controller RAID 5 in Fibre Channel è attualmente la nostra scelta primaria. Aspetti rilevanti sono la gestibilità di sistemi da espandere fino a centinaia di TB che comportano l’uso di migliaia di dischi. In questi casi anche un MTBF di 0.2Mh risulta in un failure rate di circa un disco a settimana. Avere dischi di Hot Spare riduce i rischi di failures combinate di due o più dischi. Servers i HA con sistema RH Advanced Enterprise Server sono sotto test per gestire la ridondanza. Sperimentazione in corso è anche quella di Linux 64 bit su Opteron (AMD) e Itanium (Intel) per avere Large Volumes > 2TB e File Systems di diverse centinaia di TB.

20 Storage RAID 5 Controller ridondato FC Sw Server 1Server 2 LAN Gigabit Hot Spare 2Gb FC Links NFS via Gbit Ethernet HA - Failover ATA Disks 5-20 Dischi

21 Risorse 2004-2007 Esp. LHC Anno ALICEATLASCMSLHCB CPU (kSI2000) DISK (TB) TAPES (TB) CPU (kSI2000) DISK (TB) TAPES (TB) CPU (kSI2000) DISK (TB) TAPES (TB) CPU (kSI2000) DISK (TB) TAPES (TB) 2004 215105015020501646115020055 2005 21510504006014040010025020020 2006 50050200600100200800200500400100200 2007 1000100400120030040016004001000800200600

22 Richieste 2004 Totali LHCBaBarVirgoCDFTotaleDisponibileDifferenza CPU (kSI2000) 7292253002701524608916 DISK (TB) 9632483020660146 TAPES (TB) 255324830365100265

23 Comitato di Gestione TIER1 Svolge il ruolo di gestione per l’allocazione dinamica delle risorse. Composto da un rappresentante per Esperimento LHC + Virgo (M. Masera, L. Perini, P. Capiluppi, U. Marconi, F. Ricci) Bisognerà aggiungere BaBar e CDF (M. Morandin e S. Belforte sono stati finora invitati alle riunioni).

24 Cosa serve per il 2004 CPU: 700 – 900 KSI2K / 2000 SI2K = 350 450 boxes x 1750 € x 1.2 IVA=735-945K€ Disco: 150 TB x 6 K€/TB = 900 K€ TAPE: 260 TB / 200 GB cassetta = 1300 cassette x 100 € = 130 K€ Rete : Switch 10 Gb Ethernet = 200 K€ Altri switch di concentrazione = 50 K€ RACKS+Alimentazione : 20 x 5K€ = 100 K€ Consolle Remota, Cavi, consumi : 150 K€

25 Costi Per avere funzionanti ad Aprile-Maggio 2004 tutto l’hardware bisogna partire con gare immediatamente. Il totale delle spese previste per le necessità immediate del 2004 è di : 2475 K€ di Costruzione Apparati.

26 Programma delle Installazioni NB: I numeri quotati sono aggiuntivi per anno

27 TIER1 - FASE II (2004-2008) DescrizioneUnitàQuantitàCosto FARMKSPECint200010,000€ 6,542,000 DISCHITBytes1,500€ 5,469,000 ROBOTICATBytes7,000€ 2,975,000 RETE€ 3,400,000 ALTRO€ 3,539,900 Gran Totale€ 21,925,900

28 Conclusioni Il Tier1 è funzionante ed ha già fornito risorse agli esperimenti per i loro Data Challenge. La nuova sala macchine sta partendo e verrà inaugurata entro metà 2004. Verrà ospitato anche il PoP di GARR. Partendo con le gare subito, non ci dovrebbero essere problemi per il 2004.


Scaricare ppt "Federico Ruggieri INFN-CNAF Commissione Scientifica Nazionale I Lecce 24 Settembre 2003 Il Progetto TIER1 Status Update."

Presentazioni simili


Annunci Google