La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

1 Attività della Sezione INFN Napoli per il Calcolo distribuito e Grid L. Merola – 02/11/2005 1985 :Connettività in rete LAN Ethernet e rete WAN INFNET.

Presentazioni simili


Presentazione sul tema: "1 Attività della Sezione INFN Napoli per il Calcolo distribuito e Grid L. Merola – 02/11/2005 1985 :Connettività in rete LAN Ethernet e rete WAN INFNET."— Transcript della presentazione:

1 1 Attività della Sezione INFN Napoli per il Calcolo distribuito e Grid L. Merola – 02/11/2005 1985 :Connettività in rete LAN Ethernet e rete WAN INFNET. 1991 : Costituzione del polo GARR di Napoli. 1994 : Realizzazione del primo sito WEB ufficiale dell’Italia meridionale. 2001 :Messa in opera del Nodo dell’infrastruttura INFN-GRID. Un pò di storia …

2 2 1990-1995 : Centro di produzioni MC esp. L3 (Farm Apollo, HP) Feb.1997 : Primo workshop INFN su Software e Calcolo moderno 1997 -> : Condor Pool, AFS 1999 -> : INFN-GRID 2001 -> :UE (V PQ): Data Grid, DataTag UE (VI PQ): EGEE1-2 LCG – Tier2 esp.ATLAS 2003 -> MIUR Firb “Grid.it” (CNR, INFN et al.) apr. 2004 -> Prog. Locale “Campus Grid” (Enti di ricerca + Unina) ott. 2004 -> PON Campus Grid (INFN) ott. 2005 -> PON S.CO.PE (UNINA) Attività e progetti :

3 3 WP4: Fabric Linux Farms, Mosix, etc. (A.Doria, R. Esposito) WP6: Testbed (F. Taurino) Network Management and Monitoring WP7: Network Management and Monitoring e.g. Grid-ftp, etc. (P. Lo Re, P. Mastroserio, G. Tortone) WP8: HEP Applications e.g. ATLAS, CMS, VIRGO, PAMELA, ecc. (L. Merola et al.) WP4: Network Management and Monitoring (G. Tortone) e.g. Nagios package, ecc.(G. Tortone) FirbGrid.it WP3,5: Grid deployment and operation for the scientific community e.g. HEP Applications (L. Merola), Information service, monitoring, ecc. (P. Mastroserio; N. De Bortoli, R. Esposito, F. Taurino, G. Tortone) Alcuni contributi specifici di Napoli LCG: Atlas Tier2 VO production and support (L. Merola, G.P. Carlino, A. Doria, G. Tortone, F. Taurino) SA1: Infrastructure operation and support e.g. Production, monitoring, ecc. (N. De Bortoli, G. Tortone) LCG

4 4 L'INFN, con un suo progetto partito nel 1997, ha provato la funzionalità del sistema CONDOR (1985, Un. Wisconsin) su rete geografica. Non basato su standards riconosciuti a livello internazionale. GARR-B 155 Mbps ATM based Network access points (PoP) main transport nodes Default CKPT domain @ Cnaf CKPT domain # hosts Oltre 300 macchine INFNCONDORPool TORINO PADOVA BARI PALERMO FIRENZE PAVIA MILANO GENOVA NAPOLI CAGLIARI TRIESTE ROMA PISA L’AQUILA CATANIA BOLOGNA UDINE TRENTO PERUGIA LNF LNGS SASSARI LECCE LNS LNL USA 155Mbps T3 SALERNO COSENZA S.Piero FERRARA PARMA CNAF Central Manager ROMA2 10 40 15 4 65 5 10 2 3 6 3 2 3 5 1 15 INFNCONDORPool Il progetto pilota CONDOR pool

5 5 LECCE ASI Applications of Earth Observation PISA NAPOLI COSENZA PERUGIA PADOVA GENOVA MILANO PALERMO ROMA TORINO MATERA BARI BOLOGNA CAGLIARI CNIT Technologies for high-performance communication, Optical technologies, … L’AQUILA INFN, University Grid (INFN-Grid, DataGrid, DataTag), e-science applications, … VENEZIA CNR, University HPC, Grid, Platforms, Programming environments, Knowledge Discovery in Data Bases, Tools, Libraries, Applications, … Ma settori scientifici hanno aderito grazie anche a fondi specifici MIUR (e.g. progetto SPACI: UniNA, UniLE, UniCS) Il progetto MIUR Firb Grid.it PIATTAFORME ABILITANTI PER GRIGLIE COMPUTAZIONALI A ELEVATE PRESTAZIONI ORIENTATE A ORGANIZZAZIONI VIRTUALI SCALABILI.

6 6 Mappa dei siti italiani Grid.it e INFNGrid (in continuo aggiornamento)

7 7 STRUTTURA DI CALCOLO AVANZATO PER LA RICERCA E L’INNOVAZIONE TECNOLOGICA BASATA SU GRIGLIE COMPUTAZIONALI Campus Grid - Finalità e Partners - DSF – Dipartimento di Scienze Fisiche INFN-Napoli – Istituto Nazionale di Fisica Nucleare INFM-Napoli – Istituto Nazionale di Fisica della Materia DICHI – Dipartimento di Chimica INSTM-Napoli – Consorzio Interuniversitario Nazionale per la Scienza e Tecnologia dei Materiali DMA – Dipartimento di Matematica e Applicazioni CNR-SPACI – Consiglio Nazionale delle Ricerche Coordinamento scientifico: Dip. Scienze Fisiche Coordinamento tecnico-tecnologico: Sezione INFN

8 8 DSF: Locale 1G01 (sede infrastruttura principale del Campus Grid) DSF : Locale 1M16 DMA Campus Grid - Locali e LAN, WAN - DiChi DSF C.S.I. GARR Collegamento con CSI ok Collegamenti in fibra fra DSF, Chim. e Mat. in corso.

9 9 INFN-GRID (e FIRB) –13 biprocessori Xeon 2,4 GHz, RAM 1 GB (12 WN e 1 CE) –6 biprocessori Xeon 2,8 GHz, RAM 2 GB TIER-2 ATLAS Prototipo TIER-2 ATLAS –7 biprocessori Xeon 2,8 GHz, RAM 2 GB (6 WN e 1 CE) -2 TB disco in comune (1 SE) Software Esperimento ATLAS (LHC-CERN) in produzione  Studio e simulazione degli algoritmi del trigger muonico di I livello e analisi delle relative prestazioni  Ricostruzione di tracce di muoni  Test prestazioni software del Data Challenge Campus Grid - INFN-GRID e Tier-2 ATLAS -

10 10 INFN-GRID.ITINTEL19 bi-proc2.81 TBRH7.3 SciLinux PBS GT2 LCG INFN-ATLASINTEL7 bi-proc + 16 in arrivo 2.82 TB INFN-AstroParticleINTEL8 bi-proc2.8 INFN-BABAR-CMSINTEL1 bi-proc + 9 in arrivo 2.8 ASTROAMD9 bi-proc2.51.2 TBGentoo SciLinux PBS AMRAAMD99 bi-proc2.81.2 TBSlackware SciLinux PBS DSF-INFMAlphaEV716 bi-proc1,2140 GBTrue-64 LSF DiChi-BioteknetAlphaEV6810 quad-proc1,41 TBTrue-64 LSF DiChi-LSDMAlphaDS204 bi-proc INSTMOpteron12 bi-proc2,4 CNR-SPACIItanium268 bi-proc1,51.2 TBLinux-HP LSF ProgettoProc.N. proc.GHzStorageS.O. s/w m/w grid Campus Grid - Hardware installato luglio 2005 - Localizzato tutto a Fisica tranne hw DiChi e INSTM

11 11 (303 kEuro = 260 MIUR + 43 Sezione INFN) Realizzazione di un Campus Grid per la ricerca scientifica fisica, chimica e matematica nel Complesso Universitario di Monte Sant’Angelo in Napoli 1.Progettazione, direzione e collaudo lavori 2.Lavori di edilizia, impianti elettrici e impianti di condizionamento 3.Infrastruttura di rete (dorsale di Campus e collegamento al Garr) 4.Realizzazione “Sala dell’infrastruttura principale del Campus GRID” 5.Nodi bi-processori per i servizi di Grid e sistema di back-up FaseDescrizione 200420052006 10101 1212 123456789 10101 1212 123456789 1Approfondimento del progetto 2Procedure di appalto 3Installazione hardware 4Installazione software 5Test di funzionamento struttura 6 Presentazione e formazione del Campus Grid 7Messa in esercizio e produzione Progetto PON INFN “Campus Grid” 2004-2006 (Resp. L. Merola)

12 12 Progetto PON Univ. Napoli “Sistema Cooperativo Distribuito ad alte Prestazioni per Elaborazioni Scientifiche Multidisciplinari (S.CO.P.E.)” € 9.000.000 (6,75 MIUR, 2,25 Univ. Napoli) Attrezzature 3.6 ME, Assegni e contratti biennali 1.6 ME Obiettivo finale del progetto è la realizzazione di un Sistema di Calcolo ad Alte Prestazioni, orientato ad applicazioni scientifiche multidisciplinari, che operi anche secondo il paradigma GRID, dedicato alla modellistica computazionale ed alla gestione di grosse banche dati, per ricerche nelle aree applicative (workpackages) di interesse del progetto, ovvero: Scienze del Microcosmo e del Macrocosmo, Scienze della Vita, Scienze dei Materiali e dell’Ambiente. + workpackage tecnologico: Middleware

13 13 Prof MARRUCCI GiuseppeResponsabile Scientifico Progetto Prof MEROLA LeonardoResp. Area Scienze del Microcosmo e del Macrocosmo Prof SALVATORE FrancescoResp. Area Scienze della Vita Prof FRANCESCHETTI GiorgioResp. Area Scienze dei Materiali e dell’Ambiente Prof MURLI AlmericoResp. Area Middleware Prof VENTRE GiorgioResp. Area Middleware Comitato Direttivo Prof RUSSO GuidoResponsabile Tecnico Progetto Prof. MAZZOCCA NicolaResponsabile Operativo Progetto Nota: SottoArea Microcosmo (resp. L. Merola) Esp. ATLAS all’LHC (resp. L. Merola) SottoArea Macrocosmo (resp. G. Longo) VLT Survey Telescope - Onde gravitazionali (resp. G. Longo)

14 14 Sala infrastruttura Principale Campus Grid Sala Tier-2 ATLAS Campus Grid FIS CHIM MAT

15 15 32/64 70/200

16 16 RAW DATA – Size: 1.6 MB – Dati in uscita dall’Event Filter (terzo livello di trigger) in fomato “byte-stream” (come sono forniti dai rivelatori). Output rate: 200 Hz. Archiviati nel Tier0 e nei Tier1 ESD DATA – Size: 400 kB – Dati prodotti dalla ricostruzione in formato OO. Tutte le versioni sono replicate e risiedono in almeno 2 Tier1 e, in campioni, nei Tier2. AOD DATA – Size: 100 kB – Rappresentazione ridotta degli ESD per l’analisi. Replicati in ogni Tier1 e in frazioni, in base agli stream inclusivi ed esclusivi, nei Tier2 TAG DATA – Size: 1 kB – Formato dei dati con informazione esclusiva della lista di eventi appartenenti ad un particolare stream per una veloce selezione. Archiviati in database relazionali. Replicati in tutti i Tier1 e Tier2 DPD DATA – Formato ntuple-like per l’analisi dei dati batch e interattiva. Repliche nei Tier1, 2 e 3 SIM DATA – Eventi Simulati a vari livelli: generatore, hit, digi Parametri vari: Tempo per la ricostruzione: 15 kSI2k-sec per evento CPU richiesta per la ricostruzione: 3000 kSI2k ( 15 kSI2k-sec/evento per 200 eventi/sec) Tempo per la simulazione: 100 kSI2k-sec per evento Tempo per l’analisi: 0.5 kSI2k-sec per evento Link di input all’EF: (10 x) 10 GB/s Link di output dall’EF (al Tier0): 320 MB/s Tempi di processamento dei dati (dall’on-line (EF) all’off-off-line (Tier0)): 50% in 8 ore e 90% in 24 ore Eventi raccolti al giorno: 10 7 Eventi per anno (dal 2008): 2  10 9 Eventi per anno, Size: O (10 PB) ATLAS Computing Model – Struttura Dati

17 17 Necessità di calcolo (HW) e Costi fino al 2010 (totale dei 4 Tier-2 di ATLAS) Tier2 INFN 20062007200820092010 Tot. K€ CPU (kSI2K) (new) 200 (tot) 450 350 880 1782 2532 1420 3832 2709 6261 K€ 1161334462413251261 Dischi (TB) (new) 50 (tot) 80 177 368 836 1212 847 2039 1334 3194 K€ 1132487364664542017 Tot. K€ 22938111827077793278

18 18 2004200520062007200820092010 CPU kSI2k/box 2.43.65.48.112.1518.2327.34 CPU €/kSI2k 1.30.860.580.380.250.170.12 Disk TB/disk 0.20.330.540.9152440 Disk €/GB 5.763.,62.251.40.880.550.34 Profilo Capacità e Costi di CPU e Storage fin al 2010

19 19 NOTA: La potenza elettrica è calcolata stimando un consumo costante di 0.5 kW per box e di 1.5 kW per server di disco (unità 5U con 24 dischi). Nel 2010 si prevede di ospitare circa 4-5 rack per le CPU e 4-5 rack per i dischi. 200520062007200820092010 CPU (tot) kSI2k Box 45 16 95 30 170 44 620 97 960 118 1565 143 CPU (new) kSI2k Box 30 9 50 14 75 14 450 35 355 28 635 34 Dischi (tot) TB Server 6262 20 4 60 6 300 14 510 18 810 24 Dischi (new) TB Server 5151 14 2 40 2 240 8 210 5 300 7 Potenza (kW) 1018286581100 Profilo acquisizione HW calcolo e potenza elettrica (solo Tier-2 ATLAS Napoli)

20 20 Progetto INFN di Centro Tier-2 ATLAS Napoli Gruppo di lavoro: ATLASSCRSTG G.P. Carlino, L. Merola (ATLAS), A. Doria, P. Lo Re, P. Mastroserio (SCR), G. Passeggio (STG) 1.Sede: Ex deposito SCR – 40 mq -, espandibile in locali adiacenti SCR. 2.Funzionalità: - Calibrazioni RPC, Calibrazioni Trigger muonico, Studi di performance su identificazione e ricostruzione dei muoni, Analisi dati, Ricerca Supersimmetria, Simulazioni connesse a quanto sopra. - Storage di 1/3 AOD, tutti i TAG, i DPD, campioni di RAW e ESD. Centro di riferimento per i Tier-3 del Centro-Sud. - 8 h/day, 5 gg./settimana attended (Fisici di Atlas + SCR), il resto unattended. 3.Infrastruttura di rete: WAN: GARR 1 Gbps nel 2007 (ora 64 Mbps). LAN: Campus Grid in fibra ottica 10 Gbps nel 2007 (ora 1 Gbps). 4.Impianti 4.Impianti (si tratta di potenziamento/modifiche di impianti già esistenti): Potenza elettrica: 120 kW nel 2010 + UPS + Gruppo elettrogeno. Sistema di raffreddamento: 40 kW per i gruppi frigoriferi nel 2010. Sistema antincendio, incluso sistema di allarme.

21 21 5.Risorse umane: - Responsabilità tecniche generali: P. Mastroserio (I Tecnol. INFN - SCR), G. Passeggio (CTER INFN - STG). - Responsabilità connettività in rete: P. Lo Re (I Tecnol. INFN - SCR). - Responsabilità gestionale e di coordinamento Tier-2: G.P. Carlino (Ric. INFN - resp. calcolo e analisi gruppo Atlas). - Responsabilità operative Tier-2: A. Doria (Tecnol. INFN -Atlas e SCR), 1 FTE - Personale tecnico: 1.5 FTE (supporto del SCR staff: G.Tortone (CTER INFN – SCR), F.M.Taurino (CTER INFM), R.Esposito (CTER INFN – SCR), CTER INFN (ex M. D’Amico, concorso in stand-by) - Contratti t.d.: N. De Bortoli (a.2222 Firb), O. Laurino (CoCoCo DSF), E.Cacopardo (borsa INFN)) 6.Personale in formazione: - 2 assegni ricerca e 1 contratto tecnico biennali (da deliberare su PON S.CO.PE) - Laureandi in Informatica (2 nell’ultimo anno + 2 in corso) - Dottorandi in Scienze Computazionali (2 in corso) 7. Help Desk: Gara in corso di espletamento: ca. 4 h/day

22 22 8. Milestones: -09/2006: completamento locali e impianti (elettrico, condizionamento, antincendio). (entro fine 2005 la maggior parte degli ordini). -11/2006 -11/2006: installazione dei rack e di WN, DS 2006 previsti in Tabella -12/2006 -12/2006: verifica di operatività: produzioni MC e accesso ai dati da parte delle Sezioni afferenti -01/2007 -01/2007: avvio delle procedure di gara per l’acquisizione dell’HW 2007 -06/2007: installazione dell’HW 2007 -07/2007: Tier-2 operativo per il Pilot Run -01/2008: avvio delle procedure di gara per l’acquisizione dell’HW 2008 -06/2008: installazione dell’HW 2008 e piena operatività del Tier-2

23 23 9. Piano finanziario (2006-2010) e sorgenti di finanziamento: 1.HW calcolo (CPU, dischi): ca 1 MEuro INFN (per Tier-2 Atlas), PON SCOPE UNINA (per VO Campus Grid e Ateneo Fed II). 2. Infrastruttura rete WAN: INFN - Commissione Calcolo Nazionale. 3.Infrastruttura rete locale e servizi Grid: 120 kEuro PON INFN Campus Grid. 4. Impianti elettrici (inclusi potenziamento cabina, UPS,gruppo elettrogeno): 150 kEuro PON INFN Campus Grid (90), Sezione INFN (60 nel 2005 + 2006). 5. Impianto di condizionamento: 50 kEuro Enti Campus Grid, Dip. Scienze Fisiche. 6.Impianto antincendio e sistema di allarme: 15 kEuro : PON INFN Campus Grid, Dip. Scienze Fisiche.


Scaricare ppt "1 Attività della Sezione INFN Napoli per il Calcolo distribuito e Grid L. Merola – 02/11/2005 1985 :Connettività in rete LAN Ethernet e rete WAN INFNET."

Presentazioni simili


Annunci Google