COMPUTING DELLA CSN2 D. Martello Dep. Of Physics - Lecce.

Slides:



Advertisements
Presentazioni simili
E835 & Hera-B Concezio Pisa, 21/12/2004. E835 (aka Jet-FNAL) timeline dell'esperimento –Presa dati conclusa nel Alcune analisi tuttora in corso.
Advertisements

Run I Distribuzione inclusive di Min Bias (Mult. Carica, Pt). Correlazioni dello stato finale ( -Mult) + mini-jet (soft hard physics). Campioni utilizzati:
L’offerta di microdati da parte dell’Istat
23/01/01Alberto Masoni – GR1 - Roma1 I MODELLI DI CENTRI REGIONALI POSIZIONE DI ALICE ITALIA CENTRO ITALIANO: CPU 450 KSI95, DISCO 400 TB (INSIEME TIER-1.
L. Perini CSN1 -Roma 23 Gen Centri Regionali per il calcolo di ATLAS in Italia Tier-1 e Tiers-N : funzioni, localizzazione, necessita di h/w, personale.
Computing: Attività 2010 Reprocessing e ri-simulazione dati Run7 Extra-production di dati MC alla Y(4S) 10 x cross section bb e cc, 2 x cross section u.
Computing: Attività 2009 Reprocessing e ri-simulazione dati Run7 Extra-production di dati MC alla Y(4S) 10 x cross section bb e cc, 2 x cross section u.
Computing: Attività 2011 Limitate produzioni di MC e skim E il dataset finale (rel24/26) Grosso sforzo per il Long Term Data Access project: cluster di.
P.Capiluppi I Workshop CMS Italia del Computing & Software Roma Novembre 2001 Qualche conclusione e pianificazione per il prossimo futuro.
Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
Incontro di coordinamento Firenze 21 gennaio 2010, 11:00-17:00 Ordine del Giorno Presentazione piano di lavoro eTwinning 2010 Dati registrazioni Proposte.
Grid Computing Sergio Andreozzi (INFN-CNAF). A chi interessano i dati prodotti da LHC? Circa 5,000 scienziati –sparsi nel mondo –appartenenti ad istituzioni/università
Grid Computing Sergio Andreozzi. Chi è interessato ad analizzare i dati generati da LHC? Circa 5,000 scienziati –distribuiti nel mondo –appartenenti ad.
Istituto Nazionale di Fisica Nucleare Roma,12 febbraio 2001 Netgroup meeting Situazione attuale e attivita futura - R.Gomezel 1 Netgroup meeting Situazione.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
Alessia Tricomi Università & INFN Catania
* * Data Challenge 04 Stato dei centri di produzione in Italia.
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
Workshop sulle problematiche di calcolo e reti nell’INFN Paestum,9-12 giugno 2003 Report sull’ultimo HEPiX e proposte per le prossime edizioni Roberto.
3 Aprile CSN1 P. Capiluppi Tier2 CMS Italia.
6 Febbraio 2006CSN1 - Roma1 MEG : relazione dei referees P. Cenci R. Contri P. Morettini M. Sozzi.
1 CSN1 - Lecce 22/09/2003 Babar Relazione e proposte finanziarie Referee: M. de Palma, P. Lubrano, C. Luci, L. Perini,A. Staiano.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
Attivita' Grid in BaBar Workshop sulle Problematiche di Calcolo e Reti nell'INFN Maggio 2004.
1 LHCb Computing Angelo Carbone, INFN-CNAF CSN1, 21/9/06 Aggiornamento richieste Tier Richiesta Tier-2 al CNAF Stato e risultati DC06.
1 Proposta di “re-indirizzamento” di parte dei finanziamenti 2006 di MEG-Lecce su Le-Dot per attivita’ su ILC.
27/05/2004C.Bigongiari & M.Pieraccini INFN Workshop Castiadas (CA) 1 Stato e Prospettive del Calcolo di MAGIC M ajor A tmospheric G amma I maging C herenkov.
CSN1 21 Giugno 2004 P. Morettini 1 Commissione Calcolo e Reti Ruolo e composizione della commissione I working groups I workshops Geant 4 Reti e potenziamento.
CSN1-Assisi L.Perini1 BaBar Calcolo L. Perini per i referees: L.Perini,A.Staiano…
TOTEM: Relazione e proposte finanziarie Referee: G: Chiefari, M. Curatolo, M. de Palma CSN1 - Trieste 22/09/2006.
3 Luglio 2006CSN1 - Catania1 MEG : relazione dei referees P. Cenci R. Contri P. Morettini M. Sozzi.
Calcolo esperimenti LHC 2004 F. Ferroni, P. Lubrano, A. Martin, M. Morandin, M. Sozzi.
Tier-2 ATLAS Tier-2 Lamberto Luminari CSN1 – Roma, 10 Ottobre 2005.
22 Settembre 2003Referee Kloe – CSN1 Lecce Kloe – Relazione dei referee Riccardo FANTECHI Pasquale LUBRANO Stefano ZUCCHELLI Commissione I – Lecce, 22.
Gruppo 1 - Catania 16/09/2002 – R. Fantechi, P. Lubrano, S. Zucchelli (R. Fantechi, P.Lubrano, L. Perini per il calcolo) KLOE - Richieste aggiuntive 2002.
CDF Calcolo Another brick in the wall Paolo Morettini CSN1 Lecce Valerio Vercesi Settembre 2003.
Carlo BucciPMN08, Milos May Cuore comincia ad essere un esperimento di grandi dimensioni, il cui costo, stimato inizialmente in circa 14 Meuro,
DIVULGAZIONE Radiolab 1CSN Luglio Progetto RADIOLAB RADIOactivity LABoratory Responsabile Nazionale: Mariagabriella Pugliese/Giuseppina.
26 Giugno 2007CSN1 - Frascati1 Temi di attualità nella CCR Accanto alla tradizionale attività di controllo dei finanziamenti per le infrastrutture di calcolo.
Update linea 6 (rispetto alle slides di novembre) (A. Di Virgilio, E. Milotti, G. Zavattini con contributi per queste slides di A. Nobili e G. Tino) GG/GGG:
D. Martello Dip. Fisica - Lecce Sintesi piani esperimenti CSN2 CNAF 7-marzo-2007.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Lecce 30 Settembre 2015.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
Common Funds di OPERA Principi su cui viene calcolata la ripartizione CF vs spese a carico delle singole funding agencies Problemi avuti nel
1 referee-BaBar CSN I, LNF giugno 2007 RELAZIONE DEI REFEREE DI BaBar M.De Palma, C.Luci, C.Troncon, B.Gobbo(calcolo) 26 giugno 2007.
FESR Consorzio COMETA - Progetto PI2S2 Il Tier-2 di ALICE a Catania Roberto Barbera Università di Catania e INFN Visita Referee.
Referaggio sigla CALCOLO D. Bonacorsi, G. Carlino, P. Morettini CCR – Roma 9 Settembre 2014.
17 GennaioTier2 Milano G. Costa 1 17-Gennaio-2006.
Uso della rete geografica e richieste di upgrade CCR 31/3/2015 (Roma) S.Zani.
1 ALICE I ITER2 DI ALICE IN ITALIA Bologna, 6 marzo 2007 M. Masera
19/4/2013 D. Menasce, M. Serra - Referaggio Progetti INFRA e WLCG 1.
Stato e previsione rete nelle sedi INFN Survey ed ipotesi di sviluppo fino al 2018 CCR 8-10 Settembre 2018 (Roma) 1 S.Zani (Netgroup)
Proposte per il miglioramento delle sinergie tra servizi calcolo e progetti Grid Valeria Ardizzone (INFN Catania)
EEE e Cloud Enrico Fattibene, Andrea Ferraro INFN – CNAF Workshop di CCR sull'Infrastruttura Cloud 15 Dicembre 2014 Quest'opera è distribuita con Licenza.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Catania 1 Ottobre 2014.
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
INFN-AAI architettura del sistema e strategia di implementazione Enrico M.V. Fasanelli INFN - sezione di Lecce Riunione comitato di revisione progetto.
Referee ALICE C.Agodi, D.Calvo, A.Di Ciaccio, P.Iaselli, S.Pirrone CSN3 – Torino, 17 - settembre 2013.
CCR - Roma 15 marzo 2007 Gruppo storage CCR Report sulle attivita’ Alessandro Brunengo.
BABAR: relazione dei referee M.De Palma, P.Lubrano, C.Luci, A.Staiano
Il calcolo per l’esperimento GERDA Luciano Pandola INFN, Laboratori del Gran Sasso Riunione della CSN2, LNF Frascati, 29 Novembre 2011.
L’infrastruttura del progetto ReCaS Paolo Lo Re on behalf of ReCaS collaboration.
L.Perini Milano: 10 Gennaio Ex-ATLAS-Grid (Tier2 incluso) l Ruolo dei Tiers in ATLAS e grid l Le persone di Milano e le attività l Le infrastrutture.
Offline Report Finale Grid! I Corso di formazione INFN su aspetti pratici dell'integrazione di applicazioni in GRID Domenico D’Urso Roberto.
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
D. Martello, F. Ricci, F. Ruggieri
CALCOLO CSN B.Bertucci.
23,6% 2,8% 10,5% 22,8% 22% 18,3%.
Transcript della presentazione:

COMPUTING DELLA CSN2 D. Martello Dep. Of Physics - Lecce

Esperimenti in Commissione 2 Studio Radiazione Cosmica nello Spazio AGILE AMS2 CREAM GLAST PAMELA Studio Radiazione Cosmica in Superficie e Sottomarina ANTARES ARGO-YBJ AUGER MAGIC NEMO-RD SLIM Fisica del Neutrino BOREX HARP K2K MANU2 MI-BETA OPERA Processi rari CUORE DAMA LVD WARP Onde Gravitazionali AURIGA DUAL-RD GGG LISA-RD RAP-RD ROG VIRGO Fisica Generale GGG LARES MAGIA MIR PVLAS 33 sigle Solo alcune presentano esigenze di calcolo rilevanti

Una possibile suddivisione : Esperimenti con richieste di calcolo “minori” Borex, Agile Esperimenti che propongono la realizzazione di una o piu’ farm locali presso le sezioni Antares, Auger, Glast, Nemo Esperimenti che propongono investimenti di calcolo presso il CNAF Ams, Argo, Magic, Opera, Pamela, Virgo Esperimenti in Commissione 2

Status/milestones esperimento ― Avvio presa dati di fisica gennaio 2007 Modello di calcolo per analisi dati e simulazioni Un cluster di analisi centrale ai LNGS, e' previsto fornire la risorsa di calcolo e di storage (1 TB/y) piu' importante. L' architettura e' basata su PC Linux. E' prevista la connessione al sistema di backup di dati in dotazione al Servizio Calcolo del Laboratorio Responsabilita' INFN L' INFN ha la responsabilita' primaria dell' online e dell' offline. 10 ricercatori INFN su un totale di 24 partecipano allo sviluppo e mantenimento del software. BOREX

Status/milestones esperimento ― Lancio imminente Modello di calcolo per analisi dati e simulazioni Simulazione in Geant4 e Geant3, analisi dei dati in IDL e ROOT. Risorse necessarie Un 1.0 TB di spazio disco, storage su nastro per 2 TB Minima potenza di calcolo richiesta AGILE

Status/milestones esperimento ― Obiettivo 6 linee connesse per la fine ― Iniziata presa dati di test con una linea. Modello di calcolo per analisi dati e simulazioni - L’apparato completo di 12 stringhe produrrà circa 1 GBps di raw data - 1 MBps sarà il flusso di dati filtrati per circa 30 Tbyte/anno immagazzinati a LIONE Gbyte per anno sarà la quantità di dati dopo il filtro offline in Italia Risorse necessarie E’ previsto che Bari e Bologna dispongano di una copia dei dati quindi sono stati realizzati cluster di dual processor per l’analisi Responsabilita' INFN Bologna ha la responsabilità del filtro offline Bari coordina il WG di astronomia neutrini Attività dei gruppi italiani nella simulazione e rivelazione di neutrini in acqua ANTARES

AUGER Status/milestones esperimento ― 3 occhi in acquisizione, quarto occhio in costruzione building. ― 1200 tanks in acquisizione per fine 2006 ― Esperimento in presa dati di fisica Modello di calcolo per analisi dati e simulazioni E' stata definita l' organizzazione del calcolo basata su architettura distribuita che prevede tre siti mirror dedicati allo storage dei dati (Lione CNRS-IN2P3, FNAL e Buenos Aires) dai quali le Istituzioni partecipanti trasferiscono i dati alle risorse locali per ricostruzioni ed analisi. I siti mirror fungono anche da archivio degli sciami simulati Pianificazione e localizzazione risorse Si è realizzata in Italia (LNGS) una farm in cui si tiene una copia dei dati di Lione. Una seconda farm è stata realizzata presso la sede di Napoli prevalentemente mirata a simulazioni di canali di interesse specifico della collaborazione italiana.

Status/milestone esperimento ― In fase avanzata integrazione satellite, inizio test di volo. ― Lancio previsto 2007 Modello di calcolo per analisi dati e simulazioni Il modello di calcolo per l’analisi dei dati non è attualmente definito. La simulazione dell’esperimento è basata su Geant 4 in un framework GAUDI. La collaborazione italiana è stata fortemente impegnata nel completamento dell’hardware dell’esperimento. Risorse necessarie La collaborazione stima di raccogliere circa 4 TB/anno di dati per un periodo di 5 anni (durata esperimento). Stima le potenze di calcolo necessarie (parte italiana) intorno a 100 KSI. Prevede di migrare al CNAF. GLAST

NEMO-RD Status/milestones esperimento ― Installazione minitorre imminente ― Installazione torre a 16 piani 2007 Modello di calcolo per analisi dati e simulazioni Il modello di calcolo per l’analisi dei dati non è attualmente definito. La collaborazione prevede di realizzare una piccola farm presso i LNS che funga da storage e data-filtering per i dati raccolti dalle stringhe di test che si stanno mettendo a punto Risorse necessarie Si richiedono 20 TB di spazio disco e una decina di bi-processori, più unità di backup (in discussione).

ARGO-YBJ Status/milestones esperimento ―Inizio presa dati aprile 2006 (104 clusters) ―Acquisiti dati di test con clusters Modello di calcolo per analisi dati e simulazioni L’esperimento prevede di duplicare i sui dati in due siti (CNAF e Pechino) Fase 1 – agosto 2006 (?) I dati raccolti su LTO-1 presso YangBajing vengono inviati al CNAF. Fase 2 I dati vengono trasferiti via rete da YangBajing al CNAF e archiviati in CASTOR Presso il CNAF si procede alla ricostruzione e analisi degli eventi ed al riempimento dei DB di bookeeping. I dati prodotti a regime ( 2006 ) sono dell’ ordine di 200 TB/anno (includendo raw data, dati ricostruiti e simulati) con mantenimento in linea di un anno per i dati ricostruiti. E’ in produzione la simulazione di eventi per il 10% degli eventi raccolti in un anno. Produzioni più massicce potranno essere realizzate nell’ambito di GRID

Risorse necessarie Il Tier-1 del CNAF coprirà il % delle risorse necessarie. A regime il Tier1 del CNAF sarà il centro principale in Italia di raccolta dati raw dell’esperimento, il quale svolgerà il ruolo di Tier0. Richiede di allocare spazio disco per 200 TB/anno di dati e una potenza di calcolo di 400 KSI2000. La collaborazione ha iniziato la migrazione del software verso GRID, ma prevede di passare definitivamente a GRID non prima della seconda metà E’ l’esperimento di CSN2 con più grosse esigenze di calcolo nell’immediato. Presso la sede di Roma-3 è disponibile una farm che è stata utilizzata per l’analisi dei dati raccolti durante i run di test ( ) e per la simulazione di DB di dati utilizzati per la messa a punto del software di analisi. ARGO-YBJ

Responsabilità INFN L' INFN ha la responsabilità primaria dell' offline e inoltre contribuisce alla messa a punto delle farm Cinesi 16 FTE INFN contribuiscono allo sviluppo del software di analisi La collaborazione dispone di 0.5 FTE dedicati all’esperimento presso CNAF ARGO-YBJ

Status/milestones esperimento ― Satellite integrato e pronto al lancio ― Lancio imminente (primavera 2006) Modello di calcolo per analisi dati e simulazioni I dati trasmessi a terra (NTsOMZ-Mosca ) dal satellite a partire dal momento del lancio (imminente) saranno Gbytes/day Linea MEPhI-CERN da 100 Mbit/sec sarà utilizzata per trasferire i dati al CNAF. Risorse necessarie Il CNAF verrà usato come centro di archiviazione primario dei dati. Le richieste di spazio disco/nastri e potenza di calcolo sono minime ( 5 TB/anno e 20 KSI2000). Molta rilevanza riveste l’affidabilità dello storage (CASTOR). Non prevede un passaggio a GRID. Responsabilità INFN L' INFN ha la responsabilità primaria dell’analisi dati PAMELA/WIZARD

Status/milestones esperimento ― Specchio completato e in acquisizione. ― Proposta secondo specchio in discussione (MAGIC2) Modello di calcolo per analisi dati e simulazioni Lo schema del modello di calcolo della collaborazione MAGIC prevede l’utilizzo di un di un centro di calcolo centrale (CDC). Il compito di questo centro è quello di immagazzinare i dati e preparare i Data Summary Tapes (DSTs) che vengono poi distribuiti a tutta la collaborazione. La collaborazione ha identificato come CDC il PIC di Barcellona e sta migrando i dati da Wuerzburg (Germania), attuale CDC temporaneo a Barcellona. Utilizza il CNAF come Centro Regionale. Risorse necessarie La collaborazione prevede di utilizzare il CNAF allocando 3 TB/anno di dati e impegnando una potenza di calcolo pari a 20 KSI2000. La collaborazione ha già iniziato una migrazione del software verso GRID. Responsabilità INFN La collaborazione italiana si sta interessando delle simulazioni MC attualmente attestate al CNAF. MAGIC

Status/milestones esperimento ― Inizio presa dati con 1 SM seconda metà 2006 Modello di calcolo per analisi dati e simulazioni I dati prodotti dal rivelatore elettronico dell’esperimento sono valutati in 100 Mbyte/s I dati immagazzinati in coincidenza con il beam sono valutati in 100 Gbyte /anno, inclusi i dati di calibrazione Una piccola Linux farm presso LNGS ( 5 PC dual processor e 1.4 Tbyte disco) produrrà le predizioni per i brick da rimuovere e immagazzinerà le informazioni in un Database ORACLE (copia al Cern) La maggior parte dei dati sarà prodotto dallo scanning in emulsione (circa 100 TB per le tracce ricostruite in 5 anni). Lo scanning verrà eseguito in 12 laboratori e strutture distribuite geograficamente, la maggior parte delle quali (8) è localizzata in Italia. OPERA

Un database ORACLE raccoglierà i dati dai laboratori locali di scanning. Verrà utilizzata un’architettura multi-master per permettere di avere simultaneamente più copie del DB. La collaborazione ha identificato in Lyon/CERN, Nagoya (Giappone) e CNAF le tre sedi idonee allo scopo. Risorse necessarie In relazione allo scanning dei brick nei laboratori Italiani ( Bari, Bologna, Napoli, LNGS, LNF, Padova, Roma, Salerno) per la ricerca e analisi degli eventi nei brick si prevedono per la parte Italiana : 40 PC dual processor + 10 Tbyte disco per l’acquisizione ed elaborazione di immagini in emulsione per i brick TB LTO per online ed offline storage (raw data) Le macchine per l’acquisizione ed elaborazione online di immagini operano in ambiente Windows. Data Base ORACLE con 100 TB disco presso il CNAF. Non si prevede utilizzo di GRID. OPERA

Responsabilità INFN La responsabilità dello scanning in emulsione e’ divisa tra Europa e Giappone. L’INFN ha la responsabilità dei 2/3 dello scanning europeo. L' INFN ha la responsabilità del coordinamento dell’analisi fisica dell’esperimento e dello scanning ed analisi in emulsione. Tali responsabilità sono condivise con i giapponesi. Inoltre e’ responsabilità INFN lo sviluppo del software per gli spettrometri. Circa 20 FTE sono coinvolti nello scanning ed analisi in emulsione e circa 10 FTE sono coinvolti nell’analisi ibrida ( detector + emulsione ) OPERA

Status/milestones esperimento ― Rivelatori pronti per integrazione in satellite ― Problemi lanciatore. Situazione altamente incerta. Modello di calcolo per analisi dati e simulazioni La copia primaria del campione dati verrà mantenuta al CERN. Pur non facendo parte dell’esperimento il CERN ha approvato lo stato di “recognized experiment” per AMS e mette a sua disposizione spazi, uffici e sistemi di calcolo. Al CERN verrebbe realizzata una CPF (Central Production Facility) che oltre a mantenere una copia dei dati si occuperebbe della loro ricostruzione, di una frazione della simulazione Monte Carlo per l’esperimento e dell’analisi dei dati. La collaborazione italiana necessita di un Italian Ground Segment Data Storage (IGSDS) che consenta l’archiviazione dei dati e l’analisi degli stessi, nonchè la produzione di eventi Monte Carlo. AMS2

Risorse necessarie Il gruppo ha individuato nel Centro Regionale in formazione al CNAF il sito elettivo per la realizzazione dell’ IGSDS. A fine missione si richiede di poter allocare presso il CNAF 350 TB di dati su nastro e di disporre di spazio disco per analisi di 40TB. AMS2

Responsabilità INFN Il gruppo italiano è fortemente coinvolto nella simulazione e analisi dati dell’esperimento. Le responsabilità sono molteplici e distribuite in tutte le sezioni partecipanti all’esperimento. In particolare si segnala la responsabilità di produrre presso il CNAF il 20% dei dati MC. AMS2

VIRGO Status/milestones esperimento ― Sensibilità da progetto praticamente raggiunta ― Inizio run di fisica imminente. Pressione comunità internazionale. Modello di calcolo per analisi dati e simulazioni Acquizione dati online, analisi inline e storage temporaneo al Tier0 di Cascina [aspettative per ~70 KSpecInt2000 (300GFlops) e 72TB] Analisi dati offline in ambiente distribuito costituito da: - Tier1 a Lione (CNRS-IN2P3) per storage di tutti i dati prodotti e calcolo “leggero” - Tier1 al CNAF per storage temporaneo (~1 anno) e calcolo “intensivo” integrato con le risorse da dispiegare nelle Sezioni

Risorse necessarie Le richieste per l’analisi relative al Tier1 del CNAF e ammontano a 70 TB necessariamente su disco e di una potenza di calcolo pari a 150 KSI2000. Il Tier0 di Cascina è realizzato dal consorzio EGO e non “grava” direttamente sull’INFN. VIRGO

Responsabilità INFN 31 (20.6 FTE) componenti di Virgo Italia svolgono attività nei seguenti task, tutti finalizzati ad un uso distribuito delle risorse. VIRGO

Esperimenti CSN2: Data Taking Lancio Pamela Lancio Glast Lancio Agile 6 Linee Antares 104 Cl Argo Run Virgo 1 SM Opera 1 torre Nemo Full Auger 2008 CNAFnon CNAF

Stima crescita potenza di calcolo necessaria

Stima crescita storage necessario

Modalità di accesso Modalità di utilizzoUtenza stimata AMS02Locale GRID in studio Tier1<10 ARGO-YBJLocale GRID in studio Tier MAGICLocale GRID Tier1 (Tier0) OPERALocale (DB Oracle) Tier0 (multi-master) >=20 (utenza int.) PAMELALocaleTier0>=20 (utenza int.) VIRGOLocale GRID Tier1<10 CNAF

Confronto tra le richieste di allocazione risorse al CNAF e non al CNAF da parte di esperimenti di CSN2 nelle due indagini compiute.

CNAF Confronto tra le richieste di allocazione risorse al CNAF e non al CNAF da parte di esperimenti di CSN2 nelle due indagini compiute.

Stime risparmio ottenuto in CSN2 grazie al trasferimento del calcolo di alcuni esperimenti al CNAF  1500 K€ per le potenze di calcolo richieste  220 K€ per lo storage su disco  0.5 – 2.0 M€ robotica per storage di massa CNAF

Si è in prossimità dell’ inizio della presa dati di esperimenti ad “alto” rate di acquisizione (Argo-Ybj, Virgo). Quasi tutti gli esperimenti con significative esigenze di calcolo sono progressivamente migrati verso il Tier1 del CNAF. Per alcuni esperimenti il CNAF svolge il ruolo di punto principale di raccolta dati raw (Tier0). L’utilizzo delle risorse del CNAF avviene prevalentemente mediante accesso diretto e utilizzo del sistema di code li presente (LSF). Gli esperimenti con maggiori richieste di calcolo hanno iniziato o stanno per iniziare la migrazione del loro software su GRID. Come conseguenza, le richieste di risorse di calcolo per il 2006 pervenute in CSN2 sono dell’ ordine di 0.4 M€ da confrontare con i 1.2 M€ richiesti per il Conclusioni