Referaggio Tier2 Frascati INFN - Laboratori Nazionali di Frascati 20/06/2011.

Slides:



Advertisements
Presentazioni simili
Progetto Speciale Prototipo Tier1 F. Ruggieri INFN – CNAF I Workshop CMS Italia del SW e Computing Roma 22 Novembre 2001.
Advertisements

Introduzione alle attivita Software e Computing di Atlas Napoli M. Biglietti – G. Carlino – F. Conventi - A. Doria – L. Merola - A. Migliaccio Software:
1 La farm di ATLAS-Napoli 1 Gb/s 7 nodi con 2 CPU PIII a 1 GH, RAM 512 MB, 2 schede di rete a 100 Mb/s. Server con 2 CPU PIII a 1 GH, RAM 1 GB, 2 schede.
Proposta di integrazione e consolidamento delle risorse presenti nellinfrastruttura Grid dellItalia Meridionale (L. Merola, )
Aspetti critici rete LAN e WAN per i Tier-2
Stato del Tier2 di Atlas a Napoli Il ruolo dei Tier2 in Atlas La Federazione Italiana dei Tier2 Il Tier2 di Napoli Napoli, 21 Dicembre 2006 – A.Doria.
1 Riunione del 29 Marzo 2007 IL PROGETTO SCoPE Prof. Guido Russo I lavori Le apparecchiature Il portale.
Test del Monitoraggio del Tracker usando un Tier2 M.S. Mennea, G. Zito, N. De Filippis Università & INFN di Bari Riunione Consorzio – Torino 18 Novembre.
Michele Michelotto INFN-Padova
LNL CMS M.Biasotto, Firenze, 22 maggio Hardware e tools di installazione Massimo Biasotto INFN – Lab. Naz. di Legnaro.
1 M. Biasotto – Legnaro, 22 Dicembre 2005 Prototipo Tier 2 di Legnaro-Padova INFN Legnaro.
5 Feb 2002Stefano Belforte – INFN Trieste calcolo per CDF in Italia1 Calcolo per CDF in Italia Prime idee per lanalisi di CDF al CNAF Numeri utili e concetti.
Case study Maiora srl.
U N INFRASTRUTTURA DI SUPPORTO PER SERVIZI DI FILE HOSTING Matteo Corvaro Matricola Corso di Reti di Calcolatori LS – Prof. A. Corradi A.A.
Alessia Tricomi Università & INFN Catania
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività.
Analysis unibo una proposta. Work flow di una tipica analisi 1.Simulazione di piccoli campioni di eventi per studio segnale 2.Generazione in grande.
Ricostruzione dei muoni: Stato e piani futuri. Roma, 13 settembre 2001 Gruppo Moore Gruppo 1 Premesse Nel panorama della ricostruzione dei muoni il package.
Servizio Sistema Informativo - Area Gestione Sistemi e Sicurezza – LNF – Dael Maselli Area Gestione Sistemi e Sicurezza LNF Plenaria Servizio Sistema Informativo.
Test Storage Resource Manager per SC4 Giacinto Donvito Vincenzo Spinoso.
LNL CMS M.Biasotto, Roma, 22 novembre I Tier2 in CMS Italia Massimo Biasotto - LNL.
Calcolo LHC - F. Ferroni, P. Lubrano, M. SozziCSN1 - Catania Calcolo LHC 2003 (F. Ferroni, P. Lubrano, M. Sozzi)
LNF Farm E. V. 9/8/2006. Hardware CE, LCFG, HLR, 3 WN: DL 360 1U; SE: DL 380 2U 5 WN: BL 25 P In totale 25 jobs general purpuse (coda Atlas) + una coda.
Attivita' Grid in BaBar Workshop sulle Problematiche di Calcolo e Reti nell'INFN Maggio 2004.
Workshop CCR Otranto - giugno 2006 Gruppo storage CCR Status Report Alessandro Brunengo.
CMS 1 M. Biasotto – Bologna 20/01/2005 Infrastruttura di calcolo per CMS-Italia M.Biasotto – INFN Legnaro e i gestori dei centri CMS Italia.
Riunione CCR 21/12/2005 Gruppo Storage Relazione sulla analisi di infrastrutture Fibre Channel e presentazione attivita’ per il 2006 Alessandro Brunengo.
Riunione Servizi Servizio Calcolo e Reti 13 settembre 2004 Silvia Arezzini.
CDF I referee Roma, 16 Maggio Tevatron OK Fisica Stanno pubblicando –Bene Nostre principali preoccupazioni su B s -mixing –Sulla base dei loro.
ATLAS PRIN Alessandro De Salvo A. De Salvo – 12 novembre 2015 Cloud Computing Condivisione di risorse tra gruppi EventIndex LHCONE PoD T2D.
BOLOGNA Prin-STOA Report L. Rinaldi Bari – 12/11/2015.
Servizio Calcolo Alessandro Brunengo. Indice Attivita’ del servizio calcolo Infrastruttura (sala CED, rete) Servizi centrali Supporto al calcolo scientifico.
Gaetano Maron, Presentazione T2 LNL-Padova, Legnaro 22 dicembre Il Servizio Tecnologie Informatiche ed Elettroniche dei LNL Gaetano Maron.
Implementazioni di un analizzatore di protocollo Esistono quattro fondamentali tradeoff per la realizzazione di un analizzatore di protocollo:  Analisi.
Roberto Covati – Roberto Alfieri INFN di Parma. Incontri di lavoro CCR dicembre Sommario VmWare Server (in produzione dal 2004) VmWare ESX.
26 Giugno 2007CSN1 - Frascati1 Temi di attualità nella CCR Accanto alla tradizionale attività di controllo dei finanziamenti per le infrastrutture di calcolo.
Riunione PRIN STOA - Bologna - 18 Giugno 2014 Testbed del T2 distribuito Napoli-Roma Dr. Silvio Pardi INFN-Napoli Riunione PRIN STOA – Bologna 18 Giugno.
Referaggio CALCOLO Esperimenti non LHC G. Carlino, D. Lucchesi, V. Vagnoni CSN1 – Lecce 30 Settembre 2015.
Atlas Italia - Milano, 17/11/2009 G. Carlino – News dal Computing 1 1 News dal computing Gianpaolo Carlino INFN Napoli Atlas Italia, Milano, 17/11/09 Nuovo.
Domenico Elia1Riunione PRIN STOA-LHC / Bologna Attività per ALICE: sommario e prospettive Domenico Elia Riunione PRIN STOA-LHC Bologna, 18 Giugno.
Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 1 ATLAS Attività di TeV Attività di computing Attività di computing.
Il primo anno di presa dati di LHC L’esperienza di calcolo nell’esperimento ATLAS Attività condotte nel 2010 e prospettive future Lorenzo Rinaldi (INFN-CNAF)
Stato di GARR-X Claudia Battista Workshop CCR INFN - Isola d’Elba 17 maggio 2011.
Claudio Grandi Workshop CCR 2015 Claudio Grandi INFN Bologna.
Roma, 13 Luglio 2010 G. Carlino – Referaggio Tier2 ATLAS 1 ATLAS Referaggio Tier2 Attività di TeV Attività di TeV Richieste 2011.
Overview del middleware gLite Guido Cuscela INFN-Bari II Corso di formazione INFN su aspetti pratici dell'integrazione.
19 Ottobre 2012ATLAS Milano1 Stato delle risorse locali di calcolo L. Carminati, L. Perini, D. Rebatto, L. Vaccarossa.
Referaggio, 17 Marzo 2010 G. Carlino – ATLAS – Referaggio Tier2 1 Referaggio Tier2 ATLAS Attività di Computing 2009 Attività di Computing 2009 Stato dei.
1 Firenze, 6 Settembre 2011 G. Carlino – Relazione Referaggi Computing ATLAS Relezione Riunioni Referaggio Calcolo ATLAS Computing Model News Computing.
ANALISI DISTRIBUITA IN ATLAS L’esperienza degli utenti Attilio Picazio Università di Napoli “Federico II” – INFN Napoli 18/05/11Attilio Picazio - Workshop.
Uso della rete geografica e richieste di upgrade CCR 31/3/2015 (Roma) S.Zani.
1 ALICE I ITER2 DI ALICE IN ITALIA Bologna, 6 marzo 2007 M. Masera
19/4/2013 D. Menasce, M. Serra - Referaggio Progetti INFRA e WLCG 1.
CNAF, 13 Maggio 2011 G. Carlino – Referaggio Computing ATLAS 1 ATLAS Referaggio Tier2 Attività di TeV Attività di TeV Richieste.
TIER-2: Risorse e tabella di marcia M.L. Ferrer. 5/12/2005 M.L. Ferrer Referaggio TIER-2 LNF 2 Presenti Calcolo: Massimo Pistoni Claudio Soprano Dael.
Referaggio Calcolo ATLAS II Gianpaolo Carlino INFN Napoli Catania, 12 Settembre 2012 Risorse e Richieste 2013 nei preventivi Aggiornamento in seguito all’allungamento.
SCOPE: stato e piano di integrazione Phd. Silvio Pardi CNAF
G. Maggi 24/1/2006 Il Progetto del TIER2 di Bari Giorgio Maggi.
ATLAS NAPOLI Software & Computing e il Tier-2 Gianpaolo Carlino INFN Napoli Il gruppo ATLAS di Napoli Le attività Software & Computing Il prototipo Tier-2.
20-21/03/2006Workshop sullo storage - CNAF Storage nei Servizi Calcolo delle sezioni INFN Alessandro Brunengo.
ATLAS Italia – Sestri Levante, 15 Giugno 2010 G. Carlino – Richieste Run Efficiency = time for physics / total time LHC Efficiency = time with colliding.
1 Bari, 21 Settembre 2011 G. Carlino – ATLAS: il calcolo ATLAS: il Calcolo Attività di Computing nel 2011 Attività di Computing nel 2011 Richieste Tier2.
CCR - Roma 15 marzo 2007 Gruppo storage CCR Report sulle attivita’ Alessandro Brunengo.
Il calcolo per l’esperimento GERDA Luciano Pandola INFN, Laboratori del Gran Sasso Riunione della CSN2, LNF Frascati, 29 Novembre 2011.
Gianpaolo Carlino Bologna, 6 Marzo 2007 Stato dei Tier-2 Italiani di ATLAS Attività nei Tier-2 Attività della Federazione dei Tier-2 Risorse disponibili.
Referaggio Calcolo ATLAS Gianpaolo Carlino INFN Napoli CNAF, 11 Maggio 2012 Attività di Computing ATLAS Attività di Computing in Italia Risorse e Richieste.
L.Perini Milano: 10 Gennaio Ex-ATLAS-Grid (Tier2 incluso) l Ruolo dei Tiers in ATLAS e grid l Le persone di Milano e le attività l Le infrastrutture.
Attività Gruppo Virtualizzazione Andrea Chierici CNAF Riunione CCR
Esigenze di Rete degli Esperimenti LHC e di Gr1 G. Carlino – INFN Napoli CCR – Roma 8 Settembre 2014.
Transcript della presentazione:

Referaggio Tier2 Frascati INFN - Laboratori Nazionali di Frascati 20/06/2011

Agenda  Il gruppo di ATLAS dei LNF  Attività del gruppo in breve  Computing Model di ATLAS  Movimentazione dei dati  Cloud italiana  Accounting e performance del Tier2 di Frascati  La sala calcolo  Infrastruttura di rete  La farm di Frascati  Stima di crescita LNF - 20/06/2011 2

Il gruppo ATLAS LNF A. Annovi, M. Antonelli(Resp.), M.M. Beretta, H. Bilokon, E. Capitolo (Tech.), F. Cerutti, V. Chiarella, M. Curatolo, M. Dreucci, B. Esposito, M.L. Ferrer, C. Gatti, P.F. Laurelli, G. Maccarrone, A. Martini, G. Nicoletti, R. Di Nardo, G. Pileggi (Tech.), B. Ponzio(Tech.), V. Russo(Tech.), A. Castegnaro(Laur), A. Sansoni, M. Testa (Ass.Ric.), T. Vassilieva (Tech.), E. Vilucchi, G. Volpi  In sostanza :  Ricercatori 12.8 FTE  Tecnologi 3.1 FTE  Tecnici  Laureandi LNF - 20/06/2011 3

Attività molto in breve  Si tratta di un gruppo storico(~20 anni) di ATLAS che ha dato un contribuito molto rilevante nel:  progetto, costruzione, test e installazione dello spettrometro a  di ATLAS  Trigger DAQ e calcolo  Recentemente l’attività si è naturalmete riversata su  analisi dei dati, algoritmi di ricostruzione e ottimizzazioni prestazioni del rivalatore  upgrade con trigger all’inizio del 2 o livello con ricostruzione veloce di tracce (FTK)  manutenzione dello spettrometro LNF - 20/06/2011 4

ATLAS MDT: from LNF to CERN 94 BML (Barrel Medium Large) High Precision Chambers of the ATLAS Muon Spectrometer built in LNF with about tubes. Installation and commissioning of the barrel spectrometer: Overall coordination + Physicists &Technicians contribution ATLAS management deputy project leader MS LNF group developed the full mechanical chamber project used by many other institutes Fully automatic wiring machine assembling BML installation LNF - 20/06/2011 5

Performances & Physics Relevant contribution to  spectrometer performances study: efficiency, calibration, resolution Muon Analysis Task Force coordination Leading role of coordination and papers editing Relevant contributions to missing E T reconstruction Energy Flow package responsibility Important role in conf/note and papers LNF - 20/06/2011 6

Performances & Physics Relevant contribution and paper editing for the measurement of J/  suppression in Pb-Pb collisions Measurement of the inclusive muon cross section and p T spectrum LNF - 20/06/2011 7

Two time-consuming jobs in tracking: Pattern recognition & Track fitting  Pattern recognition – find track candidates with enough Si hits  10 9 prestored patterns (roads) simultaneously see the silicon hits leaving the detector at full speed.  Based on the Associative Memory chip (content-addressable memory) initially developed for the CDF Silicon Vertex Trigger (SVT). Sviluppo di un nuovo AMchip a 65nm (M. Beretta) Sviluppo di nuove tecniche di pattern matching a risoluzione variabile (G. Volpi, A. Annovi) [G. Volpi, ANIMMA 2011, "A new Variable Resolution Associative Memory for High Energy Physics"] LNF - 20/06/2011 8

Computing Model originale  Modello di calcolo gerarchico a Tier basato sul paradigma Grid  Un Tier0 (Cern)  10 Tier1  ~70 Tier2  Numerosi Tier3  I dati vengono distribuiti gerarchicamente dal Tier0 ai Tier1 e dai Tier1 ai Tier2.  I Tier1 comunicano tra loro. I Tier2 ricevono solo dati dal proprio Tier1  I job vanno dove sono i dati LNF - 20/06/2011 9

Attività dei Tier  Tier0 (CERN)  Acquisizione dei dati RAW e archivio su nastro  Calibrazione e allineamento  Primo processamento  Distribuzione dei dati ai Tier1  Tier1  Memorizza su nastro una percentuale dei dati RAW  Effettua un riprocessamento dei dati (nuovo software, nuove costanti di calibrazione)  Simulazione  Ospita job di analisi dei gruppi di fisica e degli utenti  Distribuisce i dati ai Tier2  Tier2  Più Tier2 collegati allo stesso Tier1 formano una cloud  Attività di simulazione  Analisi utenti e di gruppo  Tier3  Test di software, analisi dati, produzione, analisi interattiva (ROOT, Proof) e sviluppo codice. LNF - 20/06/

 Sistema di popolarità dei dati per stabilire quali sono i dati più acceduti,  Sistema di cancellazione dei dati (data deletion) in base alla loro popolarità e alla disponibilità di spazio disco (i dati secondari vengono cancellati quando lo spazio disco scende sotto una certa quota)  PD2P: Panda Dynamic Data Placement: sistema di replica dei dati popolari per l’analisi ai Tier2.  Quando lo spazio disco del Tier2 scende sotto una certa soglia il sistema di cancellazione libera spazio in base alla popolarità. I Tier2 diventano delle cache di dati. Computing Model: evoluzioni LNF - 20/06/

Computing Model dinamico  Ulteriore evoluzione: i Tier2 saranno collegati con i Tier1 e Tier2 delle altre cloud.  Alcuni Tier2 di grandi dimensioni, affidabili e con connessioni di rete tali da garantire un buon throughput, non saranno solo cache di dati, ma anche sorgenti per il PD2P con il preplacement di una quota di dati: Tier2 Direct (T2D) (18 siti tra cui i tre Tier2 italiani approvati). LNF - 20/06/

Distribuzione dei dati  Il sistema di movimentazione dei dati è il DDM: Distributed Data Management. L’architettura del DDM è implementata negli attuali tool del DQ2.  Il DDM si fa carico di distribuire i dati, aggregati in dataset, tra i Tier, catalogarli, cancellarli, fornire agli utenti i tool per utilizzarli, ecc…  Nei siti i file sono organizzati in aeree chiamate space token.  Gli utenti possono chiedere la replicazione dei dataset in un sito specifico nello space token LOCALGROUPDISK. LNF - 20/06/

Cloud Italiana  Tier1  CNAF  Tier2  Frascati proto-Tier2  Milano  Napoli  Roma1  Tier3 “Grid enabled”  Genova  Roma3  Trieste/Udine  Bologna  Due Tier3 sudafricani: ZA-UJ, ZA-WITS LNF - 20/06/

Attività della cloud italiana  Gestione e monitoraggio delle attività di computing di ATLAS nei siti italiani  Gestione locale dei siti e confronti su problematiche riscontrate, cercando soluzioni comuni del middleware e dell’hardware  Supporto all’analisi degli utenti  Studi delle ottimizzazione dei sistemi comuni, es:  I batch system: tre siti hanno PBS/Torque e Maui, test delle diverse configurazioni del fair share  Milano e il CNAF hanno Storm  Roma1 e il CNAF hanno LSF  Studio e confronto dei test effettuati nei siti:  Test di funzionalità della rete  Test di funzionalità di analisi: Hammer Cloud test  Test di trasferimento dati  Si tratta di test quotidiani rilevanti al fine dell’attività del sito (balcklist) LNF - 20/06/

 Studio e implementazione di nuove soluzioni al Tier1 e Tier2 per:  Attività continua per trovare le soluzioni più performanti per I siti, per hardware e software. Esempio: studio con le HC dell’architettura di rete interna.  Minimizzare le inefficienze della cloud. Esempio: replica con Oracle Data Guard del servizio LFC del CNAF a Roma1  Migliorare l’uso delle risorse dei siti. Esempio: studio e implementazione delle Job Priorities, share delle CPU per job con Panda  Analisi dell’accesso e movimentazione dei dati:  Replica dei dati  Cancellazione dei dataset  Problemi nell’accesso ai file  Gestione delle sottoscrizioni all'interno della cloud e informazione degli utenti Attività della cloud italiana LNF - 20/06/

 Organizzazione supporto cloud:  Phone conference quindicinali per coordinare l’attività della cloud  Shift a rotazione per controllare:  lo stato dei siti e dei servizi offerti  i trasferimenti  le attività di produzione, analisi, re-processing, ecc…  Mailing list:  federazione dei Tier2 italiani  supporto alla cloud italiana  utenti di ATLAS italiani Attività della cloud italiana LNF - 20/06/

 Gare comuni per gli acquisti per i Tier2 e Tier1  Test su hardware proposti per gli acquisti:  Misure di throughput storage  Benchmack cpu  Successiva verifica, per tutti i siti, dello stato delle installazioni, test e messa in produzione delle risorse acquistate  Preparazione di presentazioni per conferenze: Chep, IEEE, ecc… Attività della cloud italiana LNF - 20/06/

Partecipazione di Frascati alla cloud Italiana  Il personale del proto-Tier2 di Frascati fin dall’inizio ha partecipato attivamente a tutte le attività della cloud italiana precedentemente elencate, dando un contributo al calcolo dell’esperimento che va oltre l’amministrazione della farm di Frascati  Inoltre, il personale inserito nelle attività di computing può meglio supportare l’attività del gruppo di analisi locale. LNF - 20/06/

Il Tier2 di Frascati  Il Tier2 di Frascati è più piccolo degli altri Tier2 (poco meno di un terzo), ma ha sempre partecipato a tutte le attività dell’esperimento riportando alti valori di performance e availability/reliability.  È stato quindi pienamente utilizzato dall’esperimento come dimostrano i plot di accounting Sito a maggio 2011Hep Spec 06TB Frascati Milano Napoli Roma LNF - 20/06/

Il Tier2 di Frascati: availability e reliability  Availability e reliability del Tier2 di Frascati negli ultimi 12 mesi  Novembre 2009 e settembre 2010 sono stati casi particolari in cui si sono presentati problemi dovuti ad apparati vecchi ora in via di dismissione  Alti valori di availability e reliability per il 2011 LNF - 20/06/

Il Tier2 di Frascati: accounting  Wall clock time dei job eseguiti nell’ultimo anno confrontato con le risorse del sito. La linea rossa corrisponde alle risorse effettivamente installate senza aver abilitato l’hypertreading, la lineaa blu corrisponde al numero di job- slot disponibili con hyper- treading abilitato, ma a volte, per problemi di spazio disco, il numero di job slot assegnato è stato inferiore.  Accounting dell’ultimo mese LNF - 20/06/

 Efficienza per tutti I job, periodo aprile-giuno, superirore al 90%  CPU time/wall time Il Tier2 di Frascati: efficienza  Efficienza della cloud italiana, nell’ultimo anno, per i job di simulazione. Il sito di Frascati riporta tra le efficienze più alte.  # job succ/# job totali LNF - 20/06/

Il Tier2 di Frascati: uso delle risorse  Sharing delle risorse dei siti italiani per la produzione  Sharing delle risorse dei siti italiani per l’analisi  I plot si riferiscono al numero di job negli ultimi dodici mesi  Frascati contribuisce per un terzo degli altri siti, avendo dimensioni anche minori LNF - 20/06/

 Wall clock time (perido aprile-giugno) per tutti I job INFN-FRASCATI 5 Il Tier2 di Frascati: uso delle risorse LNF - 20/06/

 Job eseguiti nel periodo aprile-giugno INFN-FRASCATI INFN-MILANO-ATLASC 47,430 65,489 Il Tier2 di Frascati: uso delle risorse LNF - 20/06/

 Oltre alla buona percentuale di share, notare anche la continuità di attività del sito  Processing share Il Tier2 di Frascati: uso delle risorse LNF - 20/06/

Calcolo Tier 2 Kloe Garr Nastri utenti Altri experim Il Tier2 di Frascati: la sala calcolo LNF - 20/06/

Calcolo Tier 2 Kloe Garr Nastri utenti Altri experim QE Blindosbarre Fancoils Quadro Elettrico Il Tier2 di Frascati: la sala calcolo LNF - 20/06/

Il Tier2 di Frascati: infrastruttura di rete  Rack dei server: switch 3Com 4500G, 48 porte, Gigabit Ethernet e due uplink a 10 Gigabit Ethernet per interconnessione tra i rack.  In uno switch configurate ulteriori porte a 10 Gbps per collegare i server di disco, mentre l’altro è connesso allo switch centrale del servizio di calcolo tramite una porta Gigabit Ethernet.  Dedicata network IP pubblica di classe C per la raggiungibilità sulla rete Internet (indirizzo /24) e una privata per l’accesso alle console e la gestione degli apparati (indirizzo /24). LNF - 20/06/

 Per la connettività verso la rete geografica, i Laboratori hanno il POP GARR nell’edificio Calcolo. La connessione fisica è in fibra ottica (1 Gbps, aumentabile a 2Gbps) e la banda impegnata è mediamente 500 Mbps (BGA). Il POP GARR a sua volta è connesso al nodo di Roma con 2 link di backbone a 2.5 Gb/s.  È prevista l’upgrade del nodo del GARR a GARR-X, che prevede un’infrastruttura di backbone a Gbps con capacità di accesso a 10Gbps. Il Tier2 di Frascati: connettività verso la rete geografica dei LNF LNF - 20/06/

Garr GigabitEthernet 1Gb/s Verso il GARR VLAN 80 – LNF network principale VLAN 2 – Kloe VLAN 192, 195 e 197 VLAN 161 VLAN 160 VLAN 3 (Tier2) VLAN 130 Swcalc1 – Cisco 6509 Swcalc2 – Cisco 6506 HSRP Swkloe1 – Swkloe2 2 x Cisco 6509 HSRP Swlat Cisco 6006 Swlabmaster – Cisco 4506 Lnfgw Cisco 7606 VLAN 131 Altre VLAN VLAN 26 VLAN 228 Connettività verso la rete geografica dei LNF LNF - 20/06/

 Risorse computazionali:  26 WNs Blade/Twin, Intel Xeon E GHz, E GHz, E GHz  352 job slot, 2321 HepSpec  Sistema di storage  Tre sistemi configurati in RAID6 e file system XFS su volumi di ~ 9TB, per un totale di 192TB raw, ~150TB netti attualmente installati  260 TB netti con l’ultima gara effettuata  Middleware: gLite 3.1/3.2 (su SL4/5), release INFN-Grid  Servizi ospitati  CE: lcg-CE, CREAM CE  SE: DPM con 4 pool node  Batch system: torque  Site-BDII  HLR: accounting (D-GAS)  UI  Ganglia e Nagios (del calcolo e del CNAF) per monitoring e allarmistica Il Tier2 di Frascati: la farm LNF - 20/06/

 Il gruppo locale ha a disposizione una user interface collegata a disco non inserito nella Grid  La UI ha:  Tool dq2 per il data management: gli utenti possono gestire dati nella Grid  Tool per sottomettere job di analisi distribuita tramite il WMS: Ganga  Tutti i tool della Grid per sottomettere job, recuperare dati, consultare l’IS, ecc…  Gli utenti possono  Sottomettere job in interattivo  Sottomettere job alla Grid  Movimentare dati della Grid e salvare gli output dei job sulla Grid o sul disco locale  A breve: sottomettere job ad un sistema di code locali La farm di Frascati: calcolo locale LNF - 20/06/

 Share della cloud italiana: ~10%  In base alle previsioni di calcolo dei prossimi anni possiamo ipotizzare, per il Tier2 di Frascati, la seguente crescita fino al 2013  I numeri per il 2012/13 sono i valori medi di un Tier2 italiano e sono stati usati per dimensionare la sala Il Tier2 di Frascati: ipotesi di sviluppo CPU (Hep Spec 06) Disco (TB) LNF - 20/06/

 Ipotizziamo per gli apparati di calcolo e di storage i consumi sotto riportati:  Server dual quad-core: circa 300W;  Server di calcolo twin pari a due macchine dual quad-core con 200 HS di capacità di calcolo, oppure pari a due macchine dual esa-core con 300 HS di capacità di calcolo: circa 500W;  Sistema raid da 108 dischi da 2TB completo di quattro server (cioè circa 170TB netti): circa 3kW CPU(kW) Disco (kW) TOTALE kW Contingenza del 20% per switch, vecchi apparati, ecc… Il Tier2 di Frascati: ipotesi di sviluppo LNF - 20/06/

Il Tier2 di Frascati: Conclusioni  Il sito di Frascati ha dimostrato di essere performante e a livello dei migliori siti di ATLAS per numerosi anni (2005)…  L’esperimento è soddisfatto del suo funzionamento…  Abbiamo un’infrastruttura che potrà ospitare un Tier2…  …qundi siamo pronti per essere un Tier2 ufficilale!!! LNF - 20/06/

Backup LNF - 20/06/

 Eccessiva richiesta di spazio disco  Eccessiva proliferazione di formati di dati,  Repliche di dati mai utilizzati che vengono solo copiati e cancellati,  Impossibilità a fornire tutti I dati ad ogni cloud (sopratutto le più piccole),  Trasferimenti tra le cloud attraverso salti multipli tra i Tier  Non viene ottimizzato l’uso delle CPU Computing Model: limitazioni LNF - 20/06/

Distributed Data Management: DDM/DQ2  L’architettura del DDM è implementata negli attuali tool del DQ2  L’unità di storage che viene trasferita è il dataset  Un dataset contiene tutti i file con eventi statisticamente equivalenti  DDM si fa carico di:  Distribuire i dati prodotti nel Tier0 ai Tier1 e Tier2  Distribuire i dati simulati e riprocessati prodotti nei Tier1 e Tier2  Distribuire i dataset richiesti dagli utenti e dai gruppi  Gestire la movimentazione dei dati generata dall’attività di produzione  Catalogare i dataset (file, dimensione, sito, ecc…)  Verificare la consistenza tra i cataloghi di ATLAS LFC, I database degli SRM locali e I file realmente residenti su dischi e nastri  Fornire informazioni sull’uso di ciscuna replica di dataset: popolarità  Cancellare repliche di dataset obsolete o non necessarie dai dischi se non usate  Fornire agli utilizzatori finali tool per lavorare con I dataset (import/export, move, ecc…) LNF - 20/06/

Come sono organizzati I dati nei siti  I dati sono aggregati in dataset e container di dataset e possono essere trasferiti solo come parte di un dataset attraverso un servizio di sottoscrizioni per copiare una replica in un determinato sito  I file memorizzati nei siti sono organizzati in aeree chiamate space token:  DATADISK/DATATAPE  real data  GROUPDISK  group analysis data (dati di analisi dei gruppi di fisica)  HOTDISK  dati a cui si accede spesso  LOCALGROUPDISK  dati del gruppo di analisi locale  MCDISK/MCTAPE  dati Monte Carlo (risultati delle simulazioni)  PRODDISK  buffer per i dati di produzione (input)  SCRATCHDISK  dati temporanei per l’analisi  Gli utenti possono chiedere la replicazione dei dataset nello space token LOCALGROUPDISK  I risultati dei job di analisi devono essere memorizzati nello space token SCRATCHDISK, gli utenti poi sono responsabili della replicazione dei dataset nei siti LNF - 20/06/

Test dei siti  I siti sono continuamente testati sia come siti in Grid che come siti ATLAS  In quanto siti in Grid, un server Nagios controlla lo stato dei servizi pubblicati  Come sito ATLAS viene validato per l’analisi distribuita con functional test e stress test:  I functional test vengono eseguiti attraverso la machinery GangaRobot, che esegue continuamente dei brevi job di analisi in tutti i siti. I risultati finiscono nella pagina SAM dei test ed il sito va in una black list se fallisce  I test delle HammerCloud sono usati per fare stress test on-demand su più siti; quindi vengono usati per il commissioning di nuovi siti, per ottimizzare le performance dei siti esistenti e fare confronti con i siti di riferimento LNF - 20/06/