La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 1 ATLAS Attività di TeV Attività di computing Attività di computing.

Presentazioni simili


Presentazione sul tema: "Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 1 ATLAS Attività di TeV Attività di computing Attività di computing."— Transcript della presentazione:

1 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di Computing @ 7 TeV 1 ATLAS Attività di Computing @7 TeV Attività di computing Attività di computing Gli sviluppi del CM Gli sviluppi del CM Gianpaolo Carlino INFN Napoli Parma, 22 Settembre 2010

2 G. Carlino – ATLAS, Attività di Computing @ 7 TeV 2 LHC data taking @ 7 TeV Al 30 Agosto si sono raccolti ~ 3.5 pb -1 Luminosita’ di picco = 1.03x10 31 cm -2 s -1 (27 Agosto)

3 3 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di Computing @ 7 TeV 2010 LHC – Data taking Logical Data: dataset registrati Physical Data: comprende tutte le repliche distribuite in GRID Event sizeLogic. dataPhys. data Tot. Volume4.6 PB14 PB RAW1.6 MB2.0 PB ESD1.0 MB1.9 PB6.9 PB AOD0.1 MB110 TB2.0 PB dESD330 TB4.1 PB RAW Event Size

4 4 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di Computing @ 7 TeV 2010 LHC – Data Distribution Trasferimenti: Tier-0  Tier-1  Tier-2 Throughput medio di progetto: ~2 GB/sec (commissioning fino a 3 GB/s) Raggiunti picchi ~10 GB/sec nella campagna di reprocessing Efficienza di trasferimento: 100% Data and MC reprocessing MB/s per day 6 GB/s Start of 7 TeV data-taking Start of 10 11 p/bunch operation ~2 GB/s

5 5 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di Computing @ 7 TeV 2010 LHC – Data Distribution in IT o AOD = 100% o RAW = custodial + backup share (5% + 5%) o ESD = 5% + 5% fino a luglio, poi 30% al CNAF per favorire l’analisi degli utenti o dESD = 100% ai Tier2 fino a luglio o ESD e dESD ai Tier2 con sottomissione dinamica da agosto aprilemaggiogiugno luglio Throughput totale in IT MB/s per day 200 MB/s

6 6 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di Computing @ 7 TeV Attività in ATLAS Produzione Simulazione, Ricostruzione, Reprocessing Analisi Ganga, Pathena 7TeV data UAT09 Numero medio di job con Panda Sep 2009 – Sep 2010 Distributed Analysis Highlights :  Data are distributed to 70+ sites  100 users per day accessing data  April-Sep:  ~ 22 M successful analysis jobs.  > 150 billion events analysed Uso significativo della Grid per l’analisi. Uso “reale” molto superiore degli stress test effettuati durante il commissioning

7 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di Computing @ 7 TeV 7 Uso risorse in Italia Uso delle CPU nella Grid per “Country” nei Tier1 e Tier2 (EGEE portal) Numero totale di successful job (Analisi + Produzione): Aprile – Settembre 2010 (ATLAS dashboard) VO ATLAS only

8 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di Computing @ 7 TeV 8 Uso risorse al CNAF Uso delle CPU nella Grid nei Tier1 per tutte le VO LHC (EGEE portal)

9 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di Computing @ 7 TeV 9 Uso risorse al CNAF Monitor CNAF CPU 2010-INo ProductionCPU 2010-IIInizio Analisi Risorse ATLAS al CNAF: Disponibili (03/10 – 09/10): 8700 HS06 Pledge 2010 (09/10) : 16000 HS06 Reprocessing

10 10 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di Computing @ 7 TeV Uso risorse nei Tier2 Uso delle CPU nella Grid per i Tier2 Italiani per tutte le VO LHC: Gennaio – Luglio 2010

11 11 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di Computing @ 7 TeV Analisi Distribuita Perché la percentuale dell’ Italia è cosi bassa? 1.Le CPU sono sature e le risorse 2010 saranno in attività solo a dicembre 2.in Italia c’è ancora un utilizzo significativo del WMS (non presente in queste percentuali) 3.usiamo il Tier1 per l’analisi solo da agosto (solo UK non usa il Tier1) 4.al momento il formato più popolare è l’ESD, più completo e adatto per lo studio delle performance gli utenti italiani mandano i loro job nelle altre cloud dove sono i dati il disco si riempie di dati inutili User Analysis Successful Job - PanDA Backend Era necessario modificare il modello di Analisi e di replica dei dati. Da agosto nuovo modello in fase di test in 3 clouds tra cui l’ Italia

12 12 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di Computing @ 7 TeV Analisi Distribuita Job di Analisi con Panda in Italia non viene riportato l’uso del WMS comunque significativo in Italia nei Tier2 ~50% delle risorse per l’analisi (evidente dall’accounting di giugno in assenza di produzione) Esempio di job running su un Tier2 nell’ultimo mese codice colori: Produzione Analisi WMS Analisi Panda Analisi Panda ruolo italiano (gli italiani vengono mappati sia su panda che su panda/it)

13 13 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di Computing @ 7 TeV 5 mesi di presa dati. Sufficiente esperienza per una valutazione critica del CM La griglia sembra funzionare scala oltre i livelli testati nelle varie fasi di commissioning gli utenti stanno familiarizzando con i tool di analisi e gestione dei dati, selezionando quelli migliori (panda vs. WMS), sono mediamente soddisfatti anche se ovviamente vorrebbero efficienza 101% e risorse infinite Critiche negli anni al nostro CM richiesta eccessiva di spazio disco proliferazione del formato dei dati eccesso di repliche dei dati Superamento dei punti deboli accounting dell’accesso ai dati: determinazione della loro popolarità cancellazione automatica dei dati meno popolari replica dinamica ai Tier2 solo dei dati utilizzati dagli utenti IL CM – analisi critica e sviluppi

14 14 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di Computing @ 7 TeV Accounting dell’accesso ai dati Alla base del sistema di cancellazione delle repliche Fornisce una statistica dei formati più utilizzati (popolari) per l’analisi Fornisce una statistica dell’uso dei siti Fornisce una statistica dei tool di analisi più usati ESD formato decisamente più popolare necessario per molti tipi di analisi di performance e detector in alcuni casi è un approccio “conservativo” degli utenti che, in dubbio, preferiscono utilizzare formati più completi non può scalare con la luminosità e il numero di utenti Gruppi di Fisica e Performance Migliorare il contenuto dei formati di dati skimmati Computing Cancellare i dati non (più) utilizzati (data deletion system) Diminuire il numero di repliche di dati trasferendo solo i dati richiesti dagli utenti (sistema di repliche dinamico)

15 15 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di Computing @ 7 TeV Data deletion ~ 30% dei siti è overfull, con ridotto spazio disco a disposizione I dataset meno popolari possono essere cancellati dopo essere stati replicati nei siti bisogna assicurare la custodialità prevista dal Computing Model permette di replicare sempre tutti i dati nuovi per l’analisi senza penalizzare le cloud più piccole risparmio significativo di spazio disco ATLAS usa un sistema automatico di cancellazione basato sulla classificazione dei dataset e la misura del numero di accessi custodial data: cancellabili solo se obsoleti (RAW, ESD o AOD prodotti nella cloud) primary data: cancellabili solo se diventano secondary (dati previsti dal CM) secondary data: solo questi possono essere cancellati se non popolari in base alla loro anzianità Cancellazione dei dati secondari meno popolari quando lo spazio disco occupato supera una soglia di sicurezza Permette una continua rotazione dei dati

16 16 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di Computing @ 7 TeV Evoluzione del Computing Model Perché replicare i dati se poi vengono cancellati? Attualmente si replicano milioni di file (spesso molto piccoli) replica in tutti i siti (70+) e solo in 30-40 vengono acceduti stesso numero di repliche per ogni physics stream anche se il pattern d’accesso è diverso cancellazione dei dati meno popolari e sottoscrizione a mano di quelli più popolari Non esiste un metodo più intelligente? ATLAS sta studiando l’evoluzione del Computing Model verso un modello meno rigido che ottimizzi le risorse disponibili: riduzione del disco necessario e utilizzo di tutte le CPU idle il paradigma è invariato: i job vanno dove sono i dati ma, sfruttando l’efficienza del sistema di data management e le performance della rete, la replica dei dati è triggerata dai job stessi Panda Dynamic Data Placement Model (PD2PM)

17 17 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di Computing @ 7 TeV Tier-0 Tier-1 ……… Tier-2 ……… Nel modello MONARC (anni '90) ogni sito era connesso ad un solo sito del livello superiore e i dati venivano distribuiti gerarchicamente CM gerarchico originale (data push) Modello usato attualmente da ATLAS Funziona. Ma non ottimizza le risorse e non sfrutta appieno la rete oggi disponibile

18 18 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di Computing @ 7 TeV CM gerarchico originale (data push)

19 19 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di Computing @ 7 TeV Tier-0 Tier-1 ……… Tier-2 ……… Nel modello Grid dinamico (anni 2010) i dati sono in parte distribuiti e in parte richiesti dal livello superiore. In prospettiva ogni sito è connesso a tutti i siti del livello superiore. CM dinamico (data pull) Modello in test attualmente nelle cloud US, UK e IT. La distribuzione dei dati ai Tier1 non cambia I Tier2 sono delle cache utilizzando il sistema di data deletion basato sulla popolarità dei dati

20 20 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di Computing @ 7 TeV Panda Dynamic Data Placement Model Modello di distribuzione dei dati basato sull’idea di considerare gli storage dei Tier2 come cache Oggi i job vanno verso i dati pre-placed nuovo modello più reattivo, PD2PM: nessun dato (o solo alcuni formati) pre-placed nei Tier2, stop alla replica automatica immutata la distribuzione dei dati nei Tier1 Panda esegue la replica dei dati verso i Tier2 quando c’è un job al Tier1 che li richiede i successivi job girano al Tier2 dove è stata eseguita e completata la replica clean up dei Tier2 quando lo storage è pieno basato sul sistema di popolarità il modello, nella sua fase finale, funzionerà collegando i Tier2 con i Tier1 di ogni cloud anche solo l’applicazione all’interno della singola cloud permette comunque di ottimizzare l’uso dello storage e delle CPU Questo modello è in fase di test in 3 cloud (US, FR e IT), bisogna valutare attentamente le performance prima di renderlo operativo e basare su di esso il nuovo CM test iniziale in USA che si avviava verso una catastrofe ultravioletta del disco dei Tier2 l’Italia ha iniziato il test a fine luglio appena è stata installata al CNAF la prima parte del disco 2010 ed è stata abilitata l’analisi utente aumentato lo share di ESD (formato più popolare d’analisi) al Tier1 al 30% interrotto il pre-placement automatico di ESD e dESD ai Tier2 promettente, ma richiede ancora molto studio, soprattutto per la nostra tipologia di Tier2

21 21 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di Computing @ 7 TeV Panda Dynamic Data Placement Model Il plateau non è ancora visibile a causa della piccola dimensione della cache

22 22 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di Computing @ 7 TeV Modello ATLAS per i Tier3 ATLAS ha sviluppato un modello di Tier3 definendo le funzionalità e i tool specifici Analisi interattiva (Root, Proof) e sviluppo di codice Storage locale (ntuple) Molti siti già attivi in tutto il mondo e soprattutto in America, molto importanti per l’attività locale Tipologia Tier3: sito pienamente “grigliato” Tier3 @Tier2 (tipologia più diffusa in ATLAS) piccola farm locale non “grigliata” per l’interattivo in Italia task force in alcuni proto-Tier3 (Genova, Roma3, Trieste/Udine) che ha portato avanti lo sviluppo del modello in base alle tipologie dei nostri centri utilizzo delle farm già esistenti nelle sezioni (p.es. farm INFN-GRID) la sperimentazione continua coinvolgendo sempre più strettamente gli utenti per arrivare ad un modello finale sarebbe molto utile un riconoscimento dell’importanza di questi siti I Tier3

23 Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di Computing @ 7 TeV 23 Conclusioni Le attività di computing nei 5 mesi di dati a 7 TeV hanno dimostrato che la griglia funziona e dal primo momento i dati sono stati analizzati con le tecniche dell’analisi distribuita Il Computing Model è sottoposto ad una analisi critica individuandone gli aspetti da migliorare. Alcune modifiche sostanziali già attuate. Tutti i siti italiani, Tier1 e Tier2, garantiscono un livello di affidabilità più che sufficiente e un efficiente utilizzo delle risorse Le risorse richieste nel 2011 garantiranno alla cloud italiana di confermare e aumentare la propria competitività


Scaricare ppt "Parma, 22 Settembre 2010 G. Carlino – ATLAS, Attività di 7 TeV 1 ATLAS Attività di TeV Attività di computing Attività di computing."

Presentazioni simili


Annunci Google