La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

EVOLUZIONE MODELLI DI CALCOLO A LHC T. Boccali, A. De Salvo, C. Grandi, D. Elia, V. Vagnoni.

Presentazioni simili


Presentazione sul tema: "EVOLUZIONE MODELLI DI CALCOLO A LHC T. Boccali, A. De Salvo, C. Grandi, D. Elia, V. Vagnoni."— Transcript della presentazione:

1 EVOLUZIONE MODELLI DI CALCOLO A LHC T. Boccali, A. De Salvo, C. Grandi, D. Elia, V. Vagnoni

2 Outline (a grana grossa) Computing a LHC: condizioni al contorno Run 1 (2010-2013): Modello di calcolo degli esperimenti Lezioni imparate Nuove condizioni al contorno per il Run 2015-2018 Evoluzione dei modelli di calcolo (Oltre il 2018) 2

3 LHC, condizioni al contorno I piani storici AnnoBunch spacin g (pp) Energy (pp) per nucleo ne Energy (HI) per nucleo ne Lumi Inst (pp) Lumi Inst (HI) interac tions, pp Integra ted lumi (pp) Live time (pp) Live time (HI) 200525 ns14 TeV5.5 TeV2x10 33 5x10 26 510 1/fb10 7 O(10 6 ) 200625 ns14 TeV5.5 TeV2x10 33 5x10 26 510 1/fb10 7 O(10 6 ) 200725 ns14 TeV5.5 TeV2x10 33 5x10 26 510 1/fb10 7 O(10 6 ) 3

4 Aspettative degli esperimenti (~ 2005) Data rates 40 MHz interaction rate (1/25ns) – pp 4 kHz - HI O(100-300) Hz salvati alla fine della selezione su tape ~1 MB/ev RAW data size (pp), ~ 10 MB/ev (HI) Eventi raccolti in un anno pp: 100Hz * 10 7 sec = 1 Miliardo l’anno -> 1 PB/anno HI: 100Hz * 10 6 sec = 100 Milioni l’anno -> 1 PB/anno Utenti attivi : una percentuale (ottimisticamente) fissata intorno al 30-50% della collaborazione ~1000 per ATLAS/CMS ~200 per LHCB/ALICE 4

5 Altri parametri in gioco Eventi ricostruiti: 0.5-1x dei RAW, possibili formati ridotti ~10x piu’ piccoli Reprocessing: previsti almeno un paio l’anno Tempi CPU per processing Reconstruction: 20-50 sec/ev Simulation (Geant4): 100-400 sec/ev Analisi: 0.1 sec/ev 5

6 Altri parametri in gioco EsperimentoSize RAW (MB) Size RECO (MB) Size ridotto (analisi) Tempo di riconstru zione (sec.HS0 6/ev) Tempo di simulazio ne (sec.HS0 6/ev) Tempo di analisi(se c.HS06/e v) ALICE10.040.004251502-64 ALICE122.50.2530007000030-1000 ATLAS1.6.5.1604002 CMS1.50.50.051001801 LHCB0.0250.0750.025101 HI 6 pp (NB: sarebbe numeri originali in kSI2k, rinormalizzati a HS06 usando il fattore 250)

7 Come avviene davvero la presa dati? La DAQ+L1+L2+HLT (comunque si voglia chiamare la sequenza che scrive eventi persistenti RAW su supporto storage permanente) seleziona 100-300 Hz di eventi Tale storage deve essere GARANTITO: almeno 2 copie, tape preferibile Deve esserci un sistema che li ricostruisce (velocemente: la guerra e’ aperta) Deve esserci un sistema che ripete le ricostruzioni 2-5 volte l’anno, una volta che le calibrazioni ottimali siano state realizzate Deve esserci un sistema di analisi accessibile all’utente (il tutto 2x per la presenza parallela di eventi simulati) 7

8 Sommando tutto, sempre dai TDR degli esperimenti (visione del 2005) Esperi mento Anno presa dati (1,2,3) Tape (PB) Disco (PB) CPU per recons tructio n (kHS06 ) CPU per calibra tion (kHS06 ) CPU per simula tion (kHS06 ) CPU per reproc essing (kHS06 ) CPU per analisi (kHS06 ) ALICE1111450124840 ALICE3182490208070 ATLAS1122016124010040 CMS1201520 406040 CMS3503050 100150100 LHCB13.43.216305 LHCB311.64.7243015 8

9 Quindi … CPU (2010; 2012 nella realta’) era prevista ~ 400 kHS06 per esperimento (almeno, per ATLAS e CMS) DISK: ~30 PB per esp TAPE: ~50 PB per esp (poi vediamo cosa sono stati davvero…) PROBLEMA: anche considerando sempre valida la legge di Moore, e dando per 2010 ~ 8 HS06 a processore e 2 TB/disco, sono (sempre per esperimento) Almeno 50000 CPU (che allora erano 50000 computers) Almeno 15000 dischi Almeno 50000 cassette 9

10 10 Slide del 2005 (per il primo anno di presa dati) …. ~400 kHS06

11 Come gestirle? Volonta’ anche politica si andare su calcolo geograficamente distribuito 1. Le funding agencies si comprano risorse invece di mandare soldi al CERN 2. Si crea un knowledge distribuito sul calcolo scientifico 3. La CERN/IT puo’ concentrarsi sugli aspetti piu’ vicini alla presa dati Usando GRID come MW, MONARC come template del modello di calcolo 11

12 MONARC e le reti Gli esperimenti “producono” dati a ~450 MB/s (se a 300 Hz) di flusso RAW, piu’ un flusso Ricostruito simile La parte di produzione MC mette circa un altro fattore 2, e poi c’e’ la parte ricostruita L’analisi deve accedere a questi dati in modo caotico, da parte di ~ 1000 utenti (jobs di analisi sono dimensionati a circa 1 Mbit/s/HS06, e ci sono ~100kHS06 per l’analisi) Sommando il tutto, si arriva ad una stima di 20 Gbit/s+100 Gbit/s; quindi O(150Gbit/s) caotici fra ~50 siti (gli istituti + importanti) Le reti previste per il 2010 NON potevano garantire queste bande fra un numero grande e variabile di istituti 12

13 Per cui MONARC … E’ sostanzialmente Data Driven: i dati devono seguire rotte prevedibili con rate prevedibili, in modo che solo queste vadano “garantite” Si ottiene naturalmente una distinzione fra i siti, che non sono tutti uguali. Solo fra alcuni di questi e’ necessario dare garanzie di banda. 13

14 14 30/3/2005Tommaso Boccali 14 Si dividono una copia di “ backup ” dei RAW ricostruzioni e calibrazioni piu ’ accurate gran parte dell ’ attivita ’ di analisi/simulazione avverra ’ qui coprono I bisogni di una comunita ’ ~ 50 utenti Tier 1 Tier 2 CERN Storage della copia master dei dati RAW calibrazioni “ veloci ” e monitoring una prima ricostruzione Tier 0 Tier 2 Tier 3,4 ogni altra risorsa da piccolo cluster universitario, a macchina desktop, a portatile …

15 La rete e MONARC LHCOPN fra T0 T1s per la parte “garantita” Dall’inizio almeno 10 Gbit/s daverso CERN Fra T1 e T2 e fra T2: nulla di davvero garantito In pratica lasciato alle NREN senza particolari richieste aggiuntive 15

16 16

17 17 Enabling this scale of data-intensive system requires a sophisticated network infrastructure CERN →T1mileskms France350565 Italy570920 UK6251000 Netherlands6251000 Germany7001185 Spain8501400 Nordic13002100 USA – New York39006300 USA - Chicago44007100 Canada – BC52008400 Taiwan61009850 CERN Computer Center The LHC Optical Private Network (LHCOPN) LHC Tier 1 Data Centers LHC Tier 2 Analysis Centers Universities/ physics groups Universities/ physics groups Universities/ physics groups Universities/ physics groups Universities/ physics groups Universities/ physics groups Universities/ physics groups Universities/ physics groups Universities/ physics groups Universities/ physics groups Universities/ physics groups Universities/ physics groups Universities/ physics groups Universities/ physics groups Universities/ physics groups Universities/ physics groups Universities/ physics groups The LHC Open Network Environment (LHCONE) 50 Gb/s (25Gb/s ATLAS, 25Gb/s CMS) detector Level 1 and 2 triggers Level 3 trigger O(1-10) meter O(10-100) meters O(1) km 1 PB/s 500-10,000 km This is intended to indicate that the physics groups now get their data wherever it is most readily available A Network Centric View of the LHC

18 Effetti di essere Data- Driven Difficolta’ di spostamento di dati fra NREN diverse, se non utilizzabile LHCOPN Traffico T2 – T2 per esempio Necessita’ di non generare traffico caotico fuori controllo L’attivita’ di analisi e’ essenzialmente locale, utilizza solo lo storage locale Necessita’ di preallocazione “smart“ dei dati nei T2 per non avere bassa efficienza di analisi Necessita’ di copie multiple di dati interessanti (almeno una per continente) 18

19 Occhio: peculiarieta’ Il modello qui descritto vale bene per ATLAS e CMS ALICE fin dall’inizio e’ stata meno rigida nel suo modello: ai T1 e’ riservato solo il ruolo di reprocessing dei dati, tutto il resto dove c’e’ disponibilita’ di calcolo considerando la rete come di fatto infinita, il che ha spesso funzionato bene, a volte creato problemi nei centri LHCb ha dei Tier2 ridotti, senza disco. In pratica tutte le attivita’ che necessitino di accesso allo storage sono al Tier1 o “nelle vicinanze”. 19

20 20 WLCG as the orchestrator “Grid” is a computing paradigm WLCG governs the interoperation since 2002 between the number of “concrete GRID implementations” (a number of, the main ones being OSG, LCG, NurduGrid, …) WLCG was crucial in planning, deploying, and testing the infrastructure before 2010, and is crucial for operations now As of today, from REBUS CPU 1.8 MHS06 (~180k computing cores) DISK 175 PB (~80k HDDs) TAPE 170 PB (20-80k tapes) # Sites exceeding 200 20 ATLAS > 100k jobs/day CMS > 100 TB moved /day Still increasing … Da Krakow’12

21 Risorse reali in gioco 2013 21 EsperimentoCPU (kHS06) Disk (PB)Tape (PB) ALICE3913744 ATLAS7809363 CMS6365976 LHCB1901317 Divise in ~200 siti (1 HS06 ~ 250 Si2k)

22 Come ha funzionato? Gestire il computing a LHC e’ sicuramente stato Faticoso (come manpower necessaria a gestire servizi, spostamento di dati, sottomissione di jobs) Complicato (un sistema a moltissimi gradi di liberta’, difficile da ottimizzare) Costoso (200 siti, di cui una decina molto grandi) … pero’ certamente dal punto di vista della fisica ha avuto successo Luglio 2010: primi eventi di TOP presentati a Parigi, raccolti 72 ore prima Luglio 2012: “scoperta” dell’Higgs, dati raccolti la settimana prima, spesso gia’ riprocessati nel frattempo 22

23 … e gli esperimenti lo hanno largamente riconosciuto.. 23 ATLAS RRB 2013

24 Altri plots interessanti 24 Atlas ~150kjobs di analisi in parallelo Atlas ~30 PB trasferiti al mese

25 25 Spazio “visto” dal data management di ATLAS

26 CMS… 26 CMS: jobs runnanti ai T2 CMS: Trasferimenti T0->T1s

27 LHCb … 27 Jobs sulla GRID… E in particolare campagne di produzione

28 ALICE … 28 Jobs running …

29 In realta’ …. Modello realmente utilizzato 2010-2013 e’ stato leggermente diverso da quello qui descritto Alcuni hint veloci Rete non davvero cosi’ problematica, modello a mesh per I trasferimenti LHCONE Diminuzione delle restrizioni di MONARC Analisi ai T1 Data placing ai siti diventato almeno parzialmente automatico, e cosi’ anche la cancellazione (ATLAS: Victor) 29 T1 T2 T0 T1 T2 T1 T2 T0 T1 T2

30 LHCONE gia’ attiva Nata dal fatto che le reti fra siti non LHCOPN e’ meglio del previsto Un T2 tipico in US e’ connesso a 40 Gbit/s da almeno un anno, 100 a breve Un T2 italiano e’ a 10 Gbit/s da almeno un anno Gli esperimenti hanno quindi cominciato ad alleggerire le maglie, per esempio permettendo traffico diretto T2 T2, e formando quindi una full mesh (tutti parlano con tutti, O(200^2) links permessi) Puo’ essere vista piu’ come una protezione per il resto del mondo, che per il lavoro di LHC (che rischia di saturare altrimenti qualunque cosa)! 30

31 31 Enabling this scale of data-intensive system requires a sophisticated network infrastructure CERN →T1mileskms France350565 Italy570920 UK6251000 Netherlands6251000 Germany7001185 Spain8501400 Nordic13002100 USA – New York39006300 USA - Chicago44007100 Canada – BC52008400 Taiwan61009850 CERN Computer Center The LHC Optical Private Network (LHCOPN) LHC Tier 1 Data Centers LHC Tier 2 Analysis Centers Universities/ physics groups Universities/ physics groups Universities/ physics groups Universities/ physics groups Universities/ physics groups Universities/ physics groups Universities/ physics groups Universities/ physics groups Universities/ physics groups Universities/ physics groups Universities/ physics groups Universities/ physics groups Universities/ physics groups Universities/ physics groups Universities/ physics groups Universities/ physics groups Universities/ physics groups The LHC Open Network Environment (LHCONE) 50 Gb/s (25Gb/s ATLAS, 25Gb/s CMS) detector Level 1 and 2 triggers Level 3 trigger O(1-10) meter O(10-100) meters O(1) km 1 PB/s 500-10,000 km This is intended to indicate that the physics groups now get their data wherever it is most readily available A Network Centric View of the LHC

32 LHCONE Puo’ essere vista piu’ come una protezione per il resto del mondo, che per il lavoro di LHC (che rischia di saturare altrimenti qualunque cosa) Collega oggi tutti I T2 E’ usata per I trasferimenti programmati senza dover fare multi hop dai T1, ma in un futuro anche per accesso diretto (vedi dopo) 32

33 Modelli di calcolo: tutto bene… e allora perche’ cambiare? Diverse condizioni al contorno da LHC Diverse priorita’ (abbiamo l’Higgs!) Redesign di limitazioni del Run 1 (per esempio, della max lumi istantanea sopportata da LHCb) Ma anche (purtroppo) diverse condizioni finanziarie rispetto ai primi anni 200x 33

34 LHC 2013+ 34 Siamo qui! 2015-2018: 13 TeV, ~2.5x in luminosita’, fino a 3x in Pileup 2020-2022 : 13 TeV, altro fattore 2.5x in luminosita’ run shutdown

35 Complessita’ del computing – a spanne (2015) Maggiore energia: ~20% di tracce in piu’; ~30% di sezione d’urto totale in piu’: 1.5x Maggiore luminosita’: piu’ eventi uno sopra l’altro. Purtroppo la nostra ricostruzione e’ + che lineare con la complessita’, per cui la differenza fa almeno un 2x (si puo’ arrivare a 80 eventi sovrapposti, +altri 80 a +50ns e altri 80 a -50ns) Diverso interesse di fisica: focalizzazione sull’Higgs, per lo studio delle sue proprieta’ implica NON alzare le soglie di trigger per I canali con potenziale di Higgs -> aumento del rate di eventi scritti su disco a almeno 1 KHz (da 100-300 Hz) – fattore ~3-5x E anche maggiore copertura fisica del B da LHCb, per esempio QUINDI: a parita’ di tutto il resto, servirebbe un aumento di almeno 10 delle risorse da qui a inizio 2015. 35

36 Come “riguadagnare” questo fattore 10 Ci sono delle deficienze (== mancanze di efficienza) note nel nostro modo di processare Se usassimo MONARC “ideale”, avremmo spostamenti molto inefficienti fra i siti Il fatto che I jobs vadano dove sono i dati implica che I dati debbano essere preallocati bene Abbiamo molta difficolta’ a cancellare files (viscosita’ umana) Ecc … ecc… Accorgersene e’ gia’ qualcosa e infatti e’ stato lanciato uno sforzo a livello di WLCG sui Technical Evolution Groups (TEG) 36

37 TEG Reports finali: quiqui Gruppi di lavoro Storage Databases Operations Workload Management Security 37

38 Storage e Data management 1. Semplificare le interfacce 1. SRM serve solo ai siti con MSS 2. usare protocolli piu' standard (http, ma anche xrootd, gridftp) dove non c'e' nastro 2. Storage federations 1. Oggi Xrootd ma in futuro anche http... NFS 4.1 ancora immaturo 2. Data caches (per esempio ai T2) 3. non solo pre-allocazione di dati ma anche spostamenti e cancellazioni automatici 3. Sicurezza 1. lightweight security per dati read-only? 38

39 Workload Management 1. Basato su pilot jobs 1. Dipendenza dagli information systems molto ridotta (solo per service discovery – quindi solo info statiche) 2. Utilizzo di un gateway per l'accesso al sito ancora necessario (CE) 1. Modifiche all'interfaccia per ridurre la scala delle autorizzazioni 2. Modifiche all'interfaccia per il supporto dei job multicore 3. Clouds affrontate marginalmente 1. virtualizzazione per supportare la configurazione ai siti 2. Dopo la fine del TEG in realta' le attivita' per l'uso di Cloud sono state dominanti mentre l'evoluzione dell'interfaccia del CE si e' praticamente fermata 39

40 Databases & Security Utilizzo di tecnologia NoSQL per usi specifici Caches (via squid) per non event data (conditions data, software,...) Frontier e’ in pratica upgradato a prodotto WLCG Rendere obbligatorio glexec per I pilot jobs Interazione fra security per WM e per data access non ancora definita Eseguibili firmati -> data access senza proxy 40

41 NB: dal punto di vista finanziario I grossi progetti europei EGI-EMI (FPVII) stanno finendo Le funding agencies stanno avendo problemi finanziari, e garantire il personale di sito non e’ uno sforzo banale Per l’italia solo per il T1, per i T2 INFN ha detto fin dall’inizio che non avrebbero contribuito Non siamo piu’ (o non saremo a breve) in assoluto i piu’ grossi fruitori di calcolo scientifico; con l’approccio MONARC/GRID e’ difficile utilizzare risorse non costruite apposta per noi 41

42 E quindi, i nuovi modelli di calcolo Linea generale: utilizzare MEGLIO cio’ che abbiamo (perche’ tanto di piu’ non ci daranno) Cercare di riassorbire con efficienze operazionali il gap di risorse che non riusciremmo comunque ad avere Cercare di promuovere miglioramenti dello stack software (sia con ottimizzazioni di sw, sia con cambiamenti architetturali) Abbracciare nuove tecnologie (Cloud, di nuovo nuove architetture) Manpower limitata: cercare di avere progetti o WLCG o almeno a >1 esperimento (sia per devel, sia per supporto) 42

43 Concetti generali a tutti gli esperimenti Accesso remoto diretto ai dati: DataDriven: i jobs vanno dove sono i dati, per non generare traffico caotico sulla WAN. Se un sito ha CPU libere, ma dati non interessanti, non sara’ usato Se un sito ha dati interessanti, ma tutte le CPU usate, non sara’ possibile l’accesso a questi dati Come organizzare l’accesso remoto? Storage Federations! 43

44 Storage federations Ricetta: dati distribuiti su N siti Un protocollo di accesso remoto (http, Xrootd, NFS4.1 …) Un ”catalogo” dei files / un servizio di redirezione (tanta tanta rete …) Catalogo: Serve un DB centrale che sappia dove sono tutti i files (uhm…) Redirezione I vari siti “annunciano” I loro files al redirettore Protocollo: alla fine Xrootd e http sono poco diversi ad alto livello; NFS4.1 pare tramontato 44

45 Idea: federazione gerarchica (Esempi: FAX, AAA, ALICE x costruzione …) Ad una richiesta di fopen, il sistema reagisce Cercando il file localmente; altrimenti Scala al redirettore regionale, che lo “chiede” ai nodi registrati; se non c’e’ Puo’ scalare un certo numero di livelli di redirezione, fino eventualmente al redirettore mondiale. Appena il file viene trovato, si apre una connessione diretta fra server e WN 45

46 Bello, ma …. e i rischi? Xrootd e’ molto efficiente come protocollo (http si vedra’), qualche migliaio di connessioni remote possono intasare qualunque cosa E’ essenziale uno shaping del traffico, per limitarlo; E’ essenziale che la maggior parte dei fopen si fermi al primo livello E che quindi un efficiente preplacement dei dati continui ad avvenire (a meno che, chiaramente, la rete non diventi “infinita”) 46

47 Multicore Fino ad ora, l’utilizzo delle macchine di calcolo e’ sempre stato “batch seriale”: 1 core, 1 job. Ma in questo modo, visto che molti dei jobs che troverrano a essere eseguiti nello stesso momento sono “simili”, c’e’ un chiaro spreco di RAM perche’ la geometria (per esempio) e’ presente piu’ volte in memoria Soluzione: approccio multicore. Un singolo job crea processi/threads veri e propri su tutta la macchina O Almeno su una frazione non piccola del WN 47

48 Vantaggi 1. Miglior utilizzo delle caches dei processori 2. Scheduling di jobs a alta CPU e a alto I/O sulle stessa macchine (ora le controlliamo “globalmente”) 3. Meno memoria utilizzata (perche’ calibrazioni etc sono presenti una volta sola) -> disegnare algoritmi piu’ efficienti, ma che utilizzino piu’ memoria 4. Utilizzo di risorse opportunistiche con meno RAM, ad oggi a noi negate 5. Il fatto che lo scheduling non e’ piu’ per core, ma per “macchina” diminuisce di un fattore ~ 10 il carico dell’infrastruttura di computing 1. # di jobs da gestire 2. # di slots da gestire 3. # di files temporanei da gestire 48

49 Ma come farlo?? Framework multithreaded e’ vitale Non e’ possibile esporre il fisico medio (almeno a mio parere) al parallelismo Pertanto in prima approssimazione, e’ il Framework che deve esserlo, schermando tutto il resto dall’utente “parallelismo a livello di moduli”: ogni modulo e’ pensato/scritto/eseguito come seriale; + moduli girano in parallelo Funziona? Certamente si E’ sufficiente? Non e’ detto: funziona nel caso in cui Le interdipendenza fra I moduli siano semplici / semplificabili Non ci sia un singolo modulo che prende il 90% del tempo (e purtroppo non ne siamo lontani… il tracking) 49

50 50 Are we entangled? You can improve parallelism by unrolling sequences But on the other hand global event reconstruction techniques a-la Energy Flow make everything more interdependent Lines are input/output to modules 50

51 Ci sono veri motivi per averne + di uno? Cioe’, un solo FW basterebbe per I 4 esperimenti LHC? Secondo me si’. I nostri modelli di calcolo non sono troppo diversi Tutti basiamo l’event data model su ROOT I Workflos di ricostruzione, calibrazione, analisi sono simili Come al solito e’ un problema di volonta’ Il CERN ci sta almeno provando: Concurrency Forum! Valutazione delle varie tecnologie (libdispatch, TBB, …) Proposta di soluzioni (?) 51

52 Nuove architetture Non mi soffermo su questo, vista la sessione di ieri, ma alcune parti specifiche dei nostri software sono altamente parallelizzabili (seeding, tracking, island search per I jets, …)) Nota bene: parlo di parallelizzazione ALL’INTERNO DEL SINGOLO MODULO! Xeon Phi, GPU sono tecnologie che sono sotto studio da parte degli esperimenti ARM d’altra parte e’ interessante per la riduzione dei consumi Ma senza i 64 bit stiamo solo giocando … Tipicamente solo per piccole porzioni del codice, da iper-ottimizzare In condizioni time-critical, come a livello di farm di trigger 52

53 Miglioramenti stack software Anche rimanendo nell’ambito x86 standard, i nostri SW (per la parte algoritmica, almeno) sono stati in buona parte realizzati da generazioni di studenti “improvvisatisi programmatori” I margini di miglioramento esistono, ma non sono facili da realizzare; lo sforzo di miglioramente delle performance e’ tipicamente nelle mani di pochissimi membri della Collaborazione E’ un problema di “educazione”? Mia personale opinione: non e’ facile educare chi non voglia essere educato … 53

54 Alcune guidelines per il prossimo modello di calcolo 1. Ridurre differenze T0/T1/T2: girare dove ci sono risorse qualunque workflow, appoggiandosi a Xrootd quando serva 2. Disaccoppiare Disco e CPU nel brokering 1. Non per la maggioranza dei jobs, ma per riottenere frazioni di efficienza 3. Transizione verso tools di analisi/produzione comuni almeno fra 2 esperimenti 1. Diminuzione del manpower per lo sviluppo e il supporto 4. MW GRID sostanzialmente congelato da usare nei nostri siti, ma: 1. Essere pronti a sfruttare opportunita’ impreviste (slot in centri supercalcolo, risorse opportunistiche) via CLOUD 2. Tanto lavoro da fare: intra e inter cloud scheduling; ottimizzazione dell'accesso allo storage 5... E additittura volunteer computing per produzione MC (completamente da fare) 54

55 Le cloud …. Abbiamo delle sessioni specifiche a questo WS, per cui non ne parlo troppo estesamente qui Per cosa possono servire a noi le cloud? 1. Per avere accesso a risorse altrimenti non utilizzabili 1. Per diminuire gli FTE necessari per manutenere i siti 2. Stack Cloud commerciali esistono indipendentemente da noi (non dobbiamo svilupparceli) Per essere chiari: comunque per il run 2015-2018 l’utilizzo preponderante delle NOSTRE CPU sara’ via GRID; qui stiamo parlando del “resto” (< 10% a occhio) 55

56 Cloud per avere maggiori risorse Consideriamo 3 use cases di risorse che OGGI gli esperimenti avrebbero difficolta’ ad utilizzare 1. Grossi centri di supercalcolo e/o cloud non HEP, magari con architetture strane (rete di interconnessione dei nodi) offerti per brevi periodi ad un Esperimento 2. Grosse farm di calcolo dei nostri esperimenti, destinate ad altro (tipo le farm HLT) libere per frazioni del tempo 3. Grosse farm commerciali, da usare per un certo periodo (a pagamento/gratis) Questo perche’ “una farm” per diventare “un sito” ha bisogno di servizi non immediati da installare; per esempio 56

57 Girare su GRID rispetto a su Cloud 57 You needGRIDCloud A computer connected to network, with conditioning and power Local site staff An operating system “compatible” with the application Local site staff, after negotiation with experiments Comes as a virtual image from the experiment central infrastructure A local installation of the experiment software (and a local area where to store it) Local site staff provides area, Experiment support installs software (ok, we have CVMFS now …) Downloaded on demand from the experiment central infrastructure Machines for local experiment facilities (voboxes etc) Local site staff provide them. Also deployable as virtual images A local storage containing the input data Local site staff needs to have bought storage for the experiment Data can be accessed remotely OR via cloud storage (efficiency price?) A configuration to be executed User!

58 Cloud Quanto detto e’ vero riguardo all’utilizzo opportunistico/temporaneo di risorse “altrui” Ma gli stessi aspetti riguardano l’ottimizzazione (== riduzione) del manpower necessario nei nostri siti Diminuisce la necessita’ di avere personale specializzato per una data VO L’unico suppoto locale davvero necessario e’ quello sistemistico, per installare / tenere vive le macchine e per gestire lo stack Cloud locale 58

59 Standardizzazione! Ci sono tanti stack Cloud disponibili Ma appare sempre + chiaro che il mondo HEP si stia orientando (CERN in testa) verso Openstack Compliance EC2 (sia macchine, sia storage) gratis.. E un po’ meno chiaramente, verso CERN/VM come base per l’immagine virtuale di esperimento Al momento CER/VM soddisfa completamente solo ALICE … per costruzione ! OK fare R&D, ma teniamo presente che “il CERN ha gia’ scelto…” 59

60 Esempi noti 1. Centro di calcolo di UCSD offerto a CMS per un paio di settimane ha pemesso di effettuare mesi di lavoro standard 2. Le farm di HLT nei modelli 2015+ sono utilizzate come T0 nei periodi di down di LHC, ma anche durante il paio di ore che intercorre fra un fill e l’altro di LHC in pratica nei piani di tutti gli esperimenti, con diversa granularita’ temporale 3. Utilizzo di Amazon, RackSpace, etc …. per tamponare periodi di urgenza Tutti gli esperimenti stanno facendo I loro conti; adesso troppo caro in utilizzo standard ma chissa’…. 60

61 Cloud commerciali Al momento economicamente non sostenibile: CMS: spostare un mese di produzione MC (solo la parte GEANT4) su Amazon e’ ~1.3 M$ ALICE: x spostare tutta l’attivita’ ALICE2012 su Amazon 40M$ Pero’ si possono avere forti sconti (anche /10) sul mercato “spot”: Comprare 1MOre di CPU “nel prossimo anno” (ma quando siano disponibili lo decide Amazon) Dare il permesso a Amazon di uccidere i jobs quando le macchine servano per usi meglio pagati Interessante, vediamo come evolve…. 61

62 E dopo ? (LS2, 2020+) Esperimenti stanno cominciando solo adesso a pensare come vorranno operare; saremo in rpesenza di detectors in gran parte “nuovi” Idee che circolano: Processare direttamente a HLT (quindi via SW) tutto il rate dall’esperimento (40 MHz) – eliminando hardware dedicato di L1 Poter salvare piu’ rate su disco: non salvare RAW, ma direttamente formato ridotto per l’analisi (permetterebbe 20x di rate su disco) Ma serve grossa fiducia nelle calibrazioni online Rottura completa dello schema MONARC: delocalizzazione completa delle risorse (sia via GRID sia via Cloud: in situazione “a rete infinita” MONARC non ha molto senso). Calcolo eterogeneo (x86 + ARM + Phi + GPU + chissa’ cosa): come ai vecchi tempi di LEP, tornare ad avere piu’ architetture supportate allo stesso tempo 62

63 Calcolo ALICE63 Prospettive Calcolo ALICE Previsioni post-LS2: nuovo CM  Aumento consistente del flusso di dati (~10 2 -> 50 kHz)  contenimento delle risorse (calcolo e storage) necessarie:  necessità di ridisegnare interamente il framework di calcolo  Concetti ispiratori:  Cloud computing  Online + Offline (O 2 )

64 Calcolo ALICE64 Prospettive Calcolo ALICE Previsioni post-LS2: nuovo CM  Aumento consistente del flusso di dati (~10 2 )  contenimento delle risorse (calcolo e storage) necessarie:  necessità di ridisegnare interamente il framework di calcolo  Concetti ispiratori:  Cloud computing  Online + Offline (O 2 )  Progetto O 2 :  avviato a Marzo 2013  organizzato in CWGs  integrerà DAQ/HLT/Offline, TDR ad Ottobre 2014

65 Calcolo ALICE65  Rivoluzione al Tier-0 (CERN):  divisione Online/HLT/Offline perderà in parte significato  ricostruzione in parte effettuata online in ambiente eterogeneo (FPGA, GPU, Multi-core CPU) e comunque tutta al CERN  Attività ai siti esterni (Tier-1 e Tier-2) :  simulazione MC e analisi (più possibile organizzata)  in corso R&D su Cloud e Analysis Facilities “on demand”  Principali novità in AliRoot 6.x:  dovrà girare su sistemi eterogenei, almeno in parte (GPU etc)  dovrà supportare rivelatori che operano in readout continuo  dovrà supportare la fast simulation  dovrà essere più veloce (x10) e usare meno memoria Prospettive Calcolo ALICE Previsioni post-LS2: nuovo CM

66 Post LS2? (Almeno 2020, se non 2025) Molto molto difficile fare previsioni (e purtroppo e’ la seconda volta che me le chiedono  : qui)qui Non ci sono indicazioni che la fase in cui l’aumento di potenza computazionale e’ dato dall’aumento dei cores finisca: SW pesantemente multithreaded (letteralmente centinaia di cores) Centri di calcolo completamente virtualizzati nelle Cloud, network sufficiente a non dover tenere conto della locazione fisica Abbandono lento di x86 … al momento ARM e GPU paiono le possibilita’ piu’ concrete 66

67 Conclusioni (in ottica CCR) Acquisire esperienza Cloud, preferenzialmente OpenStack: e’ un buon investimento E per cloud storage??? Le reti saranno ancora piu’ centrali per gli esperimenti in futuro E la capacita’ di tunare i cammini, se la rete non sara’ “infinita” Esperienza in nuove architetture di calcolo sono utili; difficilmente “moriremo x86” Queste stesse (ARM per esempio), sono di interesse anche per I servizi Il software sara’ necessariamente multi- core aware Come rendere i nostri fisici capaci di capirlo/scriverlo? Possiamo contribuire a scrivere “IL” FW multicore (se esistera’?) 67


Scaricare ppt "EVOLUZIONE MODELLI DI CALCOLO A LHC T. Boccali, A. De Salvo, C. Grandi, D. Elia, V. Vagnoni."

Presentazioni simili


Annunci Google