La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

1 P2P e DHT - G. Ruffo Peer to Peer Computing e Distributed Hash Table (DHT) Giancarlo Ruffo Dipartimento di Informatica Università di Torino.

Presentazioni simili


Presentazione sul tema: "1 P2P e DHT - G. Ruffo Peer to Peer Computing e Distributed Hash Table (DHT) Giancarlo Ruffo Dipartimento di Informatica Università di Torino."— Transcript della presentazione:

1 1 P2P e DHT - G. Ruffo Peer to Peer Computing e Distributed Hash Table (DHT) Giancarlo Ruffo Dipartimento di Informatica Università di Torino

2 2 P2P e DHT - G. Ruffo Obiettivi del P2P

3 3 P2P e DHT - G. Ruffo Obiettivi del Peer-to-Peer Riduzione/Condivisione dei costi –Ogni peer è responsabile dei propri costi –Napster: riduzione dei costi di memorizzazione riduzione dei costi computazionali Miglioramento della scalability/affidabilità –Nuovi algoritmi (CAN, Chord, etc.) sono stati progettati a questo scopo

4 4 P2P e DHT - G. Ruffo Obiettivi del Peer-to-Peer Aggregazione delle risorse –Ogni peer presta le sue risorse alla rete –Napster: Condivide file e banda Condivide risorse computazionali Maggiore autonomia –Nessun provider centralizzato di servizi –I task sono eseguiti localmente

5 5 P2P e DHT - G. Ruffo Obiettivi del Peer-to-Peer Anonimato/Privacy –Con un server centrale, è difficile garantire lanonimato –I sistemi P2P eseguono locamente i task, così i peer possono evitare di fornire tutte le informazioni in loro possesso –FreeNet: Non è possibile localizzare chi ha generato una richiesta –Altri esempi: Tarzan, Publius, etc.

6 6 P2P e DHT - G. Ruffo Obiettivi del Peer-to-Peer Dinamicità –Nel P2P i nodi, e quindi le risorse, entrano ed escono dal sistema continuamente ed in modo trasparente Comunicazioni Ad-hoc –I membri del sistema possono entrare ed uscire dal sistema indipendentemente dalla loro ubicazione e dal loro interesse

7 7 P2P e DHT - G. Ruffo Overlay networks Internet Overlay network

8 8 P2P e DHT - G. Ruffo Misure per le prestazioni Degree –Il numero di vicini (neighbors) con i quali un nodo mantiene contatti continui Hop count –Il numero di hops necessari ad un messaggio per raggiungere una destinazione qualsiasi da una qualsiasi provenienza Il grado di fault tolerance –Che frazione di nodi può fallire senza che dei dati vengano eliminati o che venga compromesso un routing efficace Il maintenance overhead –Quanto spesso i nodi vicini si scambiano messaggi per mantenere lo stato attuale, anche rispetto ai vari join e leave Il grado di load balance –Quanto uniformemente vengono distribuite le chiavi tra i nodi, e quanto carico ogni nodo deve sopportare se usato come intermediario durante un routing

9 9 P2P e DHT - G. Ruffo Centralized server Network Host1 Host2 Host4 Host3 Host5 Object Server Publish (I have xyz) lookup (xyz) reply (host3) download

10 10 P2P e DHT - G. Ruffo Esempi Napster, WinMx, DC++

11 11 P2P e DHT - G. Ruffo Prestazioni Solo il server deve mantenere uno stato del sistema Vantaggi –Lookup veloce (O(1)) Svantaggi –Single point of failure (Napster lo ha dimostrato abbastanza bene)

12 12 P2P e DHT - G. Ruffo Flooding (1/2) Se non hai quello che vuoi (e.g. file), manda una query ad n dei tuoi nodi partner. Se anche loro non hanno quello che cerchi, contatteranno n dei loro partner, per un hop count massimo uguale a k. –E.g., n = 7, k = 10 Le richieste vengono mandate in broacasting –In generale, nessuna struttura ad albero Il looping viene evitato, ma i pacchetti possono essere ricevuti più volte.

13 13 P2P e DHT - G. Ruffo Flooding (2/2) Network Host1 Host2 Host4 Host3 Host5 Object Host6 Host7

14 14 P2P e DHT - G. Ruffo Esempi Gnutella KaZaa (gerarchico)

15 15 P2P e DHT - G. Ruffo Prestazioni Nessun limite superiore per lo stato (degree); Nessuna garanzia di trovare la risorsa cercata (anche se esistente); Loverhead per il mantenimento è alto (fenomeno topology mismatch…) Grado di Fault Tolerance: dipende… –Resistente ai guasti casuali –Debole contro attacchi mirati (DoS)

16 16 P2P e DHT - G. Ruffo Algoritmi P2P: Tabelle Hash Distribuite

17 17 P2P e DHT - G. Ruffo Sommario Introduzione Casi di studio –Chord Panoramica Applicazioni: DHASH, Arpeggio, CFS, The Circle –Kademlia Panoramica Applicazioni: eMule, Overnet, RevConnect DC++, KadC

18 18 P2P e DHT - G. Ruffo Distributed Hash Tables (DHTs) Le tabelle hash associano Chiavi a Valori Le DHTs sono overlay strutturate che offrono: –Alta scalabilità –Interfaccia per il lookup hash-table-like Un sistema DHT supporta una funzionalità simile ad una tabella hash su scala Internet-like Substrato ideale per molte appliciazioni (P2P) –file-systems, storage, backups, event-notification, e- mail, chat, databases, sensor networks...

19 19 P2P e DHT - G. Ruffo Distributed Hash Tables (2) Il nucleo di ogni sistema DHT: –Overlay network –Algoritmo di routing –Funzione hash Problema principale: lookup –Come trovare (efficientemente) la posizione di un oggetto (e.g. a file) –Quando si conosce la posizione, il download è diretto Inoltre, si devono suddividere i dati in modo tale che le operazioni di joins/leaves richiedano uno lavoro minimo

20 20 P2P e DHT - G. Ruffo DHT: schema generale KeyValore K1K1 V1V1 K2K2 V2V2 K3K3 V3V3 K4K4 K5K5 KeyValore K 41 V4V4 K 42 V5V5 K 43 KeyValore K 431 V6V6 K 432 V7V7 KeyValore K 51 V8V8 K 52 K 53 V9V9 KeyValore K 521 VAVA Es. lookup(K 431 ) = V 6

21 21 P2P e DHT - G. Ruffo Chord

22 22 P2P e DHT - G. Ruffo Chord Semplice protocollo per lookup distributa –Una sola operazione: associa una chiave ad un nodo Sviluppato al MIT (IRIS Project) Ogni nodo mantiene informazioni di routing di circa O(log N) Messaggi necessari per trovare un nodo: O(log N) Messaggi necessari per aggiornare le informazioni di routing: O(log 2 N)

23 23 P2P e DHT - G. Ruffo Chord – Consistent Hashing Ad ogni nodo e ad ogni chiave viene assegnato un id a m bit. ( m = 160 per SHA-1 ) n = nodeID = H(IP address) k = keyID = H(key) ID ordinati in un anello modulo 2 m successor (k) è il primo nodo con n k

24 24 P2P e DHT - G. Ruffo Chord – Consistent Hashing m = 3 k1 = 1 k3 = 6 k2 = 2

25 25 P2P e DHT - G. Ruffo Chord – Scalable Key Location m è la dimensione in bit degli ID Ogni nodo n mantiene una finger table con (max) m entry. Lentry i-esima sul nodo n contiene lID del primo nodo s che succeda n di almeno 2 i – 1. s = successor (n + 2 i – 1 ) s = n.finger[i].node

26 26 P2P e DHT - G. Ruffo Chord – Scalable Key Location Ogni nodo mantiene informazioni su pochi altri nodi. Una finger table di un nodo NON ha solitamente informazioni sufficienti per determinare il successor di una chiave arbitraria.

27 27 P2P e DHT - G. Ruffo Chord: Finger table per il nodo 109 N5 N7 N33 N45 N60 N81 N90 N98 N109 N123 N20 StartSucc (109+1)mod128 = (109+2)mod128 = (109+4)mod128 = (109+8)mod128 = (109+16)mod128 = 1255 (109+32)mod128 = 1320 (109+64)mod128= 4545 with m = 7

28 28 P2P e DHT - G. Ruffo Chord – Scalable Key Location n.find_successor(id) n = find_predecessor(id); return n.successor; n.find_predecessor(id) n = n; while (id not in (n, n.successor]) n = n.closest_preceding_finger(id); return n; n.closest_preceding_finger(id) for i = m downto 1 if (finger[i].node in (n, id)) return finger[i].node; return n; RPC eseguita sul nodo n RPC eseguita per cercare la variabile successor su n I puntatori della finger table, raddoppiando continuamente le distanze, causano il dimezzamento della distanza dallobiettivo. prev node on ID circlepredecessor next node on ID circlesuccessor the 1 st node n.finger[k].startfinger[k].node [finger[k].start, finger[k+1].start) finger[k].interval (n + 2 k-1 ) mod 2 m finger[k].start

29 29 P2P e DHT - G. Ruffo Chord – Scalable Key Location finger[1].start = 2 finger[2].start = 3 finger[1].interval = [finger[1].start, finger[2].start) finger[2].interval = [finger[2].start, finger[3].start) finger[3].start = 5 finger[3].interval = [finger[3].start, 1)

30 30 P2P e DHT - G. Ruffo Chord – Scalable Key Location Finger TABLE StartIntSucc [1,2) [2,4) [4,0) KEY = 6 Finger TABLE StartIntSucc [2,3) [3,5) [5,1) KEY = 1 Finger TABLE StartIntSucc [4,5) [5,7) [7,3) KEY = 2 Lookup(1)

31 31 P2P e DHT - G. Ruffo Chord – Node Joins 2 INVARIANTI Il successore di ogni nodo è mantenuto correttamente Per ogni k, il nodo successor(k) è responsabile per k.

32 32 P2P e DHT - G. Ruffo Ogni nodo che entra o esce dal sistema causa linvio di O(log 2 N) messaggi lungo lanello per correggere le finger table. Chord – Node Joins Predecessor pointer

33 33 P2P e DHT - G. Ruffo n entra nella rete. Occorre: Riferirsi ad un nodo di bootstrap (n) Inizializzare predecessor e finger (tramite lookup apposite eseguite da n) Aggiornare i finger e i predecessori dei nodi nella rete Avvertire il livello sw superiore in modo che possa spostare le chiavi. Chord – Node Joins

34 34 P2P e DHT - G. Ruffo Chord – Node Joins #define successor finger[1].node n.join(n) if(n) init_finger_table(n); update_others(); else for i = 1 to m finger[i].node = n; predecessor = n; n.init_finger_table(n) finger[1].node = n.find_successor(finger[1].start); predecessor = successor.predecessor; successor.predecessor = n; for i = 1 to m – 1 if (finger[i + 1].start in [n, finger[i].node)) finger[i + 1].node = finger[i].node else finger[i + 1].node = n.find_successor(finger[i + 1].start); n.update_others() for i = 1 to m p = find_predecessor(n – 2 i – 1 ); p.update_finger_table(n,i); n.update_finger_table(s,i) if (s in [n, finger[i].node]) finger[i].node = s; p = predecessor; p.update_finger_table(s,i);

35 35 P2P e DHT - G. Ruffo Chord – Node Joins Finger TABLE StartIntSucc [1,2) [2,4) [4,0) KEY = 6 Finger TABLE StartIntSucc [2,3) [3,5) [5,1) KEY = 1 Finger TABLE StartIntSucc [4,5) [5,7) [7,3) KEY = 2 Finger TABLE StartIntSucc [7,0) [0,2) [2,6) KEY =6

36 36 P2P e DHT - G. Ruffo Chord – Node Joins Finger TABLE StartIntSucc [1,2) [2,4) [4,0) KEY = 6 Finger TABLE StartIntSucc [2,3) [3,5) [5,1) KEY = 1 Finger TABLE StartIntSucc [4,5) [5,7) [7,3) KEY = 2 Finger TABLE StartIntSucc [7,0) [0,2) [2,6) KEY =6

37 37 P2P e DHT - G. Ruffo Chord – Node Leaves Finger TABLE StartIntSucc [1,2) [2,4) [4,0) KEY = 6 Finger TABLE StartIntSucc [2,3) [3,5) [5,1) KEY = 1 Finger TABLE StartIntSucc [4,5) [5,7) [7,3) KEY = 2 Finger TABLE StartIntSucc [7,0) [0,2) [2,6) KEY =6

38 38 P2P e DHT - G. Ruffo Chord – Node Leaves Finger TABLE StartIntSucc [1,2) [2,4) [4,0) KEY = 6 Finger TABLE StartIntSucc [4,5) [5,7) [7,3) KEY = 1,2 Finger TABLE StartIntSucc [7,0) [0,2) [2,6) KEY =6

39 39 P2P e DHT - G. Ruffo Chord - Stabilization stabilization successor predecessor successor

40 40 P2P e DHT - G. Ruffo DHash LayerFunction ChordMappa gli ID nei successor DHashAssocia i valori con gli ID ApplicationFile System Interface

41 41 P2P e DHT - G. Ruffo DHash Chord non fornisce STORAGE err_t insert (void *key, void *value) void *lookup (void *key) k = H(key) per produrre un ChordID di 160 bit e memorizzando il valore (value) nel nodo successor(k)

42 42 P2P e DHT - G. Ruffo DHash - Reliability Per preservare linvariante del mantenimento della chiave sul successor -> callback di Chord. Spostamento di O(1/N) chiavi ogni volta che un nodo entra o esce dal sistema, a cui si deve aggiungere il costo O(log N) Memorizzazione non solo su successor(k) ma anche sui primi r successor -> redundant storage

43 43 P2P e DHT - G. Ruffo DHash - Performance I cammini che cercano un determinato successor, partendo da nodi diversi, tendono ad incrociarsi tanto più frequentemente quanto più ci si avvicina al target. Per ogni lookup di (k,v) che ha successo il valore v viene mantenuto in cache dai nodi sul percorso. Le lookup successive vanno a cercare il v in cache. + popolarità = + diffusione

44 44 P2P e DHT - G. Ruffo DHash - DoS Inserimento grandi quantità dati inutili > flush dei dati interessanti. Contromossa: limitare il numero di blocks che un nodo può mantenere. Un nodo si annuncia come successor e poi non memorizza il file: controllo di n da parte degli altri nodi. Controllo incrociato per verificare la correttezza della coppia (successor, predecessor).

45 45 P2P e DHT - G. Ruffo DHash – Balancing Load Caching Layer of indirection: DHash mappa gli ID dei file in una lista di IP dove il documento è disponibile (DNS-like). Problema: caching e redundant storage devono essere implementati due volte.

46 46 P2P e DHT - G. Ruffo DHash – Balancing Load Vengono mappati blocks di file invece dei file interi. I file sono inseriti a livello DHash usando come chiave lhashing del contenuto del block. Meta-data (come inode) per fornire un nome unico per il file completo. I file vengono sparsi su molti server, e quindi cè un bilanciamento di carico. Aumento affidabilità e performance.

47 47 P2P e DHT - G. Ruffo DHash – Balancing Load Dal momento che per un file devono essere contattati più nodi, dobbiamo pagare un costo in più per i DHash lookup ulteriori. Unimplementazione base costa: (S x L x log N) / B S (byte) = document size, N = numero server, B = block size, L = average latency

48 48 P2P e DHT - G. Ruffo DHash API put_h(block): calcola la chiave del blocco calcolando il suo hash (key= hash(block)), e lo spedisce al nodo sucessore (succ(key)) per effettuare lo storage; get(key): individua e restituisce il blocco associato alla chiave Chord specificata.

49 49 P2P e DHT - G. Ruffo CFS – Cooperative FS LayerFunction Chord Mantiene le tabelle di routing che servono a trovare i blocchi DHash Conserva i blocchi dei dati in modo affidabile e non strutturato CFS Interpreta I blocchi come file, e si presenta alle applicazioni come uninterfaccia ad un filesystem

50 50 P2P e DHT - G. Ruffo Ricerca per keyword in una DHT Se si conosce lhash del file, lo si trova in tempo O(logN); Ma se non si conosce lhash? Non banale: luso degli hash crittografici complica tutto (no collisioni, basta cambiare un bit, per avere un hash completamente diverso …) DHT ottime per load balancing, ma pessime per la ricerca via keyword

51 51 P2P e DHT - G. Ruffo Ricerca tramite keyword: Soluzioni Avere un server centrale che associ keywords ad uno o più valori hash (sic!!!) –Vedi CFS: utilizza un motore Napster per associare keyword a chiavi Chord Creare un livello di indirezione, ovvero applicare le funzioni get(key) e put(block) a metadati e non ai file (vedi Arpeggio)

52 52 P2P e DHT - G. Ruffo Kademlia

53 53 P2P e DHT - G. Ruffo Kademlia Ogni nodo è rappresentato da un identificatore di 160 bit; Dati due identificatori x e y la distanza fra x e y (d(x,y)) è definita come x (xor) y; XOR è una metrica: –d(x,x)=0; –d(x,y)>0 se x y; –d(x,y)=d(y,x) (simmetrico) ; –d(x,y)+d(y,z) d(x,z). –fissato x e una distanza d esiste un solo y tale che d(x,y)=d; Per ogni 0 i 160, ogni nodo mantiene una lista di k (costante) nodi (detta k-bucket) a distanza compresa fra 2 i e 2 i+1 da se stesso.

54 54 P2P e DHT - G. Ruffo Kademlia (2) I k-bucket vengono aggiornati e ordinati ad ogni operazione con una politica detta least-recently seen node; Ovviamente a ogni passo lalgoritmo di routing dimezza la distanza fra il nodo che fa la richiesta e la destinazione (O(log n) passi); La dimensione delle tabelle di routing è k*log n; Poiché è simmetrico il sistema si stabilizza da solo. In pratica durante le lookup le tabelle di routing vengono aggiornate;

55 55 P2P e DHT - G. Ruffo Applicazioni Overnet eMule Revconnect DC++ KadC – libreria C per pubblicare e recuperare informazioni su/da la rete Overnet

56 56 P2P e DHT - G. Ruffo eMule Siete collegati alla rete Kademlia se: ED2K:Connesso|KAD:Connesso Primo passo: bootstrap Ogni nodo calcola la distanza rispetto ai nodi di cui è a conoscenza

57 57 P2P e DHT - G. Ruffo eMule – Bootstrap

58 58 P2P e DHT - G. Ruffo eMule – Id e distanze 1. Id del nodo nella lista 2. Distanza XOR

59 59 P2P e DHT - G. Ruffo eMule – Condivisione Publishing: condivisione dei file Viene ripetuta ogni 5 ore per tutti i nostri file Lhash di ogni file viene progressivamente comunicato ad altri client presenti nella lista Scelta non casuale: solo ai client con ID vicino a quello dellhash Si distribuisce linformazione che sto condividendo un dato file

60 60 P2P e DHT - G. Ruffo eMule – Ricerca Ogni client ha una lista Cerco un file tramite il suo hash Contatto il nodo con ID più vicino, fino a quando non trovo una coppia con chiave uguale allhash cercato

61 61 P2P e DHT - G. Ruffo eMule – Crediti Viene calcolato c i = (#Download)/(#Upload) per ogni client i Se un certo numero di client, chiedono un file posseduto da x, allora x crea una coda assegnando una priorità in base ai crediti Si parte dal client con c i maggiore Sistema rudimentale di incentivazione per combattere il free-riding

62 62 P2P e DHT - G. Ruffo Sommario CAN: Routing in uno spazio D-dimensionale Chord: Routing attorno ad uno cerchio con scorciatoie a distanza 2 i Kademlia: Routing in uno spazio metrico basato su XOR CANChordKademlia Node state O(D)O(log N)O(k*log N) Route path length (DN 1/D )/4O(log N) Add node O(DN 1/D )O(log 2 N)O(log N) CAN can achieve O(log N) complexity by setting D=log N / 2

63 63 P2P e DHT - G. Ruffo Riferimenti I. Stoica, R. Morrise, D. Karger, M. F. Kaashoek and H. Balakrishnan. "Chord: A scalable peer-to-peer lookup service for Internet applications". In Proceedings of the SIGCOMM 2001, August F. Dabek, M. F. Kaashoek, D. Karger, R. Morris, I. Stoica Wide-area cooperative storage with CFS, in Proc. of ACM SOSP 2001, Banff, October 2001 P. Maymounkov and D. Mazieres. Kademlia: A peer-to-peer information system based on the xor metric. In Proc. of IPTPS02, Cambridge, USA, March S. Campadello, H. Helin – Dispense del corso Peer-to-Peer Computing, University of Helsinki Ringraziamenti: Marco Milanesio, Rossano Schifanella


Scaricare ppt "1 P2P e DHT - G. Ruffo Peer to Peer Computing e Distributed Hash Table (DHT) Giancarlo Ruffo Dipartimento di Informatica Università di Torino."

Presentazioni simili


Annunci Google