CODICI Si ringrazia il prof. Di Santo per aver gentilmente messo a disposizione il proprio materiale per la preparazione di alcune delle slides presenti.

Slides:



Advertisements
Presentazioni simili
ESERCITAZIONE 2 Come leggere la tavola della normale e la tavola t di Student. Alcune domande teoriche.
Advertisements

Teoria dei codici correttori d'errore
I SISTEMI LINEARI.
Metodi Quantitativi per Economia, Finanza e Management Lezione n°6.
Lequivocazione By Vaccaro Maria A.. Che incidenza ha il disturbo sullinformazione? Si avrà in tal caso che lincertezza media nel messaggio trasmesso.
Le Informazioni e la loro Rappresentazione nei calcolatori
Capitolo 8 Sistemi lineari.
Vettori e matrici algebrici
PROPRIETÀ DEI DETERMINANTI
E.Mumolo. DEEI Reti di calcolatore e Applicazioni Telematiche – Livello Dati Lezioni di supporto al corso teledidattico E.Mumolo. DEEI.
Andrea G. B. Tettamanzi, 2001 Teoria dellInformazione (Classica) Andrea G. B. Tettamanzi Università degli Studi di Milano Dipartimento di Tecnologie dellInformazione.
Sistemi e Tecnologie della Comunicazione
Sistemi e Tecnologie della Comunicazione
STEGANOGRAFIA Roberto Emigrato
Affidabilità.
Esercizio 1 Un sistema di multiplazione TDM di velocità pari a 2Mb/s trasporta canali vocali codificati a 16 kb/s più un canale dati a 112 kb/s. Si indichi.
Esercizio 1 Due collegamenti in cascata, AB e BC hanno una velocità rispettivamente di 100 Mb/s e 50 Mb/s e tempi di propagazione pari a 1 ms e 1.2 ms.
Identificazione delle attività
Modulazione QAM: idea base
Corso di Tecniche e Sistemi di trasmissione Fissi e Mobili
LA COMPATIBILITA’ tra due misure:
1 Corso di Laurea in Biotecnologie Informatica (Programmazione) Problemi e algoritmi Anno Accademico 2009/2010.
INFORMAZIONE LEZIONE 1. INFORMATICA ACRONIMO INFORMAZIONE AUTOMATICA.
Gestione dei dischi RAID
Corso di Informatica per Giurisprudenza
I CODICI.
Disco magnetico (2) Ciascuna traccia è divisa in settori
Codici binari decimali
Teoria dei codici correttori d'errore
Un’introduzione a HTML (I)
Sistema di comunicazione
Gli esseri viventi ricevono informazione direttamente dal mondo circostante e dai propri simili attraverso i sensi (percezione). La percezione, tuttavia,
Codifica binaria Rappresentazione di numeri
Usare rappresentazioni di lunghezza fissa porta ad avere valori non rappresentabili: Overflow indica un errore nella rappresentazione del risultato in.
Limiti al trasferimento di informazione u Il tempo necessario per trasmettere dellinformazione dipende da: –la velocita di segnalazione (cioe quanto velocemente.
CryptoAnalisisServer(CAS) Reti di Calcolatori LS progetto di Carpenè Michele, Busacca Fulvio Servizio distribuito basato sul calcolo parallelo per operazioni.
IL GIOCO DELLA LOGICA.
Proposte di tesina Mario Toma.
Definizione di determinante
LA CRITTOGRAFIA QUANTISTICA
Metodo della moltiplicazione
La Revisione dei documenti
Reti di CalcolatoriAndrea Frosini1 Reti di Calcolatori a.a. 2005/06 Lezione 7.
Federico Batini Item analisi Federico Batini
Formule di Excel: =(C3*D3)/3 La formula inizia con uguale (=). Questo permette a Excel di sapere che l’informazione che state posizionando nelle cella.
Un modem, una scheda di rete, o comunque una unità di comunicazione tra calcolatori elettronici, trasmettendo uninformazione, a causa di disturbi esterni,
IL PARAGRAFO: ALLINEA, RIENTRA, SPAZIA
Introduzione al controllo derrore. Introduzione Quando dei dati vengono scambiati tra due host, può accadere che il segnale venga alterato. Il controllo.
Efficienza e controllo derrore. Introduzione Come abbiamo visto il controllo derrore, necessario per ottenere un trasporto affidabile, si basa su: somme.
Probabilità probabilità Probabilità totale
Esercizi La distanza di hamming tra due interi x e y si definisce come il numero di posizioni nella rappresentazione binaria di x e y aventi bit differenti.
Tecniche di progettazione Fault Tolerant
Sistemi e Tecnologie della Comunicazione

Sistemi Elettronici Programmabili7-1 Sistemi Elettronici Programmabili Collegamenti seriali e paralleli.
Fondamenti di Informatica1 Memorizzazione su calcolatore L'unità atomica è il bit (BInary DigiT) L'insieme di 8 bit è detta byte Altre forme di memorizzazione:
Rappresentazione dell’informazione
REGRESSIONE LINEARE Relazione tra una o più variabili risposta e una o più variabili esplicative, al fine di costruire una regola decisionale che permetta.
Rappresentazioni a lunghezza fissa: problemi
Presenta: Liceo Classico Scientifico “Giosuè Carducci” Nola (Na) Presenta:
Rappresentazione in virgola mobile (floating-point) Permette di rappresentare numeri con ordini di grandezza molto differenti utilizzando per la rappresentazione.
Bit singolo e burst u un canale che trasmette voce tollera bene gli errori distribuiti uniformemente –perche’ errori singoli hanno effetti simili al rumore.
Rappresentazione dell'informazione
Rappresentazione dell'informazione 1 Se ho una rappresentazione in virgola fissa (es. su segno e 8 cifre con 3 cifre alla destra della virgola) rappresento.
La codifica dei numeri.
Informatica Lezione 3 Psicologia dello sviluppo e dell'educazione (laurea magistrale) Anno accademico:
Sistemi e Tecnologie della Comunicazione
I LIMITI.
La distribuzione normale. Oltre le distribuzioni di frequenza relative a un numero finito di casi si possono utilizzare distribuzioni con un numero di.
Transcript della presentazione:

CODICI Si ringrazia il prof. Di Santo per aver gentilmente messo a disposizione il proprio materiale per la preparazione di alcune delle slides presenti in questa dispensa.

Codici Ridondanti

Codici Ridondanti Per consentire la rilevazione e la correzione di errori si ricorre frequentemente a codici ridondanti, ovvero che utilizzano un numero maggiore di bit rispetto al numero strettamente necessario per codificare l’insieme sorgente. Ad esempio: m bit di dati (l’informazione da trasmettere) r bit di controllo (bit ridondanti) ciascuna parola codice utilizza n = m+r bit

Distanza di Hamming La distanza di Hamming di due parole di codice w1 e w2 è il numero di bit “1” in w1 XOR w2 Rappresenta il numero di bit da invertire per trasformare una parola di codice nell’altra Ad esempio, se w1 10001001 w2 10110001 w1 XOR w2 00111000 la distanza di Hamming tra w1 e w2 è pari a 3

Distanza di Hamming (2) Se un codice deve rilevare d errori, la sua distanza di Hamming deve essere almeno pari a d+1 Se la distanza fosse minore, un burst di d errori potrebbe trasformare una parola di codice in un’altra parola di codice: l’errore non sarebbe rilevato Se un codice deve correggere d errori, la sua distanza di Hamming deve essere almeno pari a 2d+1 Un burst di d errori al massimo trasforma una parola di codice in una sequenza di bit a distanza al più d dalla parola di codice corretta e a distanza almeno d+1 da tutte le altre parole di codice

“Combinazione Semplice”: (fonte Manabile di Matematica :-) Distanza di Hamming (3) Quante sono le parole codice di 8 bit aventi distanza di Hamming 2 da una parola di codice assegnata avente la stessa lunghezza? Occorre numerare tutte le possibili combinazioni semplici di 2 bit su 8. “Combinazione Semplice”: (fonte Manabile di Matematica :-) Dati n oggetti distinti e un numero intero positivo k≤n,si dicono combinazioni semplici di classe k tutti i gruppi che si possonno formare con k degli n oggetti considerando diversi due gruppi quando differiscono di almeno un elemento. Numero di combinazioni semplici di k oggetti su n: n n! 8 8! 7*8 = = = = 28 k k!(n-k)! 2 2!∙6! 2

Codici per la correzione degli errori

Replicare i bit di controllo Un modo semplice per creare codici a correzione d’errore consiste nel replicare l’informazione. Dato un messaggio di m bit si costruisce una parola di codice con 2d copie di ciascuno dei bit del messaggio (r = 2d*m). La distanza di Hamming del codice è 2d+1, quindi può correggere d errori Il codice non è efficiente: se d = 2, l’80% dei bit sono ridondanti.

Codice di Hamming Il codice di Hamming (1950) è un particolare codice a correzione d’errore: Consente di correggere 1 singolo errore Ha un numero di bit di controllo pari al limite teorico inferiore (m+1≤2r-r) Funziona con qualunque dimensione del messaggio m

Codice di Hamming (2) I bit della parola di codice vengono numerati da sinistra verso destra cominciando con l’indice 1 I bit di controllo sono quelli aventi come indice una potenza di due (1, 2, 4,8, 16, . . . ) I bit del messaggio sono tutti gli altri bit della parola di codice, nell’ordine il bit di controllo con indice 2k è il bit di parità dei bit del messaggio i cui indici hanno il termine 2k nella loro scomposizione in somma di potenze di due

Codice di Hamming (3) In ricezione, ciascun bit di controllo viene ricalcolato: Se tutti i valori dei bit di controllo sono corretti, la parola di codice viene accettata Se alcuni bit di controllo hanno valori non corretti, l’indice del bit in cui si è verificato l’errore è dato dalla somma degli indici dei bit di controllo con valore sbagliato

Codice di Hamming – Esempio 1

Codice di Hamming – Esempio 1

Codice di Hamming – Esempio 2

Codice di Hamming – Esempio 3

Codice di Hamming – Esempio 4

Codice di Hamming – Esempio 5

Codice di Hamming – Esempio 6

Codice di Hamming – Esempio 7

Codice di Hamming per burst di errori

Codici per il rilevamento degli errori I codici per il rilevamento di errori sono in pratica più diffusi dei codici per la correzione di errori: i codici per il rilevamento sono molto più efficienti dei codici per la correzione (meno ridondanza nei bit trasmessi) se un codice per la correzione di 1 errore indica che un bit è errato, vi è una probabilità non trascurabile che si sia verificato un intero burst di errori (gli errori tendono ad addensarsi)

Codici per il rilevamento degli errori

Bit di parità per burst di errori Un metodo per rilevare interi burst di al più k errori basato sul bit di parità è il seguente: distribuire i bit da trasmettere in una matrice con righe di k bit per ciascuna colonna, calcolare il relativo bit di parità inviare la prima riga, poi la seconda riga, eccetera inviare come ultima riga i bit di controllo Un burst di al più k errori è sempre rilevato, perchè modifica al più un bit per ciascuna colonna La probabilità che un burst di p errori (p > k) non venga rilevato è 1/2p

Il codice fallisce nell’inviduare gli errori doppi che modificano i bit di parità sulla riga i e colonna j, rilevando erroneamente un errore singolo in posizione i,j. Al contrario consente di : rilevare errori doppi sulla stessa riga (rispettivamente colonna): in tal caso si rilevano due errori di parità sulle relative colonne (rispettivamente righe). correggere errori doppi in posizioni appartenenti a righe e colonne differenti: 4 errori di parità