La presentazione è in caricamento. Aspetta per favore

La presentazione è in caricamento. Aspetta per favore

Introduzione alla teoria dellinformazione misura dellinformazione ridondanza codifica di sorgente robustezza codifica di canale decodifica dellinformazione.

Presentazioni simili


Presentazione sul tema: "Introduzione alla teoria dellinformazione misura dellinformazione ridondanza codifica di sorgente robustezza codifica di canale decodifica dellinformazione."— Transcript della presentazione:

1 Introduzione alla teoria dellinformazione misura dellinformazione ridondanza codifica di sorgente robustezza codifica di canale decodifica dellinformazione biologica Francesco Piva Dipartimento di Biochimica, Biologia e Genetica Università Politecnica delle Marche f.piva@univpm.it

2 Struttura di comunicazione attraverso un canale trasmissivo

3 Ci occupiamo della misura dellinformazione emessa da una sorgente la sorgente è tanto più efficiente quanto più risulta imprevedibile da parte del destinatario linformazione che sarà emessa supponiamo che la sorgente di informazione sia un testo, se il destinatario già conosce quel testo, linformazione emessa dalla sorgente è nulla se il destinatario non ha mai letto quel testo, la sorgente emette la massima informazione se il destinatario non conosce il testo ma conosce in modo generico linformazione che si aspetta, allora linformazione risulterà minore di quella massima con il termine linguaggio intendiamo una serie di regole su cui sorgenete e destinatario concordano per consentire il trasferimento di informazione dalluno allaltro

4 Linformazione contenuta in un messaggio ha leffetto di cambiare lo stato di incertezza nei riguardi di una certa situazione. Dopo la ricezione del messaggio lincertezza diminuisce o decade. Più il messaggio toglie incertezza più questo ha valore Linformazione è lincertezza che si ha prima di ricevere il messaggio. Immaginiamo che io stia aspettando di sapere se una persona (Pippo) è o meno nel suo ufficio. Immaginiamo che ci sia il 70% delle probabilità di trovarlo nel suo ufficio e il 30% di trovarlo in altre stanze. Se mi informano che è nel suo ufficio, ho eliminato la mia incertezza, ma già la mia incertezza era bassa perché mi sarei aspettato di trovarlo in ufficio. Quindi questa informazione non ha un valore molto alto. Se mi informano che non è nel suo ufficio, ho risolto una maggiore incertezza perché cerano meno probabilità che questo accadesse, cioè era una situazione più inaspettata, quindi avevo unincertezza maggiore. Questa informazione ha più valore perché mi ha tolto una maggiore incertezza

5 Altro esempio: supponiamo di essere ad un esame e dover dare la risposta ad un quesito barrando una casella. Supponiamo di non conoscere la risposta alla domanda. Se le caselle, cioè le possibili risposte sono due, ho maggiori probabilità di barrare la risposta esatta. Se le caselle fossero 10 ho minore probabilità di barrare quella esatta. Se ci sono identiche probabilità di trovare Pippo nel suo ufficio, allora le due informazioni hanno lo stesso valore. Supponiamo che Pippo possa essere in 5 stanze diverse, e in ogni stanza con la stessa probabilità. Ho la probabilità del 20% che esso sia in una stanza. Uninformazione che risolve questo stato di incertezza ha molto valore perché molte erano le possibilità.

6 Da questo momento consideriamo lequiprobabilità che si verifichi un certo stato tra N aspettati Consideriamo che linformazione elementare venga portata da un simbolo che può assumere due soli stati: 0 e 1 Una sequenza lunga M permette di discriminare (o risolvere) N stati N=2 M Lincertezza è tanto maggiore quanto maggiore è N 0000 0001 0010 0011 0100 0101 0110 0111 1000 1001 1010 1011 1100 1101 1110 1111 0101 00 01 10 11 000 001 010 011 100 101 110 111 00000 00001 00010 00011 00100 00101 00110 …….. 000000 000001 000010 000011 000100 000101 000110 ……… 0000000 0000001 0000010 0000011 0000100 0000101 0000110..……… ………..

7 La quantità di informazione portata da un solo simbolo a N stati, o da una sequenza che può assumere N forme diverse, è i=log 2 N Nel caso N=2, cioè un simbolo a due stati, che mi permette di discriminare tra due eventi i=log 2 2 = 1 bit La quantità di informazione portata da una sequenza di M simboli binari è i=log 2 (2 M ) = M log 2 2 = log 2 N = M bit

8 Se tutti gli N stati di un simbolo o le N forme di una sequenza, possono giungere con la stessa probabilità P N = 1 / P es. 2 = 1 / 0.5 la formula precedente esprime N in funzione della probabilità diventa i = log 2 N = log 2 (1/P) = - log 2 (P) (quantità di informazione di un simbolo in cui ogni stato ha probabilità P di verificarsi) Se gli eventi o stati non si verificano con la stessa probabilità… ad esempio p(0) = 0.1 p(1) = 0.9 i 0 = - log 2 (0.1) = 3.3 bit i 1 = - log 2 (0.9) = 0.15 bit i simboli più rari portano più informazione

9 Finora abbiamo visto linformazione portata da un preciso simbolo però in una conversazione, in una lettura, in una sequenza di dati di computer abbiamo a che fare con una lunga sequenza di simboli. Qual è linformazione media per simbolo portata da una sequenza di simboli? i medio = P 0 * i 0 + P 1 * i 1 [bit per simbolo] i medio = P 0 * -log 2 (P 0 ) + P 1 * -log 2 (P 1 ) Nel caso in cui 0 e 1 siano equiprobabili i medio = 0.5 * 1 + 0.5 * 1 = 1 bit Nel caso di non equiprobabilità degli stati i medio = 0.1 * 3.3 + 0.9 * 0.15 = 0.46 bit Una sorgente che emette simboli i cui stati sono equiprobabili ha la massima efficienza informativa, cioè ciascun simbolo ha il massimo contenuto informativo o … a parità di informazione trasmessa impiega meno simboli

10 La quantità i medio = P 0 * i 0 + P 1 * i 1 è detta anche ENTROPIA (H) della sorgente di informazione Si nota che la massima entropia si ha per valori di P = 0.5 cioè per lequiprobabilità degli stati 0 e 1. A questo punto si verifica il trasferimento di informazione con la massima efficienza

11 Esempio: Estrazione di una sequenza consenso da dati sperimentali di binding

12

13

14

15 RIDONDANZA Non equiprobabilitàcorrelazione La ridondanza indica quanto diminuisce la capacità di una sorgente di inviare informazioni, a causa della non equiprobabilità e della correlazione tra i simboli. La correlazione è il legame tra i simboli emessi da una sorgente, è come dire che osservando la sequenza appena uscita, si possono trarre indicazioni sui simboli che stanno per uscire. Esempio: le parole che usiamo per comunicare hanno regolarità sia interne (tra le lettere) che esterne (articolo con il genere del sostantivo). Per questo motivo, se stiamo leggendo un testo e in particolare una parola, di solito dalle prime lettere si intuisce già la parola intera.

16 albergo albero alcool ali alimento allarme allegria allora alluvione alveolo aln… alr… alrr… E la tecnica usata dai software per scrivere messaggi sms sui telefonini A causa delle regole di semantica che introducono correlazione, ci sono parole proibite. a alalb albe alba albergo albero albume albergo albero abbraccio aereo albergo albero alcool ali alimento allarme allegria allora alluvione alveolo anca assegno

17

18 Vantaggi della correlazione tra caratteri: Irrobustiscono linformazione quindi permettono di comprendere la parola anche se ci sfuggono alcuni caratteri, come nel caso di comunicazione disturbata da rumori di fondo Svantaggi Limitano il numero di parole diverse che possiamo comporre quindi abbiamo un linguaggio meno ricco di parole. Posso comporre la parola almnqq ma questa non è una sequenza di simboli permessa dalle regole della semantica, cioè non cè la giusta correlazione tra i caratteri.

19 Codifica di sorgente Immaginiamo di dover trasmettere uno fra quattro possibili stati, possiamo utilizzare solo simboli binari A 00 B 01 C 10 D 11 Questa operazione che permette di associare dei simboli agli stati si chiama codifica che richiama lidea di associare un codice Se i 4 stati sono equiprobabili la trasmissione ha già la massima efficienza A 00 P=0.25 B 01 P=0.125 C 10 P=0.5 D 11 P=0.125 Supponiamo ora che sia più probabile che dobbiamo trasmettere lo stato C e meno probabile di dover trasmettere B e D BCDACACCBACACCDC 01 10 11 00 10 00 10 10 01 00 10 00 10 10 11 10 i = 2 * 0.25 + 2 * 0.125 + 2 * 0,5 + 2 * 0.125 = 2 bit Per trasmettere uno stato uso in media due bit, per questa sequenza ne ho usati 32

20 A 01 P=0.25 B 001 P=0.125 C 1 P=0.5 D 000 P=0.125 Supponiamo ora di codificare in maniera diversa gli stati. Precisamente codifichiamo con sequenze più corte i simboli più probabili BCDACACCBACACCDC 001 1 000 01 1 01 1 1 001 01 1 01 1 1 000 1 i = 2 * 0.25 + 3 * 0.125 + 1 * 0,5 + 3 * 0.125 = 1.75 bit Per trasmettere uno stato uso in media 1.75 bit quindi trasmetto la stessa sequenza di prima ma con meno simboli, infatti ne ho usati 28. Ho attuato una compressione dellinformazione. Il primo ad usare questa tecnica fu Morse. I programmi di compressione tipo Winzip, Arj… analizzano la sequenza dei bit del file da comprimere, ricodificano il file associando sequenze di minor lunghezza a quelle più ricorrenti (codifica di Huffman)

21 Se il file da comprimere ha molta ridondanza, cioè correlazione e non equiprobabilità dei simboli, allora questo potrà essere molto compresso. Questo tipo di compressione si basa sulleliminazione delle ridondanze senza perdita di informazione, ovvero il file compresso può essere riportato alla forma originale senza che il messaggio sia degradato. Un altro tipo di compressione è quella con perdita di informazione. Questa oltre a sfruttare il principio precedente, elimina quelle informazioni ritenute poco importanti per la comprensione globale del messaggio. E il caso di compressioni di immagini in formato jpg o gif, queste comprimono molto ma provocano una certa perdita della qualità dellimmagine. La perdita è irreversibile perché si è scelto di memorizzare solo una certa parte delle informazioni. (es MP3, MPEG…) Uno svantaggio della compressione: un errore o unincomprensione di un simbolo rischiano di compromettere la comprensione dellintero messaggio. Esempio: se ci si perde qualche parola del discorso di una persona ridondante, quasi sicuramente si capirà il significato del messaggio.

22 Il rumore

23

24 Modello di un canale di trasmissione 0 1 0 1 P 00 P 01 P 11 P 10 Simbolo trasmesso Simbolo ricevuto P 01, P 10 : probabilità di errore

25 Distanza 0110100001010111011 0110100011010111011 Per determinare la distanza tra due sequenze si deve allinearle e colonna per colonna contare il numero di simboli differenti. In questo caso la distanza è 1 ovvero le due sequenze differiscono per un solo simbolo. 01 10 00 11 Le sequenze collegate dalle frecce distano fra loro 1 Le sequenze sulle diagonali distano 2 Concetto di distanza evoluzionistica e alberi filogenetici: posso dire che 00 e 01 sono imparentati direttamente, 11 è imparentato sia con 01 che con 10 ma non so da chi derivi.

26 000 100 010 001 110 101 011 111 000 001 010 011 100 101 110 111 Abbiamo disposto tutte le sequenze che si possono ottenere con tre bit, su un cubo in modo che le sequenze collegate direttamente avessero distanza 1. Si nota che per andare da 000 a 111 si devono verificare tre mutazioni ma si possono seguire molti percorsi diversi. Distanza come robustezza: è più facile confondere 000 e 010 perché distano solo 1, una mutazione può far passare dalluno allaltro, è più difficile confondere 000 e 111 perché ci vogliono tre mutazioni. Analogamente in un discorso è più probabile confondere albero e alberi piuttosto che albero e alluvione.

27 Ancora sulla robustezza Immaginiamo di dover trasmettere uno fra quattro possibili stati, possiamo utilizzare solo simboli binari A 00 B 01 C 10 D 11 Questa operazione che permette di associare dei simboli agli stati si chiama codifica che richiama lidea di associare un codice sorgente destinatario disturbo 0111 Se avviene un errore durante la trasmissione, il destinatario riceve un messaggio sbagliato e non ha modo di accorgersi che cè stato un errore

28 A 000 B 011 C 101 D 110 sorgente destinatario disturbo 011001 In questo caso il destinatario riceve una sequenza non permessa perché 001 non corrisponde a nulla di valido, quindi si accorge che cè stato un errore di trasmissione. Ho ottenuto questo risultato codificando i 4 stati con sequenze a distanza 2 anziché 1, cioè ho distanziato gli stati in modo che un errore singolo non mi portasse direttamente a uno stato permesso 101001000010110 A CD non permesso

29 A 0000 B 1101 C 0111 D 1110 00110001000000100110 A C D non permesso 01111110 non permesso Fra gli stati A,C e A,D cè distanza 3 Se trasmetto 0000 e al destinatario arriva 0001, questultimo capisce che cè stato un errore perché 0001è uno stato non permesso. Inoltre può anche ipotizzare che era stato trasmesso A perché è lo stato più vicino al simbolo ricevuto. Nel caso di canali non fortemente disturbati ovvero dove ogni 4 simboli si può avere al massimo un errore, il destinatario è in grado di correggere lerrore.

30 001000010 A A A CD Altro modo di aumentare la robustezza di una codifica: Definire delle parole sinonime Codifico A con 000, ogni errore singolo produce delle parole a distanza 1 dala parola 000 Codifico A anche con 001, 010, 100. In questo modo tutte le parole a distanza 1 da 000 sono ancora dei sinonimi di A 100 A 011101

31 Questa tecnica si chiama codifica di canale Consiste nel codificare gli stati con più simboli del necessario così da poter distanziare le parole. In questo modo ho una trasmissione più robusta, cioè più immune agli errori. Pago questa robustezza con una diminuzione di efficienza perché trasmetto molti più simboli a parità di informazione. Dal punto di vista dei simboli impiegati per trasmettere (nello spazio) o memorizzare (nel tempo) un messaggio, la codifica di sorgente ha leffetto contrario della codifica di canale. La prima comprime, la seconda espande.

32 Sequenze di DNA interpretate secondo la Teoria dellInformazione il codice genetico è degenere, che cosa significa in termini numerici?... Ala Val Arg... GCA C G T GTA C G T CGA C G T AGA G GCAGTACGA GCAGTACGC GCAGTACGG GCAGTACGT GCAGTAAGA GCAGTAAGG GCAGTCCGA GCAGTCCGC GCAGTCCGG GCAGTCCGT GCAGTCAGA GCAGTCAGG GCAGTGCGA GCAGTGCGC GCAGTGCGG GCAGTGCGT GCAGTGAGA GCAGTGAGG GCAGTTCGA GCAGTTCGC GCAGTTCGG GCAGTTCGT GCAGTTAGA GCAGTTAGG GCCGTACGA GCCGTACGC GCCGTACGG GCCGTACGT GCCGTAAGA GCCGTAAGG GCCGTCCGA GCCGTCCGC GCCGTCCGG GCCGTCCGT GCCGTCAGA GCCGTCAGG GCCGTGCGA GCCGTGCGC GCCGTGCGG GCCGTGCGT GCCGTGAGA GCCGTGAGG GCCGTTCGA GCCGTTCGC GCCGTTCGG GCCGTTCGT GCCGTTAGA GCCGTTAGG GCGGTACGA GCGGTACGC GCGGTACGG GCGGTACGT GCGGTAAGA GCGGTAAGG GCGGTCCGA GCGGTCCGC GCGGTCCGG GCGGTCCGT GCGGTCAGA GCGGTCAGG GCGGTGCGA GCGGTGCGC GCGGTGCGG GCGGTGCGT GCGGTGAGA GCGGTGAGG GCGGTTCGA GCGGTTCGC GCGGTTCGG GCGGTTCGT GCGGTTAGA GCGGTTAGG GCTGTACGA GCTGTACGC GCTGTACGG GCTGTACGT GCTGTAAGA GCTGTAAGG GCTGTCCGA GCTGTCCGC GCTGTCCGG GCTGTCCGT GCTGTCAGA GCTGTCAGG GCTGTGCGA GCTGTGCGC GCTGTGCGG GCTGTGCGT GCTGTGAGA GCTGTGAGG GCTGTTCGA GCTGTTCGC GCTGTTCGG GCTGTTCGT GCTGTTAGA GCTGTTAGG 4 * 4 * 6 = 96 Combinazioni o parole sinonime

33 Ma tutti questi sinonimi costituiscono veramente la robustezza? Si, dal punto di vista del codice genetico No, in assoluto, cioè per il fenotipo. Esistono altri linguaggi che specificano alcune tra le parole sinonime al fine di trasmettere informazioni per: lo splicing il ripiegamento dellRNA il tempo di vita dellRNA il trasporto dellRNA la stabilità del DNA (organizzazione in cromatina) …? Messaggio: anche le mutazioni neutre vanno considerate come potenzialmente patogene


Scaricare ppt "Introduzione alla teoria dellinformazione misura dellinformazione ridondanza codifica di sorgente robustezza codifica di canale decodifica dellinformazione."

Presentazioni simili


Annunci Google