4. Codici.
A questo punto possiamo svolgere alcune considerazioni introduttive sul ruolo del calcolo delle probabilità nello studio dei processi di trasmissione dell'informazione e nella messa a punto dei codici.
Abbiamo visto che la lunghezza di un messaggio dipende dalla codifica adottata. Cosa si intende per codifica?
Si tratta della rappresentazione di un sistema fisico X mediante un altro sistema fisico Y. Restringiamoci al caso che sia X che Y possano assumere solo un insieme finito di stati:
Dom(X) = {x1,.....,xn}, Dom(Y) = {y1,.......,ym}
Una sequenza finita (una stringa) di stati è un messaggio. Chiamiamo {x1,.....xn} alfabeto e ogni xi lettera. Chiamiamo ogni yi segnale.
Sia F una funzione {messaggi di X} {messaggi di Y}. F sia "calcolabile", cioè ci sia un algoritmo per associare "meccanicamente" ai messaggi di X messaggi di Y.
Diremo di aver fissato un codice (e che F è la codifica) se ogni messaggio di Y è unicamente decifrabile, cioè F è invertibile e anche F–1 è calcolabile.
Restringiamoci al caso m < n: ogni stato (lettera) xi del sistema X è rappresentato da una successione di stati (segnali) del sistema Y, che indichiamo
Una condizione sufficiente affinché F sia invertibile è che, se "+" è il simbolo di concatenazione tra stringhe e x e y sono variabili stringa:
F(x+y)=F(x)+F(y) (la codifica di una concatenazione di stringhe sia la concatenazione delle loro codifiche; in questo caso si parla di codice letterale, in quanto esso dipende unicamente dalle parole di codice, cioè dalla codifica delle lettere), e
nessuna parola di codice sia il prefisso di un'altra parola di codice.
Un codice che soddisfi questa duplice condizione viene detto istantaneo.
Ad es. per X= {lettere dell'alfabeto, segni di interpunzione} abbiamo che:
– il cosiddetto alfabeto Morse, per il quale Dom(Y) = {punto, linea, spazio corto, spazio lungo}, è un codice letterale non istantaneo, mentre
– il codice ASCII, per il quale Dom(Y) = {0, 1}, è un codice istantaneo: è un codice letterale in cui tutte le parole di codice hanno la stessa lunghezza.
Dati X e Y, un codice è ottimale se richiede il tempo minimo di trasmissione. Se ci restringiamo ai codici letterali e supponiamo che ogni segnale yi richieda lo stesso tempo di trasmissione, un codice è ottimale se rende minima la lunghezza media L delle parole di codice: L = Σpini (i=1, …, n), ni = lunghezza di cod(xi), pi = Pr(X= xi), probabilità con cui viene usata la lettera xi nei messaggi generati da X.
Ciò accade se ogni segnale ha il massimo contenuto informativo, cioè se H(Y) è massima. In base alla seconda osservazione dopo il quesito 3, ciò accade se i segnali sono (il più possibile) equiprobabili, cioè se nei messaggi codificati i diversi segnali occorrono (più o meno) con la stessa frequenza.
4 |
–: | 0.161 | a: | 0.108 | e: | 0.085 | o: | 0.079 | i: | 0.073 | s: | 0.060 | n: | 0.055 | l: | 0.053 |
t: | 0.051 | r: | 0.050 | c: | 0.049 | d: | 0.038 | u: | 0.027 | v: | 0.025 | m: | 0.016 | p: | 0.015 |
f: | 0.014 | b: | 0.010 | h: | 0.009 | z: | 0.008 | g: | 0.006 | q: | 0.004 | ': | 0.004 |
<<< Paragrafo precedente | Paragrafo successivo >>> |