Questa pagina è stata trascritta e formattata, ma deve essere riletta. |
3 - Codifica di sorgente 87
x(1,1) P=0.64 |
x(1,1) P=0.64 |
x(1,1) P=0.64 |
x(1,1)(1,2)(2,1)(2,2) P=1.00 |
x(1,2) P=0.16 |
x(2,1)(2,2) P=0.20 |
x(1,2)(2,1)(2,2) P=0.36 |
|
x(2,1) P=0.16 |
x(1,2) P=0.16 |
||
x(2,2) P=0.04 |
Tab. 3.6 - Liste utilizzate nella codifica di Huffman.
che portano alla seguente codifica:
x(1,1) | x(1,2) | x(2,1) | x(2,2) | |
codifica | 0 | 11 | 100 | 101 |
Rk | 1 | 2 | 3 | 3 |
Tab. 3.7 - Codifica di Huffman.
Il numero medio di bit per coppia di simboli è pari a
(3.37) |
e quindi un numero medio di bit per simbolo pari a
L’efficienza di una codifica di sorgente a lunghezza variabile è legata alla conoscenza a priori della probabilità dei simboli emessi. Nel caso in cui non si abbia tale informazione è necessario adottare algoritmi che estraggano in tempo reale le caratteristiche del flusso numerico emesso (compressione adattativa).
Per comprendere il funzionamento di una compressione adattativa è utile analizzare una ricodifica tramite Huffman di simboli codificati con parole di lunghezza fissa. In tal caso la compressione si ottiene riducendo la lunghezza dei codici più frequentemente emessi dalla sorgente ed aumentando la lun-