Archivo:Ejemplo de codificación de Huffman.svg


Descripción : Suponga que tiene una fuente que genera 4 símbolos diferentes con probabilidad . Genere un árbol binario de izquierda a derecha tomando los dos símbolos menos probables y combinándolos para formar otro símbolo equivalente que tenga una probabilidad que sea igual a la suma de los dos símbolos. Siga haciendo esto hasta que tenga un solo símbolo. Luego lea el árbol al revés, de derecha a izquierda, asignando diferentes bits a diferentes ramas. El código final de Huffman es:

La forma estándar de representar una señal compuesta por 4 símbolos es mediante el uso de 2 bits/símbolo, pero la entropía de la fuente es de 1,73 bits/símbolo. Si se utiliza este código de Huffman para representar la señal, la entropía se reduce a 1,83 bits/símbolo; todavía está lejos del límite teórico porque las probabilidades de los símbolos son diferentes de las potencias negativas de dos.