Función Hartley


La función de Hartley es una medida de incertidumbre , introducida por Ralph Hartley en 1928. Si se elige una muestra de un conjunto finito A uniformemente al azar, la información revelada después de conocer el resultado está dada por la función de Hartley

Si la base del logaritmo es 2, entonces la unidad de incertidumbre es el shannon (más conocido como bit ). Si es el logaritmo natural , entonces la unidad es el nat . Hartley usó un logaritmo en base diez , y con esta base, la unidad de información se llama hartley (también conocido como ban o dit ) en su honor. También se conoce como la entropía de Hartley.

La función de Hartley coincide con la entropía de Shannon (así como con las entropías de Rényi de todos los órdenes) en el caso de una distribución de probabilidad uniforme. Es un caso especial de la entropía Rényi ya que:

Pero también puede verse como una construcción primitiva, ya que, como subrayan Kolmogorov y Rényi, la función de Hartley puede definirse sin introducir ninguna noción de probabilidad (ver Incertidumbre e información de George J. Klir, p. 423).

La función de Hartley solo depende de la cantidad de elementos en un conjunto y, por lo tanto, puede verse como una función de números naturales. Rényi demostró que la función de Hartley en base 2 es la única función que transforma números naturales en números reales que satisface

La condición 1 dice que la incertidumbre del producto cartesiano de dos conjuntos finitos A y B es la suma de las incertidumbres de A y B. La condición 2 dice que un conjunto más grande tiene una mayor incertidumbre.