Unidades de información


En informática y telecomunicaciones , una unidad de información es la capacidad de algún sistema estándar de almacenamiento de datos o canal de comunicación , que se utiliza para medir las capacidades de otros sistemas y canales. En la teoría de la información , las unidades de información también se utilizan para medir la información contenida en los mensajes y la entropía de las variables aleatorias.

Las unidades de capacidad de almacenamiento de datos más utilizadas son el bit , la capacidad de un sistema que tiene solo dos estados, y el byte (u octeto ), que equivale a ocho bits. Se pueden formar múltiplos de estas unidades a partir de estos con los prefijos SI (prefijos de potencia de diez) o los prefijos binarios IEC más nuevos (prefijos de potencia de dos).

En 1928, Ralph Hartley observó un principio de almacenamiento fundamental, [1] que Claude Shannon formalizó aún más en 1945: la información que se puede almacenar en un sistema es proporcional al logaritmo de N estados posibles de ese sistema, denotados log b N . Cambiar la base del logaritmo de b a un número c diferente tiene el efecto de multiplicar el valor del logaritmo por una constante fija, a saber, log c N  = (log c b ) log b N . Por lo tanto, la elección de la base bdetermina la unidad utilizada para medir la información. En particular, si b es un entero positivo , entonces la unidad es la cantidad de información que se puede almacenar en un sistema con N estados posibles.

Cuando b es 2, la unidad es el shannon , igual al contenido de información de un "bit" (un acrónimo de dígito binario [2] ). Un sistema con 8 estados posibles, por ejemplo, puede almacenar hasta log 2 8 = 3 bits de información. Otras unidades que han sido nombradas incluyen:

Trit, ban y nat rara vez se utilizan para medir la capacidad de almacenamiento; pero el nat, en particular, se usa a menudo en la teoría de la información, porque los logaritmos naturales son matemáticamente más convenientes que los logaritmos en otras bases.

Históricamente, un byte era la cantidad de bits utilizados para codificar un carácter de texto en la computadora, que dependía de la arquitectura del hardware de la computadora; pero hoy casi siempre significa ocho bits, es decir, un octeto . Un byte puede representar 256 (2 8 ) valores distintos, como números enteros no negativos de 0 a 255, o números enteros con signo de −128 a 127. El estándar IEEE 1541-2002 especifica "B" (mayúscula) como el símbolo para byte ( IEC 80000-13 usa "o" para octeto en francés, [nb 1]pero también permite "B" en inglés, que es lo que realmente se está usando). Los bytes, o sus múltiplos, casi siempre se utilizan para especificar el tamaño de los archivos informáticos y la capacidad de las unidades de almacenamiento. La mayoría de las computadoras y dispositivos periféricos modernos están diseñados para manipular datos en bytes completos o grupos de bytes, en lugar de bits individuales.


Comparación de unidades de información: bit , trit , nat , ban . La cantidad de información es la altura de las barras. El nivel verde oscuro es la unidad "nat".