El shannon (símbolo: Sh) es una unidad de información definida por IEC 80000-13 . Un shannon es el contenido de información de un evento que ocurre cuando su probabilidad es1/2. Si un mensaje está compuesto por una secuencia de un número dado de bits, siendo igualmente probables todas las cadenas de bits posibles, el contenido de información de uno de esos mensajes expresado en shannons es igual al número de bits de la secuencia. [1] Por esta y otras razones históricas, el shannon se conoce más comúnmente como el bit. Usar el shannon en lugar del bit como una unidad da una distinción explícita entre la cantidad de información que se expresa y la cantidad de datos que se pueden usar para representar la información. [2]
El shannon se puede convertir a otras unidades de información de acuerdo con [3]
El shannon lleva el nombre de Claude Shannon , el fundador de la teoría de la información .
La entropía de Shannon (incertidumbre) de una distribución discreta es igual al valor esperado de la información para determinar un resultado, [ cita requerida ] y entonces la entropía de Shannon tiene las mismas unidades que la información. Por tanto, un shannon es también la entropía de Shannon de un sistema con dos estados igualmente probables. [4]
Referencias
- ^ "shannon", Diccionario de unidades de medida
- ^ Olivier Rioul (2018). "Esto es TI: una introducción a la entropía y la información de Shannon" (PDF) . L'Information, Séminaire Poincaré . XXIII : 43–77 . Consultado el 23 de mayo de 2021 .
El Système International d'unités recomienda el uso de shannon (Sh) como unidad de información en lugar del bit para distinguir la cantidad de información de la cantidad de datos que pueden usarse para representar esta información. Por lo tanto, de acuerdo con el estándar SI, H ( X ) debería expresarse en shannons. La entropía de un bit se encuentra entre 0 y 1 Sh.
- ^ "IEC 80000-13: 2008" . Organización Internacional de Normalización . Consultado el 21 de julio de 2013 .
- ^ Olivier Rioul (2018). "Esto es TI: una introducción a la entropía y la información de Shannon" (PDF) . L'Information, Séminaire Poincaré . XXIII : 43–77 . Consultado el 23 de mayo de 2021 .
Para ilustrar la diferencia entre el dígito binario [bit] y la unidad binaria [shannon], considere un bit aleatorio X ∈ {0,1} . Esta variable aleatoria X sigue una distribución de Bernoulli con algún parámetro p . Su entropía [...] puede tomar cualquier valor entre 0 bit y 1 bit. El valor máximo 1 [shannon] se alcanza en el caso equiprobable p = 1/2 . De lo contrario, la entropía de un bit es en realidad menor que uno [shannon].