Teorema de codificación de canal ruidoso


En la teoría de la información , el teorema de codificación del canal ruidoso (a veces el teorema de Shannon o el límite de Shannon ), establece que para cualquier grado dado de contaminación por ruido de un canal de comunicación , es posible comunicar datos discretos ( información digital ) casi sin errores hasta una tasa máxima computable a través del canal. Este resultado fue presentado por Claude Shannon en 1948 y se basó en parte en trabajos e ideas anteriores de Harry Nyquist y Ralph Hartley .

El límite de Shannon o la capacidad de Shannon de un canal de comunicación se refiere a la tasa máxima de datos sin errores que teóricamente se pueden transferir a través del canal si el enlace está sujeto a errores de transmisión de datos aleatorios, para un nivel de ruido particular. Fue descrito por primera vez por Shannon (1948) y poco después publicado en un libro de Shannon y Warren Weaver titulado The Mathematical Theory of Communication (1949). Esto fundó la disciplina moderna de la teoría de la información .

Establecido por Claude Shannon en 1948, el teorema describe la máxima eficiencia posible de los métodos de corrección de errores frente a los niveles de interferencia de ruido y corrupción de datos. El teorema de Shannon tiene una amplia gama de aplicaciones tanto en comunicaciones como en almacenamiento de datos . Este teorema es de importancia fundamental para el campo moderno de la teoría de la información . Shannon solo dio un resumen de la prueba. La primera prueba rigurosa para el caso discreto se debe a Amiel Feinstein [1] en 1954.

El teorema de Shannon establece que dado un canal ruidoso con capacidad de canal C e información transmitida a una velocidad R , entonces si existen códigos que permiten que la probabilidad de error en el receptor sea arbitrariamente pequeña. Esto significa que, en teoría, es posible transmitir información casi sin errores a cualquier velocidad por debajo de una velocidad límite, C .

Lo contrario también es importante. Si , no se puede lograr una probabilidad de error arbitrariamente pequeña. Todos los códigos tendrán una probabilidad de error superior a un cierto nivel mínimo positivo, y este nivel aumenta a medida que aumenta la tasa. Por lo tanto, no se puede garantizar que la información se transmita de manera confiable a través de un canal a velocidades superiores a la capacidad del canal. El teorema no aborda la rara situación en la que la velocidad y la capacidad son iguales.

La capacidad del canal se puede calcular a partir de las propiedades físicas de un canal; para un canal de banda limitada con ruido gaussiano, utilizando el teorema de Shannon-Hartley .