Capacidad del canal


La capacidad del canal , en ingeniería eléctrica , informática y teoría de la información , es el límite superior estricto en la velocidad a la que la información se puede transmitir de manera confiable a través de un canal de comunicación .

Siguiendo los términos del teorema de codificación de canales ruidosos , la capacidad de canal de un canal dado es la tasa de información más alta (en unidades de información por unidad de tiempo) que se puede lograr con una probabilidad de error arbitrariamente pequeña. [1] [2]

La teoría de la información , desarrollada por Claude E. Shannon en 1948, define la noción de capacidad de canal y proporciona un modelo matemático mediante el cual se puede calcular. El resultado clave establece que la capacidad del canal, como se define anteriormente, está dada por el máximo de la información mutua entre la entrada y la salida del canal, donde la maximización es con respecto a la distribución de entrada. [3]

La noción de capacidad del canal ha sido fundamental para el desarrollo de los sistemas de comunicación alámbricos e inalámbricos modernos, con el advenimiento de nuevos mecanismos de codificación de corrección de errores que han dado como resultado un rendimiento muy cercano a los límites prometidos por la capacidad del canal.

Sea y modelemos como variables aleatorias. Además, sea ​​la función de distribución de probabilidad condicional de dado , que es una propiedad fija inherente del canal de comunicación. Entonces, la elección de la distribución marginal determina completamente la distribución conjunta debido a la identidad

lo que, a su vez, induce una información mutua . La capacidad del canal se define como


Capacidad de canal AWGN con el régimen de energía limitada y el régimen de ancho de banda limitado indicados. Aquí ,; B y C se pueden escalar proporcionalmente para otros valores.