La capacidad del canal , en ingeniería eléctrica , informática y teoría de la información , es el límite superior estricto en la velocidad a la que la información se puede transmitir de manera confiable a través de un canal de comunicación .
Siguiendo los términos del teorema de codificación de canal ruidoso , la capacidad de canal de un canal dado es la tasa de información más alta (en unidades de información por unidad de tiempo) que se puede lograr con una probabilidad de error arbitrariamente pequeña. [1] [2]
La teoría de la información , desarrollada por Claude E. Shannon en 1948, define la noción de capacidad de canal y proporciona un modelo matemático mediante el cual se puede calcular. El resultado clave establece que la capacidad del canal, como se define anteriormente, está dada por el máximo de la información mutua entre la entrada y la salida del canal, donde la maximización es con respecto a la distribución de entrada. [3]
La noción de capacidad del canal ha sido fundamental para el desarrollo de los sistemas de comunicación alámbricos e inalámbricos modernos, con el advenimiento de nuevos mecanismos de codificación de corrección de errores que han dado como resultado un rendimiento muy cercano a los límites prometidos por la capacidad del canal.
Definicion formal
El modelo matemático básico para un sistema de comunicación es el siguiente:
dónde:
- es el mensaje a transmitir;
- es el símbolo de entrada del canal ( es una secuencia de símbolos) tomados en un alfabeto ;
- es el símbolo de salida del canal ( es una secuencia de símbolos) tomados en un alfabeto ;
- es la estimación del mensaje transmitido;
- es la función de codificación para un bloque de longitud ;
- es el canal ruidoso, que está modelado por una distribución de probabilidad condicional ; y,
- es la función de decodificación para un bloque de longitud .
Dejar y modelarse como variables aleatorias. Además, dejaser la función de distribución de probabilidad condicional de dado , que es una propiedad fija inherente del canal de comunicación. Entonces la elección de la distribución marginal determina completamente la distribución conjunta debido a la identidad
que, a su vez, induce una información mutua . La capacidad del canal se define como
donde el supremo se hace cargo de todas las opciones posibles de.
Aditividad de la capacidad del canal
La capacidad del canal es aditiva sobre los canales independientes. [4] Significa que usar dos canales independientes de manera combinada proporciona la misma capacidad teórica que usarlos de manera independiente. Más formalmente, dejemos y ser dos canales independientes modelados como arriba; tener un alfabeto de entrada y un alfabeto de salida . Idem para. Definimos el canal de producto como
Este teorema establece:
Primero mostramos que .
Dejar y ser dos variables aleatorias independientes. Dejar ser una variable aleatoria correspondiente a la salida de a través del canal , y por mediante .
Por definición .
Desde y son independientes, así como y , es independiente de . Podemos aplicar la siguiente propiedad de información mutua :
Por ahora solo necesitamos encontrar una distribución tal que . De echo, y , dos distribuciones de probabilidad para y logrando y , es suficiente:
es decir.
Ahora demostremos que .
Dejar ser alguna distribución para el canal definiendo y la salida correspondiente . Dejar ser el alfabeto de , por y análogamente y .
Por definición de información mutua, tenemos
Reescribamos el último término de entropía .
Por definición del canal de producto, . Para un par dado, podemos reescribir como:
Al sumar esta igualdad sobre todos , obtenemos .
Ahora podemos dar un límite superior sobre la información mutua:
Esta relación se conserva en el supremum. Por lo tanto
Combinando las dos desigualdades que probamos, obtenemos el resultado del teorema:
Capacidad de Shannon de un gráfico
Si G es un gráfico no dirigido , puede usarse para definir un canal de comunicaciones en el que los símbolos son los vértices del gráfico, y dos palabras de código pueden confundirse entre sí si sus símbolos en cada posición son iguales o adyacentes. La complejidad computacional de encontrar la capacidad de Shannon de tal canal permanece abierta, pero puede estar delimitada en la parte superior por otro importante invariante gráfico, el número de Lovász . [5]
Teorema de codificación de canal ruidoso
El teorema de codificación de canal ruidoso establece que para cualquier probabilidad de error ε> 0 y para cualquier tasa de transmisión R menor que la capacidad del canal C , existe un esquema de codificación y decodificación que transmite datos a la tasa R cuya probabilidad de error es menor que ε, para un longitud de bloque suficientemente grande. Además, para cualquier tasa mayor que la capacidad del canal, la probabilidad de error en el receptor va a 0.5 cuando la longitud del bloque llega al infinito.
Aplicación de ejemplo
Una aplicación del concepto de capacidad de canal a un canal de ruido gaussiano blanco aditivo (AWGN) con un ancho de banda de B Hz y una relación señal / ruido S / N es el teorema de Shannon-Hartley :
C se mide en bits por segundo si el logaritmo se toma en base 2, o nats por segundo si se usa el logaritmo natural , asumiendo que B está en hercios ; las potencias de señal y ruido S y N se expresan en una unidad de potencia lineal (como vatios o voltios 2 ). Dado que las cifras de S / N a menudo se citan en dB , puede ser necesaria una conversión. Por ejemplo, una relación señal / ruido de 30 dB corresponde a una relación de potencia lineal de.
Capacidad de canal en comunicaciones inalámbricas
Esta sección [6] se centra en el escenario punto a punto de antena única. Para conocer la capacidad de canal en sistemas con múltiples antenas, consulte el artículo sobre MIMO .
Canal AWGN de banda limitada
Si la potencia media recibida es [W], el ancho de banda total es en hercios, y la densidad espectral de potencia de ruido es [W / Hz], la capacidad del canal AWGN es
- [bits / s],
dónde es la relación señal / ruido recibida (SNR). Este resultado se conoce como el teorema de Shannon-Hartley . [7]
Cuando la SNR es grande (SNR ≫ 0 dB), la capacidad es logarítmico en potencia y aproximadamente lineal en ancho de banda. A esto se le llama régimen de ancho de banda limitado .
Cuando la SNR es pequeña (SNR ≪ 0 dB), la capacidad es lineal en potencia pero insensible al ancho de banda. A esto se le llama régimen de poder limitado .
El régimen de ancho de banda limitado y el régimen de potencia limitada se ilustran en la figura.
Canal AWGN de frecuencia selectiva
La capacidad del canal selectivo en frecuencia viene dada por la denominada asignación de potencia de llenado de agua ,
dónde y es la ganancia del subcanal , con elegido para cumplir con la restricción de potencia.
Canal de desvanecimiento lento
En un canal de desvanecimiento lento , donde el tiempo de coherencia es mayor que el requisito de latencia, no hay una capacidad definida como la tasa máxima de comunicaciones confiables soportadas por el canal,, depende de la ganancia del canal aleatorio , que es desconocido para el transmisor. Si el transmisor codifica datos a una velocidad [bits / s / Hz], existe una probabilidad distinta de cero de que la probabilidad de error de decodificación no pueda hacerse arbitrariamente pequeña,
- ,
en cuyo caso se dice que el sistema está interrumpido. Con una probabilidad distinta de cero de que el canal esté en desvanecimiento profundo, la capacidad del canal de desvanecimiento lento en sentido estricto es cero. Sin embargo, es posible determinar el mayor valor de tal que la probabilidad de interrupción es menos que . Este valor se conoce como-capacidad de corte.
Canal de desvanecimiento rápido
En un canal de desvanecimiento rápido , donde el requisito de latencia es mayor que el tiempo de coherencia y la longitud de la palabra de código abarca muchos períodos de coherencia, se puede promediar sobre muchos desvanecimientos de canal independientes codificando sobre un gran número de intervalos de tiempo de coherencia. Por lo tanto, es posible lograr una tasa de comunicación confiable de [bits / s / Hz] y es significativo hablar de este valor como la capacidad del canal de desvanecimiento rápido.
Ver también
- Ancho de banda (informática)
- Ancho de banda (procesamiento de señales)
- Tasa de bits
- Tasa de código
- Exponente de error
- Tasa de Nyquist
- Negentropía
- Redundancia
- Remitente , compresión de datos , receptor
- Teorema de Shannon-Hartley
- Eficiencia espectral
- Rendimiento
Temas de comunicación avanzada
- MIMO
- Diversidad cooperativa
enlaces externos
- "Tasa de transmisión de un canal" , Enciclopedia de Matemáticas , EMS Press , 2001 [1994]
- Capacidad del canal AWGN con varias limitaciones en la entrada del canal (demostración interactiva)
Referencias
- ^ Saleem Bhatti. "Capacidad de canal" . Apuntes de conferencias para M.Sc. Redes de comunicación de datos y sistemas distribuidos D51 - Comunicaciones y redes básicas . Archivado desde el original el 21 de agosto de 2007.
- ^ Jim Lesurf. "¡Las señales parecen ruido!" . Información y medición, 2ª ed .
- ^ Thomas M. Cover, Joy A. Thomas (2006). Elementos de la teoría de la información . John Wiley & Sons, Nueva York. ISBN 9781118585771.
- ^ Portada, Thomas M .; Thomas, Joy A. (2006). "Capítulo 7: Capacidad del canal". Elementos de la teoría de la información (Segunda ed.). Wiley-Interscience. págs. 206–207. ISBN 978-0-471-24195-9.
- ^ Lovász, László (1979), "On the Shannon Capacity of a Graph", IEEE Transactions on Information Theory , IT-25 (1): 1–7, doi : 10.1109 / tit.1979.1055985.
- ^ David Tse, Pramod Viswanath (2005), Fundamentos de la comunicación inalámbrica , Cambridge University Press, Reino Unido, ISBN 9780521845274
- ^ El manual de ingeniería eléctrica . Asociación de Investigación y Educación. 1996. p. D-149. ISBN 9780878919819.