Este artículo incluye una lista de referencias generales , pero permanece en gran parte sin verificar porque carece de suficientes citas en línea correspondientes . ( Marzo de 2013 ) ( Obtenga información sobre cómo y cuándo eliminar este mensaje de plantilla ) |
Un canal binario simétrico (o BSC p ) es un modelo de canal de comunicaciones común utilizado en la teoría de la codificación y la teoría de la información . En este modelo, un transmisor desea enviar un bit (un cero o uno) y el receptor recibirá un bit. El bit se "invertirá" con una " probabilidad de cruce " de p , y de lo contrario se recibirá correctamente. Este modelo se puede aplicar a diversos canales de comunicación, como líneas telefónicas o almacenamiento en unidad de disco .
El teorema de codificación de canal ruidoso se aplica al BSC p , diciendo que la información se puede transmitir a cualquier velocidad hasta la capacidad del canal con un error arbitrariamente bajo. La capacidad del canal es bits, donde es la función de entropía binaria . Los códigos, incluido el código de Forney, se han diseñado para transmitir información de manera eficiente a través del canal.
Definición [ editar ]
Un canal simétrico binario con probabilidad de cruce , denotado por BSC p , es un canal con entrada binaria y salida binaria y probabilidad de error . Es decir, si es la variable aleatoria transmitida y la variable recibida, entonces el canal se caracteriza por las probabilidades condicionales : [1]
Se asume eso . Si , entonces el receptor puede intercambiar la salida (interpretar 1 cuando ve 0, y viceversa) y obtener un canal equivalente con probabilidad de cruce .
Capacidad [ editar ]
La capacidad de canal del canal simétrico binario, en bits , es: [2]
donde es la función de entropía binaria , definida por: [2]
Prueba [3] La capacidad se define como la máxima información mutua entre la entrada y la salida para todas las posibles distribuciones de entrada : La información mutua se puede reformular como
donde el primer y segundo paso se sigue de la definición de información mutua y entropía condicional respectivamente. La entropía en la salida para un símbolo de entrada determinado y fijo ( ) es igual a la función de entropía binaria, que conduce a la tercera línea y esto se puede simplificar aún más.
En la última línea, solo el primer término depende de la distribución de entrada . La entropía de una variable binaria es como máximo de 1 bit y se logra la igualdad si su distribución de probabilidad es uniforme. Por lo tanto, es suficiente exhibir una distribución de entrada que produzca una distribución de probabilidad uniforme para la salida . Para esto, tenga en cuenta que es una propiedad de cualquier canal simétrico binario que una distribución de probabilidad uniforme de la entrada da como resultado una distribución de probabilidad uniforme de la salida. Por tanto, el valor será 1 cuando elijamos una distribución uniforme para . Concluimos que la capacidad del canal para nuestro canal simétrico binario es .
Teorema de codificación de canal ruidoso [ editar ]
El teorema de codificación de canal ruidoso de Shannon da un resultado sobre la tasa de información que se puede transmitir a través de un canal de comunicación con un error arbitrariamente bajo. Estudiamos el caso particular de .
El ruido que caracteriza es una variable aleatoria que consta de n bits aleatorios independientes (n se define a continuación) donde cada bit aleatorio es a con probabilidad y a con probabilidad . Lo indicamos escribiendo " ".
Teorema : para todos todos , todos lo suficientemente grandes (dependiendo de y ), y todos , existe un par de funciones de codificación y decodificación y respectivamente, de modo que cada mensaje tiene la siguiente propiedad:
- .
Lo que este teorema implica en realidad es que, cuando se selecciona un mensaje , se codifica con una función de codificación aleatoria y se envía a través de un ruido , existe una probabilidad muy alta de recuperar el mensaje original mediante la decodificación, si o en efecto la velocidad del canal es limitada por la cantidad indicada en el teorema. La probabilidad de error de decodificación es exponencialmente pequeña.
Prueba [ editar ]
El teorema se puede demostrar directamente con un método probabilístico . Considere una función de codificación que se selecciona al azar. Esto significa que para cada mensaje , el valor se selecciona al azar (con iguales probabilidades). Para una función de codificación dada , la función de decodificación se especifica de la siguiente manera: dada cualquier palabra de código recibida , encontramos el mensaje tal que la distancia de Hamming es lo más pequeña posible (con lazos rotos arbitrariamente). ( se denomina función de decodificación de máxima verosimilitud ).
La demostración continúa mostrando que al menos una de esas opciones satisface la conclusión del teorema, por integración sobre las probabilidades. Supongamos que y son fijos. Primero mostramos que, para un fijo y elegido al azar, la probabilidad de falla por ruido es exponencialmente pequeña en n . En este punto, la prueba funciona para un mensaje fijo . A continuación, ampliamos este resultado para que funcione con todos los mensajes . Logramos esto eliminando la mitad de las palabras de código del código con el argumento de que la prueba de la probabilidad de error de decodificación es válida para al menos la mitad de las palabras de código. El último método se llama expurgación. Esto le da al proceso total el nombre de codificación aleatoria con expurgación .
Continuación de la prueba (croquis) Arreglar y . Dado un mensaje fijo , necesitamos estimar el valor esperado de la probabilidad de que la palabra de código recibida junto con el ruido no se devuelva en la decodificación. Es decir, necesitamos estimar: Sea la palabra en clave recibida. Para que la palabra de código decodificada no sea igual al mensaje , debe ocurrir uno de los siguientes eventos:
- no se encuentra dentro de la bola de Hamming de radio centrada en . Esta condición se utiliza principalmente para facilitar los cálculos.
- Hay otro mensaje como ese . En otras palabras, los errores debidos al ruido acercan la palabra de código transmitida a otro mensaje codificado.
Podemos aplicar el límite de Chernoff para asegurar la no ocurrencia del primer evento; obtenemos:
Esto es exponencialmente pequeño para grande (recuerde que es fijo).
Para el segundo evento, observamos que la probabilidad de que es dónde está la bola de Hamming de radio centrada en el vector y es su volumen. Usando la aproximación para estimar el número de palabras de código en la bola de Hamming, tenemos . Por tanto, la probabilidad anterior asciende a . Ahora, usando el límite de unión , podemos establecer el límite superior de la existencia de tal por el cual es , según lo deseado por la elección de .
Continuación de la prueba (detallada) A partir del análisis anterior, calculamos la probabilidad del evento de que la palabra de código decodificada más el ruido del canal no sea lo mismo que el mensaje original enviado. Introduciremos aquí algunos símbolos. Dejado denotar la probabilidad de recibir la palabra de código , dado que la palabra de código se envió. Vamos a denotar Obtenemos la última desigualdad mediante nuestro análisis utilizando el límite de Chernoff anterior. Ahora, teniendo en cuenta la expectativa de ambos lados, tenemos,
eligiendo adecuadamente el valor de . Dado que el límite anterior es válido para cada mensaje, tenemos
Ahora podemos cambiar el orden de la suma en la expectativa con respecto al mensaje y la elección de la función de codificación . Por eso:
Por lo tanto, en conclusión, por método probabilístico, tenemos alguna función de codificación y una función de decodificación correspondiente tal que
En este punto, la prueba funciona para un mensaje fijo . Pero debemos asegurarnos de que el límite anterior se aplique a todos los mensajes simultáneamente . Para eso, clasifiquemos los mensajes por sus probabilidades de error de decodificación. Ahora, aplicando la desigualdad de Markov , podemos mostrar la probabilidad de error de decodificación para que los primeros mensajes sean como máximo . Por lo tanto, para confirmar que lo anterior es válido para cada mensaje , podríamos simplemente recortar los últimos mensajes del orden ordenado. Esto esencialmente nos da otra función de codificación con una función de decodificación correspondiente con una probabilidad de error de decodificación de como máximo con la misma tarifa. Tomando como igual a , ceñimos la probabilidad de error de decodificación a . Este proceso de expurgación completa la prueba.
Inverso del teorema de la capacidad de Shannon [ editar ]
El inverso del teorema de la capacidad establece esencialmente que es la mejor tasa que se puede lograr en un canal simétrico binario. Formalmente, el teorema establece:
Teorema - Si a continuación, la siguiente es cierto para cada codificación y decodificación de función : y : respectivamente: [ .
Sin embargo, la intuición detrás de la prueba muestra que el número de errores aumenta rápidamente a medida que la tasa crece más allá de la capacidad del canal. La idea es que el emisor genere mensajes de dimensión , mientras que el canal introduce errores de transmisión. Cuando la capacidad del canal es , el número de errores es típicamente para un código de longitud de bloque . El número máximo de mensajes es . La salida del canal por otro lado tiene valores posibles. Si hay alguna confusión entre dos mensajes, es probable que . Por lo tanto, tendríamos un caso que nos gustaría evitar para mantener la probabilidad de error de decodificación exponencialmente pequeña.
Códigos [ editar ]
Very recently, a lot of work has been done and is also being done to design explicit error-correcting codes to achieve the capacities of several standard communication channels. The motivation behind designing such codes is to relate the rate of the code with the fraction of errors which it can correct.
The approach behind the design of codes which meet the channel capacities of or the binary erasure channel have been to correct a lesser number of errors with a high probability, and to achieve the highest possible rate. Shannon's theorem gives us the best rate which could be achieved over a , but it does not give us an idea of any explicit codes which achieve that rate. In fact such codes are typically constructed to correct only a small fraction of errors with a high probability, but achieve a very good rate. The first such code was due to George D. Forney in 1966. The code is a concatenated code by concatenating two different kinds of codes.
Forney's code[edit]
Forney constructed a concatenated code to achieve the capacity of the noisy-channel coding theorem for . In his code,
- The outer code is a code of block length and rate over the field , and . Additionally, we have a decoding algorithm for which can correct up to fraction of worst case errors and runs in time.
- The inner code is a code of block length , dimension , and a rate of . Additionally, we have a decoding algorithm for with a decoding error probability of at most over and runs in time.
For the outer code , a Reed-Solomon code would have been the first code to have come in mind. However, we would see that the construction of such a code cannot be done in polynomial time. This is why a binary linear code is used for .
For the inner code we find a linear code by exhaustively searching from the linear code of block length and dimension , whose rate meets the capacity of , by the noisy-channel coding theorem.
The rate which almost meets the capacity. We further note that the encoding and decoding of can be done in polynomial time with respect to . As a matter of fact, encoding takes time . Further, the decoding algorithm described takes time as long as ; and .
Decoding error probability[edit]
A natural decoding algorithm for is to:
- Assume
- Execute on
Note that each block of code for is considered a symbol for . Now since the probability of error at any index for is at most and the errors in are independent, the expected number of errors for is at most by linearity of expectation. Now applying Chernoff bound, we have bound error probability of more than errors occurring to be . Since the outer code can correct at most errors, this is the decoding error probability of . This when expressed in asymptotic terms, gives us an error probability of . Thus the achieved decoding error probability of is exponentially small as the noisy-channel coding theorem.
We have given a general technique to construct . For more detailed descriptions on and please read the following references. Recently a few other codes have also been constructed for achieving the capacities. LDPC codes have been considered for this purpose for their faster decoding time.[4]
Applications[edit]
The binary symmetric channel can model a disk drive used for memory storage: the channel input represents a bit being written to the disk and the output corresponds to the bit later being read. Error could arise from the magnetization flipping, background noise or the writing head making an error. Other objects which the binary symmetric channel can model include a telephone or radio communication line or cell division, from which the daughter cells contain DNA information from their parent cell.[5]
This channel is often used by theorists because it is one of the simplest noisy channels to analyze. Many problems in communication theory can be reduced to a BSC. Conversely, being able to transmit effectively over the BSC can give rise to solutions for more complicated channels.
See also[edit]
- Z channel
Notes[edit]
- ^ MacKay (2003), p. 4.
- ^ a b MacKay (2003), p. 15.
- ^ Cover & Thomas (1991), p. 187.
- ^ Richardson and Urbanke
- ^ MacKay (2003), p. 3–4.
References[edit]
- Thomas M. Cover; Joy A. Thomas (1991). Elements of Information Theory. Hoboken, New Jersey: Wiley. ISBN 978-0-471-24195-9.
- G. David Forney. Concatenated Codes. MIT Press, Cambridge, MA, 1966.
- Venkat Guruswamy's course on Error-Correcting Codes: Constructions and Algorithms, Autumn 2006.
- MacKay, David J.C. (2003). Information Theory, Inference, and Learning Algorithms. Cambridge University Press. ISBN 0-521-64298-1.
- Atri Rudra's course on Error Correcting Codes: Combinatorics, Algorithms, and Applications (Fall 2007), Lectures 9, 10, 29, and 30.
- Madhu Sudan's course on Algorithmic Introduction to Coding Theory (Fall 2001), Lecture 1 and 2.
- A mathematical theory of communication C. E Shannon, ACM SIGMOBILE Mobile Computing and Communications Review.
- Modern Coding Theory by Tom Richardson and Rudiger Urbanke., Cambridge University Press