En teoría de la información y comunicación , la codificación Slepian-Wolf , también conocida como la unión Slepian-Wolf , es un resultado de la codificación de fuente distribuida descubierta por David Slepian y Jack Wolf en 1973. Es un método de codificación teórica de dos fuentes correlacionadas comprimidas sin pérdidas . [1]
Configuración del problema
La codificación distribuida es la codificación de dos, en este caso, o más fuentes dependientes con codificadores separados y un decodificador conjunto . Dadas dos secuencias aleatorias de alfabeto finito iid estadísticamente dependientes y , el teorema de Slepian-Wolf da un límite teórico para la tasa de codificación sin pérdidas para la codificación distribuida de las dos fuentes.
Teorema
El límite para los tipos de codificación sin pérdidas que se muestran a continuación: [1]
Si tanto el codificador como el descodificador de las dos fuentes son independientes, la tasa más baja que puede alcanzar para la compresión sin pérdidas es y por y respectivamente, donde y son las entropías de y . Sin embargo, con la decodificación conjunta, si se acepta la probabilidad de error de desaparición para secuencias largas, el teorema de Slepian-Wolf muestra que se puede lograr una tasa de compresión mucho mejor. Siempre que la tasa total de y es más grande que su entropía conjunta y ninguna de las fuentes está codificada con una velocidad menor que su entropía , la codificación distribuida puede lograr una probabilidad de error arbitrariamente pequeña para secuencias largas. [1]
Un caso especial de codificación distribuida es la compresión con información del lado del decodificador, donde la fuente está disponible en el lado del decodificador pero no es accesible en el lado del codificador. Esto puede tratarse como la condición que ya se ha utilizado para codificar , mientras que tenemos la intención de usar para codificar . En otras palabras, dos fuentes aisladas pueden comprimir datos de manera tan eficiente como si se estuvieran comunicando entre sí. Todo el sistema funciona de forma asimétrica (la tasa de compresión de las dos fuentes es asimétrica). [1]
Este límite se ha extendido al caso de más de dos fuentes correlacionadas por Thomas M. Cover en 1975, [2] y Aaron D. Wyner y Jacob Ziv obtuvieron resultados similares en 1976 con respecto a la codificación con pérdida de fuentes gaussianas conjuntas. [3]
Ver también
Referencias
- ↑ a b c d Slepian y Wolf , 1973 , págs. 471–480.
- ^ Portada de 1975 , págs. 226-228.
- ^ Wyner y Ziv 1976 , págs. 1-10.
Fuentes
- Portada, Thomas M. (marzo de 1975). "Una prueba del teorema de compresión de datos de Slepian y Wolf para fuentes ergódicas" por T. ". IEEE Transactions on Information Theory . 21 (2): 226-228. Doi : 10.1109 / TIT.1975.1055356 . ISSN 0018-9448 .
- Slepian, David S .; Wolf, Jack K. (julio de 1973). "Codificación silenciosa de fuentes de información correlacionadas". Transacciones IEEE sobre teoría de la información . 19 (4): 471–480. doi : 10.1109 / TIT.1973.1055037 . ISSN 0018-9448 .
- Wyner, Aaron D .; Ziv, Jacob (enero de 1976). "La función de distorsión de velocidad para la codificación de fuente con información lateral en el decodificador". Transacciones IEEE sobre teoría de la información . 22 (1): 1–10. CiteSeerX 10.1.1.137.494 . doi : 10.1109 / TIT.1976.1055508 . ISSN 0018-9448 .
enlaces externos
- Wyner-Ziv Codificación de algoritmo de video para la compresión de video que funciona cerca del límite de Slepian-Wolf (con enlaces al código fuente).