De Wikipedia, la enciclopedia libre
  (Redirigido de los estándares de codificación de video )
Saltar a navegación Saltar a búsqueda

Un formato de codificación de video [1] [2] (o algunas veces formato de compresión de video ) es un formato de representación de contenido para almacenamiento o transmisión de contenido de video digital (como en un archivo de datos o flujo de bits ). Por lo general, utiliza un algoritmo de compresión de video estandarizado , más comúnmente basado en la codificación de transformada de coseno discreta (DCT) y la compensación de movimiento . Ejemplos de formatos de codificación de video incluyen H.262 (MPEG-2 Parte 2), MPEG-4 Parte 2 , H.264 (MPEG-4 Parte 10), HEVC (H.265), Theora ,RealVideo RV40 , VP9 y AV1 . Una implementación de software o hardware específico capaz de comprimir o descomprimir hacia / desde un formato de codificación de video específico se denomina códec de video ; un ejemplo de un códec de video es Xvid , que es uno de varios códecs diferentes que implementa la codificación y decodificación de videos en el formato de codificación de video MPEG-4 Parte 2 en software.

Algunos formatos de codificación de video están documentados por un documento de especificaciones técnicas detalladas conocido como especificación de codificación de video . Algunas de estas especificaciones están escritas y aprobadas por organizaciones de estandarización como estándares técnicos y, por lo tanto, se conocen como estándar de codificación de video . El término "estándar" también se utiliza a veces para los estándares de facto , así como para los estándares formales.

El contenido de video codificado usando un formato de codificación de video particular normalmente se incluye con un flujo de audio (codificado usando un formato de codificación de audio ) dentro de un formato contenedor multimedia como AVI , MP4 , FLV , RealMedia o Matroska . Como tal, el usuario normalmente no tiene un archivo H.264 , sino un archivo de video .mp4 , que es un contenedor MP4 que contiene video codificado en H.264, normalmente junto con audio codificado AAC . Los formatos de contenedor multimedia pueden contener cualquiera de varios formatos de codificación de video diferentes; por ejemplo, el formato de contenedor MP4 puede contener vídeo en formatoMPEG-2 Part 2 o el formato de codificación de video H.264, entre otros. Otro ejemplo es la especificación inicial para el tipo de archivo WebM , que especificaba el formato de contenedor (Matroska), pero también exactamente qué formato de compresión de video ( VP8 ) y audio ( Vorbis ) se usa dentro del contenedor de Matroska, aunque el formato de contenedor de Matroska en sí mismo. es capaz de contener otros formatos de codificación de video ( el soporte de video VP9 y audio Opus se agregó más tarde a la especificación WebM).

Distinción entre "formato" y "códec" [ editar ]

Aunque los formatos de codificación de video como H.264 a veces se denominan códecs , existe una clara diferencia conceptual entre una especificación y sus implementaciones. Los formatos de codificación de video se describen en las especificaciones, y el software o hardware para codificar / decodificar datos en un formato de codificación de video dado desde / hacia video sin comprimir son implementaciones de esas especificaciones. Como analogía, el formato de codificación de video H.264 (especificación) es para el códec OpenH264 (implementación específica) lo que el lenguaje de programación C (especificación) es para el compilador GCC (implementación específica). Tenga en cuenta que para cada especificación (por ejemplo, H.264), puede haber muchos códecs que implementen esa especificación (por ejemplo , productos e implementaciones x264 , OpenH264, H.264 / MPEG-4 AVC ).

Esta distinción no se refleja terminológicamente de manera consistente en la literatura. La especificación H.264 llama a los estándares de codificación de video H.261 , H.262 , H.263 y H.264 y no contiene la palabra códec . [3] La Alliance for Open Media distingue claramente entre el formato de codificación de video AV1 y el códec que lo acompaña que están desarrollando, pero llama al formato de codificación de video en sí mismo una especificación de códec de video . [4] La especificación VP9 llama al formato de codificación de video VP9 en sí mismo un códec . [5]

Como ejemplo de combinación, las páginas de Chromium [6] y Mozilla [7] que enumeran su formato de video admiten formatos de codificación de video de llamada, como los códecs H.264 . Como otro ejemplo, en el anuncio de Cisco de un códec de video gratis como en cerveza, el comunicado de prensa se refiere al formato de codificación de video H.264 como un "códec" ("elección de un códec de video común"), pero llama a Cisco implementación de un codificador / decodificador H.264 un "códec" poco después ("código abierto nuestro códec H.264"). [8]

Un formato de codificación de video no dicta todos los algoritmos utilizados por un códec que implementa el formato. Por ejemplo, una gran parte de cómo funciona la compresión de video es encontrar similitudes entre cuadros de video (coincidencia de bloques) y luego lograr la compresión copiando subimágenes similares codificadas previamente (por ejemplo, macrobloques ) y agregando pequeñas diferencias cuando sea necesario. Encontrar combinaciones óptimas de tales predictores y diferencias es un problema NP-difícil , [9]lo que significa que es prácticamente imposible encontrar una solución óptima. Si bien el formato de codificación de video debe admitir dicha compresión a través de cuadros en el formato de flujo de bits, al no exigir innecesariamente algoritmos específicos para encontrar tales coincidencias de bloques y otros pasos de codificación, los códecs que implementan la especificación de codificación de video tienen cierta libertad para optimizar e innovar en su elección. de algoritmos. Por ejemplo, la sección 0.5 de la especificación H.264 dice que los algoritmos de codificación no son parte de la especificación. [3] La libre elección del algoritmo también permite una complejidad de espacio-tiempo diferente compensaciones para el mismo formato de codificación de video, por lo que una transmisión en vivo puede usar un algoritmo rápido pero ineficiente en cuanto al espacio, mientras que una codificación de DVD de una sola vez para una producción en masa posterior puede intercambiar un tiempo de codificación prolongado por una codificación que ahorra espacio.

Historia [ editar ]

El concepto de compresión de video analógico se remonta a 1929, cuando RD Kell en Gran Bretaña propuso el concepto de transmitir solo las partes de la escena que cambiaban de un cuadro a otro. El concepto de compresión de video digital se remonta a 1952, cuando los investigadores de Bell Labs , BM Oliver y CW Harrison, propusieron el uso de modulación diferencial de código de impulsos (DPCM) en la codificación de video. El concepto de compensación de movimiento entre cuadros se remonta a 1959, cuando los investigadores de NHK Y. Taki, M. Hatori y S. Tanaka propusieron la codificación predictiva de video entre cuadros en la dimensión temporal . [10] En 1967, Universidad de Londreslos investigadores AH Robinson y C. Cherry propusieron la codificación de longitud de ejecución (RLE), un esquema de compresión sin pérdidas , para reducir el ancho de banda de transmisión de las señales de televisión analógica. [11]

Los primeros algoritmos de codificación de video digital eran para video sin comprimir o usaban compresión sin pérdidas , ambos métodos son ineficientes y poco prácticos para la codificación de video digital. [12] [13] El video digital se introdujo en la década de 1970, [12] inicialmente usaba modulación de código de pulso sin comprimir (PCM) que requería altas tasas de bits alrededor de 45-200 Mbit / s para video de definición estándar (SD), [12] [ 13], que era hasta 2000 veces mayor que el ancho de banda de telecomunicaciones (hasta 100 kbit / s ) disponible hasta la década de 1990. [13] De manera similar, el video de 1080p de alta definición (HD) sin comprimir requiere velocidades de bits superiores a 1 Gbit / s , significativamente mayor que el ancho de banda disponible en la década de 2000. [14] 

DCT compensado por movimiento [ editar ]

La compresión de video práctica fue posible gracias al desarrollo de la codificación DCT compensada por movimiento (MC DCT), [13] [12] también llamada compensación de movimiento en bloque (BMC) [10] o compensación de movimiento DCT. Se trata de un algoritmo de codificación híbrido, [10] que combina dos técnicas clave de compresión de datos : codificación de transformada de coseno discreta (DCT) [13] [12] en la dimensión espacial y compensación de movimiento predictivo en la dimensión temporal . [10]

La codificación DCT es una técnica de codificación de transformación de compresión de bloques con pérdida que fue propuesta por primera vez por Nasir Ahmed , quien inicialmente la diseñó para la compresión de imágenes , mientras trabajaba en la Universidad Estatal de Kansas en 1972. Luego, Ahmed la desarrolló en un algoritmo práctico de compresión de imágenes con T. Natarajan y KR Rao en la Universidad de Texas en 1973, y fue publicado en 1974. [15] [16] [17]

El otro desarrollo clave fue la codificación híbrida con compensación de movimiento. [10] En 1974, Ali Habibi de la Universidad del Sur de California introdujo la codificación híbrida, [18] [19] [20] que combina la codificación predictiva con la codificación por transformación. [10] [21] Él examinó varias técnicas de codificación de transformadas, incluyendo la DCT, la transformada de Hadamard , la transformada de Fourier , la transformada inclinada y la transformada de Karhunen-Loeve . [18] Sin embargo, su algoritmo se limitó inicialmente a intracuadroscodificación en la dimensión espacial. En 1975, John A. Roese y Guner S. Robinson ampliaron el algoritmo de codificación híbrida de Habibi a la dimensión temporal, utilizando la codificación de transformación en la dimensión espacial y la codificación predictiva en la dimensión temporal, desarrollando una codificación híbrida compensada por movimiento entre cuadros . [10] [22] Para la codificación de transformadas espaciales, experimentaron con diferentes transformadas, incluyendo la DCT y la transformada rápida de Fourier (FFT), desarrollando codificadores híbridos entre cuadros para ellos, y encontraron que la DCT es la más eficiente debido a su complejidad reducida, capaz de comprimir datos de imagen hasta 0,25 bits por píxel para un videoteléfonoescena con una calidad de imagen comparable a la de un codificador intracuadro típico que requiere 2 bits por píxel. [23] [22]

El DCT fue aplicado a la codificación de video por Wen-Hsiung Chen, [24] quien desarrolló un algoritmo DCT rápido con CH Smith y SC Fralick en 1977, [25] [26] y fundó Compression Labs para comercializar la tecnología DCT. [24] En 1979, Anil K. Jain y Jaswant R. Jain desarrollaron aún más la compresión de video DCT con compensación de movimiento. [27] [10] Esto llevó a Chen a desarrollar un algoritmo práctico de compresión de video, llamado DCT con compensación de movimiento o codificación de escena adaptativa, en 1981. [10] La DCT con compensación de movimiento se convirtió más tarde en la técnica de codificación estándar para la compresión de video desde finales de la década de 1980. adelante. [12] [28]

Estándares de codificación de video [ editar ]

El primer estándar de codificación de vídeo digital fue H.120 , desarrollado por el CCITT (ahora ITU-T) en 1984. [29] H.120 no se podía utilizar en la práctica porque su rendimiento era demasiado bajo. [29] H.120 utilizó codificación DPCM con compensación de movimiento, [10] un algoritmo de compresión sin pérdidas que era ineficaz para la codificación de video. [12] A fines de la década de 1980, varias empresas comenzaron a experimentar con la codificación de transformada de coseno discreta (DCT), una forma de compresión mucho más eficiente para la codificación de video. El CCITT recibió 14 propuestas de formatos de compresión de video basados ​​en DCT, en contraste con una propuesta única basada en la compresión de cuantificación vectorial (VQ). El H.261El estándar se desarrolló en base a la compresión DCT compensada por movimiento. [12] [28] H.261 fue el primer estándar práctico de codificación de video, [29] y fue desarrollado con patentes licenciadas por varias compañías, incluidas Hitachi , PictureTel , NTT , BT y Toshiba , entre otras. [30] Desde H.261, la compresión DCT con compensación de movimiento ha sido adoptada por todos los principales estándares de codificación de video (incluidos los formatos H.26x y MPEG ) que le siguieron. [12] [28]

MPEG-1 , desarrollado por Motion Picture Experts Group (MPEG), siguió en 1991, y fue diseñado para comprimir video de calidad VHS . [29] Le sucedió en 1994 MPEG-2 / H.262 , [29] que se desarrolló con patentes autorizadas por varias empresas, principalmente Sony , Thomson y Mitsubishi Electric . [31] MPEG-2 se convirtió en el formato de video estándar para DVD y televisión digital SD . [29] Su algoritmo DCT compensado por movimiento pudo lograr una relación de compresiónde hasta 100: 1, lo que permite el desarrollo de tecnologías de medios digitales como el vídeo a la carta (VOD) [13] y la televisión de alta definición (HDTV). [32] En 1999, fue seguido por MPEG-4 / H.263 , que supuso un gran avance en la tecnología de compresión de vídeo. [29] Fue desarrollado con patentes con licencia de varias empresas, principalmente Mitsubishi, Hitachi y Panasonic . [33]

El formato de codificación de video más utilizado a partir de 2019 es H.264 / MPEG-4 AVC . [34] Fue desarrollado en 2003, con patentes bajo licencia de varias organizaciones, principalmente Panasonic, Godo Kaisha IP Bridge y LG Electronics . [35] En contraste con el DCT estándar usado por sus predecesores, AVC usa el DCT entero . [24] [36] H.264 es uno de los estándares de codificación de video para discos Blu-ray ; Todos los reproductores de Blu-ray Disc deben poder decodificar H.264. También es ampliamente utilizado para transmitir fuentes de Internet, como videos de YouTube , Netflix , Vimeo.y iTunes Store , software web como Adobe Flash Player y Microsoft Silverlight , y también varias transmisiones de HDTV por tierra ( estándares del Comité de Sistemas de Televisión Avanzada , ISDB-T , DVB-T o DVB-T2 ), cable ( DVB-C ) y satélite ( DVB-S2 ).

Un problema principal para muchos formatos de codificación de video han sido las patentes , lo que hace que su uso sea costoso o potencialmente arriesga una demanda por patentes debido a patentes submarinas . La motivación detrás de muchos formatos de codificación de video diseñados recientemente, como Theora , VP8 y VP9, ha sido crear un estándar de codificación de video ( libre ) cubierto solo por patentes libres de regalías. [37] El estado de la patente también ha sido un punto importante de controversia para la elección de los formatos de video que admitirán los navegadores web convencionales dentro de la etiqueta de video HTML5 .

El formato de codificación de video de la generación actual es HEVC (H.265), introducido en 2013. Mientras que AVC usa el DCT entero con tamaños de bloque 4x4 y 8x8, HEVC usa transformaciones DCT y DST enteros con tamaños de bloque variados entre 4x4 y 32x32. [38] HEVC está fuertemente patentado, y la mayoría de las patentes pertenecen a Samsung Electronics , GE , NTT y JVC Kenwood . [39] Actualmente está siendo impugnado por el formato AV1 que aspira a obtener una licencia gratuita . A partir de 2019, AVC es, con mucho, el formato más utilizado para la grabación, compresión y distribución de contenido de vídeo, utilizado por el 91% de los desarrolladores de vídeo, seguido de HEVC, que utiliza el 43% de los desarrolladores. [34]

Lista de estándares de codificación de video [ editar ]

Formatos de codificación de video sin pérdida, con pérdida y sin comprimir [ editar ]

El video de consumo generalmente se comprime utilizando códecs de video con pérdida , ya que eso da como resultado archivos significativamente más pequeños que la compresión sin pérdida. Si bien existen formatos de codificación de video diseñados explícitamente para compresión con pérdida o sin pérdida, algunos formatos de codificación de video como Dirac y H.264 admiten ambos.

Los formatos de video sin comprimir , como Clean HDMI , son una forma de video sin pérdidas que se usa en algunas circunstancias, como cuando se envía video a una pantalla a través de una conexión HDMI . Algunas cámaras de gama alta también pueden capturar video directamente en este formato.

Formatos de codificación de video intracuadro [ editar ]

La compresión entre cuadros complica la edición de una secuencia de video codificada. [48] Una subclase de formatos de codificación de video relativamente simples son los formatos de video dentro del cuadro , como DV , en los que cada cuadro del flujo de video se comprime de forma independiente sin hacer referencia a otros cuadros en el flujo, y no se intenta tomar ventaja de las correlaciones entre imágenes sucesivas a lo largo del tiempo para una mejor compresión. Un ejemplo es Motion JPEG , que es simplemente una secuencia de imágenes comprimidas individualmente en JPEG . Este enfoque es rápido y simple, a costa de que el video codificado sea mucho más grande que un formato de codificación de video que admita la codificación entre cuadros .

Debido a que la compresión entre cuadros copia datos de un cuadro a otro, si el cuadro original simplemente se corta (o se pierde en la transmisión), los siguientes cuadros no se pueden reconstruir correctamente. Hacer 'cortes' en video comprimido intracuadro mientras se edita video es casi tan fácil como editar video sin comprimir: uno encuentra el principio y el final de cada cuadro, y simplemente copia bit a bit cada fotograma que desea conservar, y descarta el marcos que uno no quiere. Otra diferencia entre la compresión intracuadro e intercuadro es que, con los sistemas intracuadros, cada cuadro utiliza una cantidad similar de datos. En la mayoría de los sistemas entre cuadros, ciertos cuadros (como " cuadros I " en MPEG-2) no pueden copiar datos de otros marcos, por lo que requieren muchos más datos que otros marcos cercanos. [49]

Es posible crear un editor de video basado en computadora que detecte los problemas causados ​​cuando se editan cuadros I mientras que otros cuadros los necesitan. Esto ha permitido que se utilicen formatos más nuevos como HDV para la edición. Sin embargo, este proceso exige mucha más potencia informática que la edición de vídeo comprimido intracuadro con la misma calidad de imagen. Pero esta compresión no es muy efectiva para usar con ningún formato de audio.

Perfiles y niveles [ editar ]

Un formato de codificación de video puede definir restricciones opcionales para el video codificado, llamadas perfiles y niveles. Es posible tener un decodificador que solo admita la decodificación de un subconjunto de perfiles y niveles de un formato de video dado, por ejemplo, para hacer que el programa / hardware del decodificador sea más pequeño, más simple o más rápido.

Un perfil restringe qué técnicas de codificación están permitidas. Por ejemplo, el formato H.264 incluye los perfiles de línea base , principal y alto (y otros). Mientras que los cortes P (que se pueden predecir en función de los cortes anteriores) se admiten en todos los perfiles, los cortes B (que se pueden predecir en función de los cortes anteriores y siguientes) se admiten en los perfiles principal y alto , pero no en la línea de base . [50]

Un nivel es una restricción de parámetros como la resolución máxima y las velocidades de datos. [50]

Ver también [ editar ]

  • Comparación de formatos de contenedores
  • Compresión de datos # Video
  • Lista de formatos de compresión de video
  • Formato de archivo de video

Referencias y notas [ editar ]

  1. ^ El término "codificación de video" se puede ver, por ejemplo, en los nombres Advanced Video Coding , High Efficiency Video Coding y Video Coding Experts Group
  2. ^ Thomas Wiegand; Gary J. Sullivan; Gisle Bjontegaard y Ajay Luthra (julio de 2003). "Descripción general del estándar de codificación de video H.264 / AVC" (PDF) . TRANSACCIONES IEEE SOBRE CIRCUITOS Y SISTEMAS PARA TECNOLOGÍA DE VIDEO.
  3. ^ a b "SERIE H: SISTEMAS AUDIOVISUALES Y MULTIMEDIA: Infraestructura de servicios audiovisuales - Codificación de video en movimiento: Codificación avanzada de video para servicios audiovisuales genéricos" . Itu.int . Consultado el 6 de enero de 2015 .
  4. ^ "Portada" . Alliance for Open Media . Consultado el 23 de mayo de 2016 .
  5. ^ Adrian Grange; Peter de Rivaz y Jonathan Hunt. "Especificación del proceso de decodificación y flujo de bits VP9" (PDF) .
  6. ^ "Audio / Video" . Los proyectos de Chromium . Consultado el 23 de mayo de 2016 .
  7. ^ "Formatos multimedia compatibles con los elementos HTML de audio y video" . Mozilla . Consultado el 23 de mayo de 2016 .
  8. Rowan Trollope (30 de octubre de 2013). "H.264 de código abierto elimina las barreras a WebRTC" . Cisco . Consultado el 23 de mayo de 2016 .
  9. ^ "Capítulo 3: Algoritmo A * Prune modificado para encontrar K-MCSP en la compresión de video" (PDF) . Shodhganga.inflibnet.ac.in . Consultado el 6 de enero de 2015 .
  10. ^ a b c d e f g h i j "Historia de la compresión de vídeo" . ITU-T . Equipo de video conjunto (JVT) de ISO / IEC MPEG y ITU-T VCEG (ISO / IEC JTC1 / SC29 / WG11 y ITU-T SG16 Q.6). Julio de 2002. págs. 11, 24–9, 33, 40–1, 53–6 . Consultado el 3 de noviembre de 2019 .
  11. ^ Robinson, AH; Cherry, C. (1967). "Resultados de un esquema de compresión de ancho de banda de televisión prototipo". Actas del IEEE . IEEE . 55 (3): 356–364. doi : 10.1109 / PROC.1967.5493 .
  12. ↑ a b c d e f g h i Ghanbari, Mohammed (2003). Códecs estándar: compresión de imágenes a codificación de video avanzada . Institución de Ingeniería y Tecnología . págs. 1-2. ISBN 9780852967102.
  13. ↑ a b c d e f Lea, William (1994). Vídeo a la carta: Documento de investigación 94/68 . 9 de mayo de 1994: Biblioteca de la Cámara de los Comunes . Consultado el 20 de septiembre de 2019 .Mantenimiento de CS1: ubicación ( enlace )
  14. ^ Lee, Jack (2005). Sistemas de transmisión continua de medios escalables: arquitectura, diseño, análisis e implementación . John Wiley e hijos . pag. 25. ISBN 9780470857649.
  15. ^ Ahmed, Nasir (enero de 1991). "Cómo se me ocurrió la transformada discreta del coseno" . Procesamiento de señales digitales . 1 (1): 4–5. doi : 10.1016 / 1051-2004 (91) 90086-Z .
  16. ^ Ahmed, Nasir ; Natarajan, T .; Rao, KR (enero de 1974), "Discrete Cosine Transform", IEEE Transactions on Computers , C-23 (1): 90–93, doi : 10.1109 / TC.1974.223784
  17. ^ Rao, KR ; Yip, P. (1990), Transformada discreta del coseno: algoritmos, ventajas, aplicaciones , Boston: Academic Press, ISBN 978-0-12-580203-1
  18. ↑ a b Habibi, Ali (1974). "Codificación híbrida de datos pictóricos". Transacciones IEEE sobre comunicaciones . 22 (5): 614–624. doi : 10.1109 / TCOM.1974.1092258 .
  19. ^ Chen, Z .; Él, T .; Jin, X .; Wu, F. (2019). "Aprendizaje para la compresión de video". Transacciones IEEE sobre circuitos y sistemas para tecnología de video . 30 (2): 566–576. arXiv : 1804.09869 . doi : 10.1109 / TCSVT.2019.2892608 .
  20. ^ Pratt, William K. (1984). Avances en Electrónica y Física Electrónica: Suplemento . Prensa académica . pag. 158. ISBN 9780120145720. Se produjo un avance significativo en la metodología de codificación de imágenes con la introducción del concepto de codificación de transformación híbrida / DPCM (Habibi, 1974).
  21. ^ Ohm, Jens-Rainer (2015). Codificación y transmisión de señales multimedia . Saltador. pag. 364. ISBN 9783662466919.
  22. ^ a b Roese, John A .; Robinson, Guner S. (30 de octubre de 1975). "Codificación combinada espacial y temporal de secuencias de imágenes digitales". Transmisión eficiente de información pictórica . Sociedad Internacional de Óptica y Fotónica. 0066 : 172–181. Código Bibliográfico : 1975SPIE ... 66..172R . doi : 10.1117 / 12.965361 .
  23. ^ Huang, TS (1981). Análisis de secuencia de imágenes . Springer Science & Business Media . pag. 29. ISBN 9783642870378.
  24. ↑ a b c Stanković, Radomir S .; Astola, Jaakko T. (2012). "Reminiscencias de los primeros trabajos en DCT: Entrevista con KR Rao" (PDF) . Reimpresiones de los primeros días de las ciencias de la información . 60 . Consultado el 13 de octubre de 2019 .
  25. ^ Chen, Wen-Hsiung; Smith, CH; Fralick, SC (septiembre de 1977). "Un algoritmo computacional rápido para la transformada discreta del coseno". Transacciones IEEE sobre comunicaciones . 25 (9): 1004–1009. doi : 10.1109 / TCOM.1977.1093941 .
  26. ^ "T.81 - Compresión digital y codificación de imágenes fijas de tono continuo - Requisitos y directrices" (PDF) . CCITT . Septiembre de 1992 . Consultado el 12 de julio de 2019 .
  27. ^ Cianci, Philip J. (2014). Televisión de alta definición: creación, desarrollo e implementación de la tecnología HDTV . McFarland. pag. 63. ISBN 9780786487974.
  28. ↑ a b c Li, Jian Ping (2006). Actas de la Conferencia Internacional de Computación de 2006 sobre tecnología de medios activos Wavelet y procesamiento de la información: Chongqing, China, 29-31 de agosto de 2006 . World Scientific . pag. 847. ISBN 9789812709998.
  29. ^ a b c d e f g "La historia de la infografía de formatos de archivo de vídeo" . RealNetworks . 22 de abril de 2012 . Consultado el 5 de agosto de 2019 .
  30. ^ a b "Recomendación UIT-T declarada patente (s)" . ITU . Consultado el 12 de julio de 2019 .
  31. ^ a b "Lista de patentes MPEG-2" (PDF) . MPEG LA . Consultado el 7 de julio de 2019 .
  32. ^ Shishikui, Yoshiaki; Nakanishi, Hiroshi; Imaizumi, Hiroyuki (26 al 28 de octubre de 1993). "Un esquema de codificación de HDTV utilizando DCT de dimensión adaptativa" . Procesamiento de señales de HDTV: Actas del Taller internacional sobre HDTV '93, Ottawa, Canadá . Elsevier : 611–618. doi : 10.1016 / B978-0-444-81844-7.50072-3 . ISBN 9781483298511.
  33. ^ a b c "MPEG-4 Visual - Lista de patentes" (PDF) . MPEG LA . Consultado el 6 de julio de 2019 .
  34. ^ a b c "Informe de desarrollador de video 2019" (PDF) . Bitmovin . 2019 . Consultado el 5 de noviembre de 2019 .
  35. ^ a b "AVC / H.264 - Lista de patentes" (PDF) . MPEG LA . Consultado el 6 de julio de 2019 .
  36. ^ Wang, Hanli; Kwong, S .; Kok, C. (2006). "Algoritmo de predicción eficiente de coeficientes DCT enteros para optimización H.264 / AVC". Transacciones IEEE sobre circuitos y sistemas para tecnología de video . 16 (4): 547–552. doi : 10.1109 / TCSVT.2006.871390 .
  37. ^ https://blogs.cisco.com/collaboration/world-meet-thor-a-project-to-hammer-out-a-royalty-free-video-codec
  38. ^ Thomson, Gavin; Shah, Athar (2017). "Presentación de HEIF y HEVC" (PDF) . Apple Inc. Consultado el 5 de agosto de 2019 .
  39. ^ a b "Lista de patentes HEVC" (PDF) . MPEG LA . Consultado el 6 de julio de 2019 .
  40. ^ "Normas ISO y patentes" . ISO . Consultado el 10 de julio de 2019 .
  41. ^ Davis, Andrew (13 de junio de 1997). "Descripción general de la recomendación H.320" . EE Times . Consultado el 7 de noviembre de 2019 .
  42. ^ IEEE WESCANEX 97: comunicaciones, energía e informática: actas de conferencias . Universidad de Manitoba, Winnipeg, Manitoba, Canadá: Instituto de Ingenieros Eléctricos y Electrónicos . 22-23 de mayo de 1997. p. 30. ISBN 9780780341470. H.263 es similar pero más complejo que H.261. Actualmente es el estándar internacional de compresión de video más utilizado para telefonía de video en líneas telefónicas ISDN (Red digital de servicios integrados).
  43. ^ "Motion JPEG 2000 Parte 3" . Grupo conjunto de expertos en fotografía, JPEG, y grupo conjunto de expertos en imagen de dos niveles, JBIG . Archivado desde el original el 22 de septiembre de 2012 . Consultado el 21 de junio de 2014 .
  44. ^ Taubman, David; Marcelino, Michael (2012). Principios, estándares y práctica de la compresión de imágenes JPEG2000: Principios, estándares y práctica de la compresión de imágenes . Springer Science & Business Media . ISBN 9781461507994.
  45. ^ Swartz, Charles S. (2005). Comprensión del cine digital: un manual profesional . Taylor y Francis . pag. 147. ISBN 9780240806174.
  46. ^ "Lista de patentes VC-1" (PDF) . MPEG LA . Consultado el 11 de julio de 2019 .
  47. ^ "Lista avanzada de patentes HEVC" . HEVC Advance . Consultado el 6 de julio de 2019 .
  48. ^ Bhojani, DR "4.1 Compresión de video" (PDF) . Hipótesis . Consultado el 6 de marzo de 2013 .
  49. ^ Jaiswal, RC (2009). Ingeniería de Audio-Video . Pune, Maharashtra: Nirali Prakashan. pag. 3,55. ISBN 9788190639675.
  50. ^ a b Jan Ozer. "Opciones de codificación para video H.264" . Adobe.com . Consultado el 6 de enero de 2015 .