De Wikipedia, la enciclopedia libre
Saltar a navegación Saltar a búsqueda

Descripción general de transmisión adaptativa
Streaming adaptable en acción

La transmisión de velocidad de bits adaptativa es una técnica que se utiliza para transmitir multimedia a través de redes informáticas . Mientras que en el pasado la mayoría de las tecnologías de transmisión de video o audio utilizaban protocolos de transmisión como RTP con RTSP , las tecnologías de transmisión adaptativa actuales se basan casi exclusivamente en HTTP [1] y están diseñadas para funcionar de manera eficiente en grandes redes HTTP distribuidas como Internet. Funciona detectando el ancho de banda de un usuario y la capacidad de la CPU en tiempo real y ajustando la calidad del flujo de medios en consecuencia. [2] Requiere el uso de un codificador que pueda codificar un medio de una sola fuente (video o audio) en múltiplestasas de bits . El cliente del reproductor [3] cambia entre la transmisión de las diferentes codificaciones en función de los recursos disponibles. [4] "El resultado: muy poco almacenamiento en búfer , tiempo de inicio rápido y una buena experiencia tanto para conexiones de gama alta como de gama baja". [5]

Más específicamente, la transmisión de velocidad de bits adaptativa es un método de transmisión de video a través de HTTP donde el contenido de origen se codifica a múltiples velocidades de bits. Cada uno de los diferentes flujos de velocidad de bits se segmenta en pequeñas partes de varios segundos. [6] El tamaño del segmento puede variar dependiendo de la implementación particular, pero normalmente son entre dos y diez segundos. [4] [6]Primero, el cliente descarga un archivo de manifiesto que describe los segmentos de transmisión disponibles y sus respectivas velocidades de bits. Durante el inicio de la transmisión, el cliente generalmente solicita los segmentos de la transmisión de velocidad de bits más baja. Si el cliente encuentra que el rendimiento de la red es mayor que la tasa de bits del segmento descargado, solicitará un segmento de tasa de bits más alta. Más tarde, si el cliente descubre que el rendimiento de la red se ha deteriorado, solicitará un segmento de tasa de bits más baja. Un algoritmo de tasa de bits adaptativa (ABR) en el cliente realiza la función clave de decidir qué segmentos de tasa de bits descargar, según el estado actual de la red. Hay varios tipos de algoritmos ABR en uso comercial: los algoritmos basados ​​en rendimiento utilizan el rendimiento logrado en descargas anteriores recientes para la toma de decisiones (p. Ej., Regla de rendimiento endash.js ), los algoritmos basados ​​en búfer usan solo el nivel de búfer actual del cliente (por ejemplo, BOLA [7] en dash.js ), y los algoritmos híbridos combinan ambos tipos de información (por ejemplo, DYNAMIC [8] en dash.js ).


Usos actuales [ editar ]

Las casas de posproducción , las redes de distribución de contenido y los estudios utilizan tecnología de velocidad de bits adaptativa para proporcionar a los consumidores videos de mayor calidad utilizando menos mano de obra y menos recursos. La creación de múltiples salidas de video, particularmente para transmisión de velocidad de bits adaptativa, agrega un gran valor a los consumidores. [9] Si la tecnología funciona correctamente, el usuario final o el contenido del consumidor debería reproducirse sin interrupciones y posiblemente pasar desapercibido. Las empresas de medios han estado utilizando activamente la tecnología de tasa de bits adaptativa durante muchos años y se ha convertido esencialmente en una práctica estándar para los proveedores de transmisión de alta gama; permitiendo poco almacenamiento en búfer cuando se transmiten feeds de alta resolución (comienza con baja resolución y sube).

Beneficios de la transmisión de velocidad de bits adaptativa [ editar ]

La transmisión tradicional de velocidad de bits adaptativa impulsada por servidor brinda a los consumidores de medios de transmisión la mejor experiencia posible, ya que el servidor de medios se adapta automáticamente a cualquier cambio en la red y las condiciones de reproducción de cada usuario. [10] La industria de los medios y el entretenimiento también se beneficia de la transmisión de velocidad de bits adaptativa. A medida que crece el espacio de video, las redes de entrega de contenido y los proveedores de video pueden brindar a los clientes una experiencia de visualización superior. La tecnología de velocidad de bits adaptable requiere codificación adicional , pero simplifica el flujo de trabajo general y crea mejores resultados.

Las tecnologías de transmisión de velocidad de bits adaptativa basadas en HTTP ofrecen beneficios adicionales sobre la transmisión de velocidad de bits adaptativa tradicional impulsada por servidor. En primer lugar, dado que la tecnología de transmisión se basa en HTTP , a diferencia de la transmisión adaptativa basada en RTP, los paquetes no tienen dificultades para atravesar el firewall y los dispositivos NAT . En segundo lugar, dado que la transmisión HTTP está puramente impulsada por el cliente, toda la lógica de adaptación reside en el cliente. Esto reduce el requisito de conexiones persistentes entre el servidor y la aplicación cliente. Además, no se requiere que el servidor mantenga la información del estado de la sesión en cada cliente, lo que aumenta la escalabilidad. Por último, la infraestructura de entrega HTTP existente, como las cachés HTTP y los servidores, se pueden adoptar sin problemas. [11] [12] [13] [14]

Se utiliza una CDN escalable para ofrecer transmisión de medios a una audiencia de Internet. La CDN recibe la transmisión de la fuente en su servidor de origen y luego la replica en muchos o todos sus servidores de caché Edge . El usuario final solicita la transmisión y se le redirige al servidor Edge "más cercano". Esto se puede probar usando libdash [15] y el conjunto de datos Distributed DASH (D-DASH), [16]que tiene varios espejos en Europa, Asia y EE. UU. El uso de transmisión adaptativa basada en HTTP permite que el servidor Edge ejecute un software de servidor HTTP simple, cuyo costo de licencia es barato o gratuito, lo que reduce el costo de licencia de software, en comparación con las costosas licencias de servidor de medios (por ejemplo, Adobe Flash Media Streaming Server). El costo de CDN para medios de transmisión HTTP es similar al costo de CDN de almacenamiento en caché web HTTP.

Historia [ editar ]

La velocidad de bits adaptativa sobre HTTP fue creada por el DVD Forum en el grupo de transmisión especial WG1 en octubre de 2002. El grupo fue copresidido por Toshiba y Phoenix Technologies . El grupo de expertos cuenta con la colaboración de Microsoft , Apple Computer , DTS Inc. , Warner Brothers , 20th Century Fox , Digital Deluxe , Disney , Macromedia y Akamai . [ dudoso ] [ cita requerida ] La tecnología se llamó originalmente DVDoverIP y fue un esfuerzo integral del libro DVD ENAV. [17] El concepto surgió de almacenar los sectores de TS de DVD MPEG-1 y MPEG-2 en pequeños archivos de 2 KB, que se servirán al reproductor mediante un servidor HTTP. Los segmentos MPEG-1 proporcionaron el flujo de ancho de banda más bajo, mientras que el MPEG-2 proporcionó un flujo de velocidad de bits más alto. El esquema XML original proporcionó una lista de reproducción simple de velocidades de bits, idiomas y servidores de URL. El primer prototipo funcional fue presentado al Foro de DVD por Phoenix Technologies en el laboratorio Harman Kardon en Villingen, Alemania. [ cita requerida ]

Implementaciones [ editar ]

Move Networks introdujo la transmisión de velocidad de bits adaptable y ahora está siendo desarrollada y utilizada por Adobe Systems , Apple , Microsoft y Octoshape . [18] En octubre de 2010, Move Networks recibió una patente por su transmisión de velocidad de bits adaptativa (patente estadounidense número 7818444). [19]

MPEG-DASH [ editar ]

MPEG-DASH es la única solución de transmisión basada en HTTP de velocidad de bits adaptativa que es un estándar internacional [20] La tecnología MPEG-DASH fue desarrollada bajo MPEG . El trabajo en DASH comenzó en 2010; se convirtió en Borrador de Norma Internacional en enero de 2011 y en Norma Internacional en noviembre de 2011. [20] [21] [22] La norma MPEG-DASH se publicó como ISO / IEC 23009-1: 2012 en abril de 2012.

MPEG-DASH es una tecnología relacionada con Adobe Systems HTTP Dynamic Streaming , Apple Inc. HTTP Live Streaming (HLS) y Microsoft Smooth Streaming . [23] DASH se basa en Adaptive HTTP Streaming (AHS) en 3GPP Release 9 y en HTTP Adaptive Streaming (HAS) en Open IPTV Forum Release 2. [24] Como parte de su colaboración con MPEG, 3GPP Release 10 ha adoptado DASH ( con códecs y modos de funcionamiento específicos) para su uso en redes inalámbricas. [24]

La estandarización de una solución de transmisión adaptativa está destinada a brindar confianza al mercado de que la solución se puede adoptar para una implementación universal, en comparación con soluciones similares pero más centradas en el proveedor, como HLS de Apple, Smooth Streaming de Microsoft o HDS de Adobe.

Las implementaciones disponibles son el reproductor MPEG-DASH bitdash basado en HTML5 [25] , así como la biblioteca de acceso de cliente DASH basada en C ++ de código abierto libdash de bitmovin GmbH, [15] las herramientas DASH del Instituto de Tecnología de la Información (ITEC) en Alpen -Adria University Klagenfurt, [3] [26] el marco multimedia del grupo GPAC en Telecom ParisTech, [27] y el reproductor dash.js [28] del DASH-IF .

Transmisión dinámica de Adobe HTTP [ editar ]

"La transmisión dinámica HTTP es el proceso de entregar de manera eficiente la transmisión de video a los usuarios cambiando dinámicamente entre diferentes transmisiones de diferente calidad y tamaño durante la reproducción. Esto brinda a los usuarios la mejor experiencia de visualización posible que su ancho de banda y el hardware de la computadora local ( CPU ) pueden admitir. Otro El objetivo principal de la transmisión dinámica es hacer que este proceso sea fluido y sin problemas para los usuarios, de modo que si es necesario aumentar o disminuir la calidad de la transmisión, es un cambio suave y casi imperceptible sin interrumpir la reproducción continua ". [29]

Las últimas versiones de Flash Player y Flash Media Server admiten transmisión de velocidad de bits adaptativa sobre el protocolo tradicional RTMP , así como HTTP , similar a las soluciones basadas en HTTP de Apple y Microsoft, [30] La transmisión dinámica HTTP es compatible con Flash Player 10.1 y posteriores. [31] La transmisión basada en HTTP tiene la ventaja de no requerir que se abra ningún puerto de firewall fuera de los puertos normales utilizados por los navegadores web. La transmisión basada en HTTP también permite que los navegadores, proxies y CDN almacenen en caché fragmentos de video , lo que reduce drásticamente la carga en el servidor de origen.

Transmisión en directo HTTP de Apple [ editar ]

HTTP Live Streaming (HLS) es un protocolo de comunicaciones de transmisión de medios basado en HTTP implementado por Apple Inc. como parte de QuickTime X e iOS . HLS admite contenido tanto en vivo como de video a pedido . Funciona dividiendo las transmisiones o los activos de video en varios archivos MPEG2-TS pequeños (fragmentos de video) de diferentes velocidades de bits y duración establecida mediante un segmentador de transmisión o archivo. Apple proporciona una implementación de segmentador de este tipo. [32]El segmentador también es responsable de producir un conjunto de archivos de índice en el formato M3U8 que actúa como un archivo de lista de reproducción para los fragmentos de video. Cada lista de reproducción pertenece a un nivel de tasa de bits determinado y contiene las URL relativas o absolutas de los fragmentos con la tasa de bits relevante. El cliente es entonces responsable de solicitar la lista de reproducción adecuada según el ancho de banda disponible.

HTTP Live Streaming es una función estándar en el iPhone 3.0 y versiones más recientes. [33]

Apple ha presentado su solución al IETF para su consideración como una solicitud informativa de comentarios . [34] Existe una serie de soluciones patentadas y de código abierto tanto para la implementación del servidor (segmentador) como para el cliente.

Las transmisiones HLS se pueden identificar mediante la extensión de formato de URL de la lista de reproducción de m3u8 . Estos flujos adaptativos pueden estar disponibles en muchas tasas de bits diferentes y el dispositivo cliente interactúa con el servidor para obtener la mejor tasa de bits disponible que se puede entregar de manera confiable. Los dispositivos cliente van desde iPad, iPhone, decodificadores (STB) y otros dispositivos cliente adecuados .

La reproducción de HLS solo se admite de forma nativa en Safari en iOS y Mac y Microsoft Edge en Windows 10. Las soluciones para la reproducción de HLS en otras plataformas se basan principalmente en complementos de terceros como Flash o QuickTime.

Microsoft Smooth Streaming [ editar ]

Smooth Streaming es una extensión de IIS Media Services que permite la transmisión adaptativa de medios a los clientes a través de HTTP. [35] La especificación de formato se basa en el formato de archivo multimedia base ISO y está estandarizado por Microsoft como el formato de archivo interoperable protegido. [36] Microsoft participa activamente en los esfuerzos de las organizaciones 3GPP , MPEG y DECE para estandarizar la transmisión HTTP de velocidad de bits adaptativa. Microsoft proporciona kits de desarrollo de software Smooth Streaming Client para Silverlight y Windows Phone 7, así como un kit de transferencia de transmisión suave que se puede utilizar para otros sistemas operativos de cliente, como Apple iOS, Android y Linux. [37] IIS Media Services 4.0, lanzado en noviembre de 2010, introdujo una función que permite volver a empaquetar dinámicamente videos Live Smooth Streaming H.264 / AAC en el formato Apple HTTP Adaptive Streaming y entregarlos a dispositivos iOS sin necesidad de volver a codificar . Microsoft ha demostrado con éxito la entrega de video HD 1080p en vivo y bajo demanda con Smooth Streaming a los clientes de Silverlight. En 2010, Microsoft también se asoció con NVIDIA para demostrar la transmisión en vivo de video 3D estereoscópico de 1080p a PC equipadas con tecnología NVIDIA 3D Vision . [38]

Transmisión adaptativa de QuavStreams a través de HTTP [ editar ]

QuavStreams Adaptive Streaming es una tecnología de transmisión multimedia desarrollada por Quavlive. El servidor de transmisión es un servidor HTTP que tiene varias versiones de cada video, codificado en diferentes velocidades de bits y resoluciones. El servidor entrega los fotogramas de video / audio codificados que cambian de un nivel a otro, de acuerdo con el ancho de banda disponible actualmente. El control está completamente basado en servidor, por lo que el cliente no necesita características adicionales especiales. El control de transmisión emplea la teoría de control de retroalimentación. [39] Actualmente, QuavStreams admite códecs H.264 / MP3 multiplexados en el contenedor FLV y códecs VP8 / Vorbis multiplexados en el contenedor WEBM.

Uplynk [ editar ]

Uplynk ofrece transmisión de velocidad de bits adaptativa HD a múltiples plataformas, incluyendo iOS, Android, Windows Mac, Linux y Roku, a través de varias combinaciones de navegadores, mediante la codificación de video en la nube utilizando un único formato de transmisión adaptable no propietario. En lugar de transmitir y almacenar múltiples formatos para diferentes plataformas y dispositivos, Uplynk almacena y transmite solo uno. El primer estudio en utilizar esta tecnología para la entrega fue Disney – ABC Television Group , usándola para la codificación de video para aplicaciones de transmisión web, móvil y de tableta en las aplicaciones ABC Player, ABC Family y Watch Disney, así como en Live Watch Disney Channel. Mira Disney Junior y Mira Disney XD. [40] [41]

Clientes de autoaprendizaje [ editar ]

En los últimos años, los beneficios de los algoritmos de autoaprendizaje en la transmisión de velocidad de bits adaptativa se han investigado en el ámbito académico. Si bien la mayoría de los enfoques iniciales de autoaprendizaje se implementan en el lado del servidor [42] [43] [44] (por ejemplo, realizar el control de admisión mediante el aprendizaje por refuerzo o redes neuronales artificiales ), la investigación más reciente se centra en el desarrollo de la autoaprendizaje . aprendizaje de clientes HTTP Adaptive Streaming. Se han presentado múltiples enfoques en la literatura utilizando SARSA [45] o Q-learning [46]algoritmo. En todos estos enfoques, el estado del cliente se modela utilizando, entre otros, información sobre el rendimiento actual percibido de la red y el nivel de llenado del búfer. Con base en esta información, el cliente de autoaprendizaje decide de manera autónoma qué nivel de calidad seleccionar para el siguiente segmento de video. El proceso de aprendizaje se dirige utilizando información de retroalimentación, que representa la calidad de la experiencia (QoE) (por ejemplo, según el nivel de calidad, el número de conmutadores y el número de congelamientos de video). Además, se demostró que el Q-learning de múltiples agentes se puede aplicar para mejorar la equidad de QoE entre múltiples clientes de transmisión adaptativa. [47]

Críticas [ editar ]

Las tecnologías de tasa de bits adaptables basadas en HTTP son significativamente más complejas desde el punto de vista operativo que las tecnologías de transmisión tradicionales. Algunas de las consideraciones documentadas son cosas como costos adicionales de almacenamiento y codificación, y desafíos para mantener la calidad a nivel mundial. También se han encontrado algunas dinámicas interesantes en torno a las interacciones entre la lógica de velocidad de bits adaptativa compleja que compite con la lógica de control de flujo de TCP compleja. [11] [48] [49] [50] [51]

Sin embargo, estas críticas han sido superadas en la práctica por la economía y la escalabilidad de la entrega HTTP: mientras que las soluciones de transmisión no HTTP requieren un despliegue masivo de una infraestructura de servidor de transmisión especializada, la transmisión de velocidad de bits adaptativa basada en HTTP puede aprovechar los mismos servidores web HTTP utilizados para entregar todos los demás contenidos a través de Internet.

Sin un estándar único claramente definido o abierto para la gestión de derechos digitales utilizado en los métodos anteriores, no existe una forma 100% compatible de entregar contenido restringido o urgente a ningún dispositivo o reproductor. Esto también demuestra ser un problema con la gestión de derechos digitales que se emplea en cualquier protocolo de transmisión.

El método de segmentar archivos en archivos más pequeños utilizado por algunas implementaciones (como lo utiliza HTTP Live Streaming ) podría considerarse innecesario debido a la capacidad de los clientes HTTP para solicitar rangos de bytes de un solo archivo de activos de video que podría tener múltiples pistas de video en bits diferentes. tasas con el archivo de manifiesto que solo indica el número de pista y la tasa de bits. Sin embargo, este enfoque permite el servicio de fragmentos mediante cualquier servidor HTTP simple y, por lo tanto, garantiza la compatibilidad con CDN . Las implementaciones que utilizan rangos de bytes como Microsoft Smooth Streaming requieren un servidor HTTP dedicado como IIS para responder a las solicitudes de fragmentos de activos de video.

Ver también [ editar ]

  • Codificación de descripción múltiple

Referencias [ editar ]

  1. ^ Saamer Akhshabi; Ali C. Begen; Constantine Dovrolis (2011). Una evaluación experimental de algoritmos de adaptación de velocidad en transmisión adaptativa a través de HTTP . En Actas de la segunda conferencia anual ACM sobre sistemas multimedia (MMSys '11). Nueva York, NY, EE.UU .: ACM.
  2. ^ A. Bentaleb, B. Taani, A. Begen, C. Timmermer y R. Zimmermann, "Una encuesta sobre los esquemas de adaptación de la tasa de bits para los medios de transmisión por secuencias a través de HTTP", en IEEE Communications Surveys y (IEEE COMST), volumen 1, número 1 , págs. 1-1, 2018.
  3. ^ a b DASH en ITEC, complemento VLC, DASHEncoder y conjunto de datos por C. Mueller, S. Lederer, C. Timmerer
  4. ^ a b "Plantilla de actas - WORD" (PDF) . Consultado el 16 de diciembre de 2017 . CS1 maint: parámetro desalentado ( enlace )
  5. ^ Gannes, Liz (10 de junio de 2009). "La próxima gran novedad en vídeo: transmisión de velocidad de bits adaptativa" . Archivado desde el original el 19 de junio de 2010 . Consultado el 1 de junio de 2010 . CS1 maint: parámetro desalentado ( enlace )
  6. ^ a b "mmsys2012-final36.pdf" (PDF) . Consultado el 16 de diciembre de 2017 . CS1 maint: parámetro desalentado ( enlace )
  7. ^ Spiteri, Kevin; Urgaonkar, Rahul; Sitaraman, Ramesh K. (2016). "BOLA: adaptación de tasa de bits casi óptima para videos en línea. IEEE INFOCOM, 2016, por Spiteri, Urgaonkar y Sitaraman, IEEE INFOCOM, abril de 2016". arXiv : 1601.06748 . doi : 10.1109 / TNET.2020.2996964 . S2CID 219792107 .  Cite journal requiere |journal=( ayuda )
  8. ^ "De la teoría a la práctica: mejorar la adaptación de la tasa de bits en el reproductor de referencia DASH, por Spiteri, Sitaraman y Sparacio, Conferencia de sistemas multimedia ACM, junio de 2018" (PDF) .
  9. ^ Marshall, Daniel (18 de febrero de 2010). "Mostrar informe: procesamiento de vídeo crítico para la gestión de activos digitales" . Tecnologías elementales. Archivado desde el original el 4 de octubre de 2011 . Consultado el 15 de octubre de 2011 . CS1 maint: parámetro desalentado ( enlace )
  10. ^ Seufert, Michael; Egger, Sebastian; Slanina, Martin; Zinner, Thomas; Hoßfeld, Tobias; Tran-Gia, Phuoc (2015). "Una encuesta sobre la calidad de la experiencia de HTTP Adaptive Streaming". Encuestas y tutoriales de comunicaciones de IEEE . 17 (1): 469–492. doi : 10.1109 / COMST.2014.2360940 . S2CID 18220375 . 
  11. ^ a b Saamer Akhshabi; Ali C. Begen; Constantine Dovrolis. "Una Evaluación Experimental de Algoritmos de Adaptación de Tasa en Transmisión Adaptativa sobre HTTP" (PDF) . Archivado desde el original (PDF) el 17 de octubre de 2011 . Consultado el 15 de octubre de 2011 . Cite journal requiere |journal=( ayuda )CS1 maint: parámetro desalentado ( enlace )
  12. ^ Anthony Vetro. "El estándar MPEG-DASH para transmisión multimedia a través de Internet" (PDF) . Consultado el 10 de julio de 2015 . Cite journal requiere |journal=( ayuda )CS1 maint: parámetro desalentado ( enlace )
  13. ^ Jan Ozer (28 de abril de 2011). "¿Qué es Adaptive Streaming?" . Consultado el 10 de julio de 2015 . Cite journal requiere |journal=( ayuda )CS1 maint: parámetro desalentado ( enlace )
  14. ^ Jeroen Famaey; Steven Latré; Niels Bouten; Wim Van de Meerssche; Bart de Vleeschauwer; Werner Van Leekwijck; Filip De Turck (mayo de 2013). "Sobre los méritos de HTTP Adaptive Streaming basado en SVC" : 419–426 . Consultado el 10 de julio de 2015 . Cite journal requiere |journal=( ayuda )CS1 maint: parámetro desalentado ( enlace )
  15. ^ a b libdash: biblioteca cliente DASH de código abierto de bitmovin
  16. ^ "Distributed DASH Datset | ITEC - Streaming dinámico adaptativo sobre HTTP" . Itec.uni-klu.ac.at . Consultado el 16 de diciembre de 2017 . CS1 maint: parámetro desalentado ( enlace )
  17. ^ Construcción de libros en DVD, Foro de DVD, mayo de 2005
  18. ^ Gannes, Liz (10 de junio de 2009). "La verdad sobre la transmisión de velocidad de bits adaptativa HTTP de Apple" . Archivado desde el original el 19 de junio de 2010 . Consultado el 24 de junio de 2010 . CS1 maint: parámetro desalentado ( enlace )
  19. ^ "Move obtiene patente de transmisión; ¿están alojados Adobe y Apple? - Noticias de video en línea" . Gigaom.com. 15 de septiembre de 2010. Archivado desde el original el 22 de octubre de 2011 . Consultado el 15 de octubre de 2011 . CS1 maint: parámetro desalentado ( enlace )
  20. ^ a b "MPEG ratifica su borrador de estándar para DASH" . MPEG. 2 de diciembre de 2011. Archivado desde el original el 20 de agosto de 2012 . Consultado el 26 de agosto de 2012 . CS1 maint: parámetro desalentado ( enlace )
  21. ^ Timmerer, Christian (26 de abril de 2012). "Transmisión HTTP de medios MPEG - entrada de blog" . Multimediacommunication.blogspot.com . Consultado el 16 de diciembre de 2017 . CS1 maint: parámetro desalentado ( enlace )
  22. ^ "ISO / IEC DIS 23009-1.2 Transmisión dinámica adaptativa a través de HTTP (DASH)" . Iso.org . Consultado el 16 de diciembre de 2017 . CS1 maint: parámetro desalentado ( enlace )
  23. ^ Actualizaciones en DASH - entrada de blog
  24. ^ a b ETSI 3GPP 3GPP TS 26.247; Servicio de transmisión de paquetes conmutados (PSS) transparente de extremo a extremo; Descarga progresiva y transmisión dinámica adaptativa a través de HTTP (3GP-DASH)
  25. ^ "reproductor bitdash HTML5 MPEG-DASH" . Dash-player.com. 22 de enero de 2016. Archivado desde el original el 10 de julio de 2016 . Consultado el 16 de diciembre de 2017 . CS1 maint: parámetro desalentado ( enlace )
  26. ^ "Un complemento de reproductor de medios VLC que permite la transmisión dinámica adaptativa a través de HTTP" (PDF) . Consultado el 16 de diciembre de 2017 . CS1 maint: parámetro desalentado ( enlace )
  27. ^ "GPAC Telecom ParisTech" . Archivado desde el original el 24 de febrero de 2012 . Consultado el 28 de marzo de 2013 .
  28. ^ "guión.js" . Github.com . Consultado el 16 de diciembre de 2017 . CS1 maint: parámetro desalentado ( enlace )
  29. ^ Hassoun, David. Conexión de desarrollador de Adobe. Adobe Systems. http://www.adobe.com/devnet/flashmediaserver/articles/dynstream_advanced_pt1.html . Blog. [Consultado el 24 de junio de 2010].
  30. ^ "Transmisión dinámica HTTP" . Adobe Systems . Consultado el 13 de octubre de 2010 . CS1 maint: parámetro desalentado ( enlace )
  31. ^ "Preguntas frecuentes sobre transmisión dinámica HTTP" . Adobe Systems . Consultado el 12 de enero de 2015 . CS1 maint: parámetro desalentado ( enlace )
  32. ^ Biblioteca de desarrolladores de Mac. Manzana. https://developer.apple.com/library/mac/documentation/networkinginternet/conceptual/streamingmediaguide/UsingHTTPLiveStreaming/UsingHTTPLiveStreaming.html . [Consultado el 2 de junio de 2014].
  33. ^ Prince McLean (9 de julio de 2009). "Apple lanza el estándar HTTP Live Streaming en iPhone 3.0" . AppleInsider . Consultado el 15 de octubre de 2011 . CS1 maint: parámetro desalentado ( enlace )
  34. ^ R. Pantos, HTTP Live Streaming , IETF , consultado el 11 de octubre de 2011 CS1 maint: parámetro desalentado ( enlace )
  35. ^ "Transmisión fluida" . IIS.net. Archivado desde el original el 15 de junio de 2010 . Consultado el 24 de junio de 2010 . CS1 maint: parámetro desalentado ( enlace )
  36. ^ Chris Knowlton (8 de septiembre de 2009), formato de archivo interoperable protegido , Microsoft , consultado el 15 de octubre de 2011 CS1 maint: parámetro desalentado ( enlace )
  37. ^ "La plataforma de extremo a extremo de Microsoft impulsa las experiencias de medios de IIS y Silverlight de próxima generación en varias pantallas" . Microsoft. 8 de abril de 2010 . Consultado el 30 de julio de 2011 . CS1 maint: parámetro desalentado ( enlace )
  38. ^ "Primer día de IBC" . Microsoft. Archivado desde el original el 2 de febrero de 2011 . Consultado el 22 de enero de 2011 . CS1 maint: parámetro desalentado ( enlace )
  39. ^ Luca De Cicco; Saverio Mascolo; Vittorio Palmisano. "Control de retroalimentación para transmisión de video en vivo adaptable" (PDF) . MMSYS2011 . Consultado el 9 de septiembre de 2012 . CS1 maint: parámetro desalentado ( enlace )
  40. ^ Dean Takahashi (16 de enero de 2013). "Uplynk crea una forma económica y eficiente para que Disney transmita videos" . VentureBeat . Consultado el 16 de diciembre de 2017 . CS1 maint: parámetro desalentado ( enlace )
  41. ^ Dreier, Troy (16 de enero de 2013). "UpLynk emerge del modo sigiloso; DisneyABC es el primer cliente - Streaming Media Magazine" . Streamingmedia.com . Consultado el 16 de diciembre de 2017 . CS1 maint: parámetro desalentado ( enlace )
  42. ^ Y. Fei; VWS Wong; VCM Leung (2006). "Provisión de QoS eficiente para multimedia adaptativa en redes de comunicaciones móviles mediante aprendizaje por refuerzo" . Aplicaciones y redes móviles . 11 (1): 101-110. CiteSeerX 10.1.1.70.1430 . doi : 10.1007 / s11036-005-4464-2 . S2CID 13022779 .  
  43. ^ V. Charvillat; R. Grigoras (2007). "Refuerzo de aprendizaje para la adaptación dinámica multimedia". Revista de aplicaciones informáticas y de red . 30 (3): 1034–1058. doi : 10.1016 / j.jnca.2005.12.010 .
  44. ^ DW McClary; VR Syrotiuk; V. Lecuire (2008). "Streaming de audio adaptativo en redes móviles ad hoc utilizando redes neuronales". Redes Ad Hoc . 6 (4): 524–538. doi : 10.1016 / j.adhoc.2007.04.005 .
  45. ^ V. Menkovski; A. Liotta (2013). "Control inteligente para transmisión de video adaptativa". Conferencia Internacional IEEE sobre Electrónica de Consumo (ICCE) . Washington DC. págs. 127-128. doi : 10.1109 / ICCE.2013.6486825 .
  46. ^ M. Claeys; S. Latré; J. Famaey; F. De Turck (2014). "Diseño y evaluación de un cliente de streaming de video adaptativo HTTP de autoaprendizaje" . Cartas de comunicaciones de IEEE . 18 (4): 716–719. doi : 10.1109 / lcomm.2014.020414.132649 . hdl : 1854 / LU-5733061 . S2CID 26955239 . 
  47. ^ S. Petrangeli; M. Claeys; S. Latré; J. Famaey; F. De Turck (2014). "Un marco basado en Q-Learning de múltiples agentes para lograr la equidad en HTTP Adaptive Streaming". Simposio de gestión y operaciones de red del IEEE (NOMS) . Cracovia. págs. 1–9. doi : 10.1109 / NOMS.2014.6838245 .
  48. ^ Pete Mastin (28 de enero de 2011). "¿Es la tasa de bits adaptativa el camino de los ladrillos amarillos o el oro de los tontos para la transmisión HD?" . Archivado desde el original el 7 de septiembre de 2011 . Consultado el 15 de octubre de 2011 . CS1 maint: parámetro desalentado ( enlace )
  49. ^ Luca De Cicco; Saverio Mascolo. "Una investigación experimental de la transmisión de vídeo adaptativa de Akamai" (PDF) . Consultado el 29 de noviembre de 2011 . Cite journal requiere |journal=( ayuda )CS1 maint: parámetro desalentado ( enlace )
  50. ^ "Transmisión adaptativa: una comparación" . Archivado desde el original el 19 de abril de 2014 . Consultado el 17 de abril de 2014 . Cite journal requiere |journal=( ayuda )
  51. ^ Chris Knowlton (28 de enero de 2010). "Comparación de transmisión adaptativa" . Cite journal requiere |journal=( ayuda )

Lectura adicional [ editar ]

  • La próxima gran novedad en vídeo: transmisión de velocidad de bits adaptativa Archivado el 19 de junio de 2010 en Wayback Machine.