De Wikipedia, la enciclopedia libre
Saltar a navegación Saltar a búsqueda

La latencia desde un punto de vista general es un retraso de tiempo entre la causa y el efecto de algún cambio físico en el sistema que se observa, pero, conocido dentro de los círculos de juego como " retraso ", la latencia es un intervalo de tiempo entre la entrada a una simulación y la respuesta visual o auditiva, que a menudo ocurre debido al retraso de la red en los juegos en línea. [1]

La latencia es físicamente una consecuencia de la velocidad limitada que puede propagar cualquier interacción física . La magnitud de esta velocidad es siempre menor o igual que la velocidad de la luz . Por lo tanto, todo sistema físico con cualquier separación física (distancia) entre causa y efecto experimentará algún tipo de latencia, independientemente de la naturaleza de la estimulación a la que haya estado expuesto.

La definición precisa de latencia depende del sistema que se observe o de la naturaleza de la simulación. En las comunicaciones , el límite inferior de latencia lo determina el medio que se utiliza para transferir información. En los sistemas confiables de comunicación bidireccional, la latencia limita la velocidad máxima a la que se puede transmitir la información, ya que a menudo existe un límite en la cantidad de información que está "en vuelo" en cualquier momento. En el campo de la interacción hombre-máquina , la latencia perceptible tiene un fuerte efecto en la satisfacción y usabilidad del usuario .

Latencia de comunicación [ editar ]

Los juegos en línea son sensibles a la latencia (o " lag "), ya que los tiempos de respuesta rápidos a nuevos eventos que ocurren durante una sesión de juego son recompensados, mientras que los tiempos de respuesta lentos pueden conllevar penalizaciones. Debido a un retraso en la transmisión de los eventos del juego, un jugador con una conexión a Internet de alta latencia puede mostrar respuestas lentas a pesar del tiempo de reacción adecuado . Esto les da a los jugadores con conexiones de baja latencia una ventaja técnica.

Mercados de capitales [ editar ]

Minimizar la latencia es de interés en los mercados de capitales , [2] particularmente donde el comercio algorítmico se utiliza para procesar las actualizaciones del mercado y cambiar las órdenes en milisegundos. El comercio de baja latencia se produce en las redes que utilizan las instituciones financieras para conectarse a las bolsas de valores y las redes de comunicación electrónica (ECN) para ejecutar transacciones financieras. [3] Joel Hasbrouck y Gideon Saar (2011) miden la latencia en función de tres componentes: el tiempo que tarda la información en llegar al trader, la ejecución de los algoritmos del trader para analizar la información y decidir un curso de acción, y la acción generada para llegar al intercambio. e implementarlo. Hasbrouck y Saar contrastan esto con la forma en que muchos centros de negociación miden las latencias que utilizan definiciones mucho más estrechas, como el retraso de procesamiento medido desde la entrada de la orden (en la computadora del proveedor) hasta la transmisión de un acuse de recibo ( desde la computadora del proveedor). [4] El comercio electrónico representa ahora entre el 60% y el 70% del volumen diario en la Bolsa de Nueva York y el comercio algorítmico se acerca al 35%. [5]El comercio mediante computadoras se ha desarrollado hasta el punto en que las mejoras de milisegundos en la velocidad de la red ofrecen una ventaja competitiva para las instituciones financieras. [6]

Redes de conmutación de paquetes [ editar ]

La latencia de red en una red de conmutación de paquetes se mide como unidireccional (el tiempo desde que la fuente envía un paquete al destino que lo recibe) o tiempo de retardo de ida y vuelta (la latencia unidireccional desde el origen al destino más el -way latencia desde el destino hasta la fuente). La latencia de ida y vuelta se cita con más frecuencia, porque se puede medir desde un solo punto. Tenga en cuenta que la latencia de ida y vuelta excluye la cantidad de tiempo que un sistema de destino dedica a procesar el paquete. [ cita requerida ] Muchas plataformas de software proporcionan un servicio llamado ping que se puede utilizar para medir la latencia de ida y vuelta. Ping utiliza el Protocolo de mensajes de control de Internet(ICMP) solicitud de eco que hace que el destinatario envíe el paquete recibido como una respuesta inmediata, por lo que proporciona una forma aproximada de medir el tiempo de retardo de ida y vuelta. Ping no puede realizar mediciones precisas, [7] principalmente porque ICMP está diseñado solo para fines de diagnóstico o control, y difiere de los protocolos de comunicación reales como TCP . Además, los enrutadores y los proveedores de servicios de Internet pueden aplicar diferentes políticas de configuración de tráfico a diferentes protocolos. [8] [9] Para obtener mediciones más precisas, es mejor utilizar un software específico, por ejemplo: hping , Netperf o Iperf.

Sin embargo, en una red no trivial, un paquete típico se reenviará a través de múltiples enlaces y puertas de enlace, cada uno de los cuales no comenzará a reenviar el paquete hasta que se haya recibido por completo. En una red de este tipo, la latencia mínima es la suma del retardo de transmisión de cada enlace, más la latencia de reenvío de cada puerta de enlace. En la práctica, la latencia mínima también incluye retrasos en las colas y en el procesamiento. El retraso en la cola ocurre cuando una puerta de enlace recibe múltiples paquetes de diferentes fuentes que se dirigen hacia el mismo destino. Dado que normalmente solo se puede transmitir un paquete a la vez, algunos de los paquetes deben hacer cola para su transmisión, lo que genera un retraso adicional. Se incurre en retrasos en el procesamiento mientras una puerta de enlace determina qué hacer con un paquete recién recibido. Bufferbloattambién puede provocar un aumento de la latencia de un orden de magnitud o más. La combinación de retardos de propagación, serialización, cola y procesamiento a menudo produce un perfil de latencia de red complejo y variable.

La latencia limita el rendimiento total en sistemas de comunicación bidireccionales confiables, como se describe en el producto de retardo de ancho de banda .

Fibra óptica [ editar ]

La latencia en la fibra óptica depende en gran medida de la velocidad de la luz , que es de 299.792.458 metros / segundo en el vacío. Esto equivaldría a una latencia de 3,33  µs por cada kilómetro de longitud del camino. El índice de refracciónde la mayoría de los cables de fibra óptica es de aproximadamente 1,5, lo que significa que la luz viaja aproximadamente 1,5 veces más rápido en el vacío que en el cable. Esto equivale a aproximadamente 5,0 µs de latencia por cada kilómetro. En las redes de metro más cortas, se puede experimentar una mayor latencia debido a la distancia adicional en los elevadores de edificios y las conexiones cruzadas. Para calcular la latencia de una conexión hay que conocer la distancia recorrida por la fibra, que rara vez es una línea recta, ya que tiene que atravesar contornos geográficos y obstáculos, como carreteras y vías férreas, así como otros derechos de -camino.

Debido a las imperfecciones de la fibra, la luz se degrada a medida que se transmite a través de ella. Para distancias superiores a 100 kilómetros, se despliegan amplificadores o regeneradores . Debe tenerse en cuenta la latencia introducida por estos componentes.

Transmisión por satélite [ editar ]

Los satélites en órbitas geoestacionarias están lo suficientemente lejos de la Tierra como para que la latencia de la comunicación se vuelva significativa: alrededor de un cuarto de segundo para un viaje desde un transmisor terrestre al satélite y de regreso a otro transmisor terrestre; cerca de medio segundo para la comunicación bidireccional de una estación terrestre a otra y luego de regreso a la primera. La órbita terrestre baja a veces se utiliza para reducir este retraso, a expensas de un seguimiento de satélites más complicado en tierra y que requiere más satélites en la constelación de satélites para garantizar una cobertura continua.

Latencia de audio [ editar ]

La latencia de audio es el retraso entre la entrada de una señal de audio y la salida de un sistema. Los posibles contribuyentes a la latencia en un sistema de audio incluyen conversión de analógico a digital , almacenamiento en búfer , procesamiento de señales digitales , tiempo de transmisión , conversión de digital a analógico y la velocidad del sonido en el aire.

Latencia de video [ editar ]

La latencia de video se refiere al grado de retraso entre el momento en que se solicita la transferencia de un flujo de video y el momento real en que comienza la transferencia. Las redes que presentan retrasos relativamente pequeños se conocen como redes de baja latencia, mientras que sus contrapartes se conocen como redes de alta latencia.

Latencia operativa [ editar ]

Cualquier flujo de trabajo individual dentro de un sistema de flujos de trabajo puede estar sujeto a algún tipo de latencia operativa. Incluso puede darse el caso de que un sistema individual tenga más de un tipo de latencia, según el tipo de participante o el comportamiento de búsqueda de objetivos. Esto se ilustra mejor con los siguientes dos ejemplos relacionados con viajes en avión .

Desde el punto de vista de un pasajero, la latencia se puede describir de la siguiente manera. Supongamos que John Doe vuela de Londres a Nueva York . La latencia de su viaje es el tiempo que le lleva ir de su casa en Inglaterra al hotel en el que se aloja en Nueva York. Esto es independiente del rendimiento del enlace aéreo Londres-Nueva York: ya sea que haya 100 pasajeros al día realizando el viaje o 10000, la latencia del viaje seguirá siendo la misma.

Desde el punto de vista del personal de operaciones de vuelo, la latencia puede ser completamente diferente. Piense en el personal de los aeropuertos de Londres y Nueva York. Solo un número limitado de aviones pueden realizar el viaje transatlántico, por lo que cuando uno aterriza debe prepararlo para el viaje de regreso lo más rápido posible. Podría tomar, por ejemplo:

  • 35 minutos para limpiar un avión
  • 15 minutos para repostar un avión
  • 10 minutos para cargar a los pasajeros
  • 30 minutos para cargar la carga

Suponiendo que lo anterior se haga de forma consecutiva, el tiempo mínimo de respuesta del avión es:

35 + 15 + 10 + 30 = 90

Sin embargo, la limpieza, el repostaje y la carga de la carga se pueden realizar al mismo tiempo. Los pasajeros solo se pueden cargar después de que se complete la limpieza. La latencia reducida, entonces, es:

35 + 10 = 45
15
30
Latencia mínima = 45

Las personas involucradas en el cambio de rumbo están interesadas solo en el tiempo que toma para sus tareas individuales. Sin embargo, cuando todas las tareas se realizan al mismo tiempo, es posible reducir la latencia a la duración de la tarea más larga. Si algunos pasos tienen requisitos previos, resulta más difícil realizar todos los pasos en paralelo. En el ejemplo anterior, el requisito de limpiar el avión antes de cargar pasajeros da como resultado una latencia mínima más larga que cualquier tarea individual.

Latencia mecánica [ editar ]

Cualquier proceso mecánico encuentra limitaciones modeladas por la física newtoniana . El comportamiento de las unidades de disco proporciona un ejemplo de latencia mecánica. Aquí, es el tiempo de búsqueda de tiempo para que el brazo del actuador se coloque sobre la pista apropiada y luego la latencia de rotación para que los datos codificados en un plato giren desde su posición actual a una posición debajo del cabezal de lectura y escritura del disco .

Latencia del hardware y del sistema operativo [ editar ]

Las computadoras ejecutan instrucciones en el contexto de un proceso . En el contexto de la multitarea informática , la ejecución del proceso puede posponerse si también se están ejecutando otros procesos. Además, el sistema operativo puede programar cuándo realizar la acción que el proceso está ordenando. Por ejemplo, suponga que un proceso ordena que la salida de voltaje de una tarjeta de computadora se establezca alto-bajo-alto-bajo y así sucesivamente a una frecuencia de 1000 Hz. El sistema operativo programa el proceso para cada transición (alto-bajo o bajo-alto) basándose en un reloj de hardware como el Temporizador de eventos de alta precisión.. La latencia es el retraso entre los eventos generados por el reloj del hardware y las transiciones reales de voltaje de alto a bajo o de bajo a alto.

Muchos sistemas operativos de escritorio tienen limitaciones de rendimiento que crean una latencia adicional. El problema se puede mitigar con extensiones y parches en tiempo real como PREEMPT_RT .

En los sistemas integrados, la ejecución de instrucciones en tiempo real a menudo es compatible con un sistema operativo en tiempo real .

En simuladores [ editar ]

En las aplicaciones de simulación, la latencia se refiere al retraso de tiempo, a menudo medido en milisegundos , entre la entrada inicial y la salida claramente discernible para el aprendiz del simulador o el sujeto del simulador. La latencia a veces también se denomina retraso de transporte . Algunas autoridades [ ¿quién? ] distinguen entre latencia y retraso de transporte utilizando el término latencia en el sentido de retraso de tiempo adicional de un sistema por encima del tiempo de reacción del vehículo que se está simulando, pero esto requiere un conocimiento detallado de la dinámica del vehículo y puede ser controvertido.

En simuladores con sistemas visuales y de movimiento, es particularmente importante que la latencia del sistema de movimiento no sea mayor que la del sistema visual o síntomas de enfermedad del simulador.puede resultar. Esto se debe a que, en el mundo real, las señales de movimiento son las de la aceleración y se transmiten rápidamente al cerebro, normalmente en menos de 50 milisegundos; esto es seguido unos milisegundos más tarde por una percepción de cambio en la escena visual. El cambio de escena visual es esencialmente uno de cambio de perspectiva o desplazamiento de objetos como el horizonte, que tarda algún tiempo en acumularse hasta cantidades perceptibles después de la aceleración inicial que provocó el desplazamiento. Por lo tanto, un simulador debe reflejar la situación del mundo real asegurándose de que la latencia del movimiento sea igual o menor que la del sistema visual y no al revés.

Ver también [ editar ]

  • Realimentación
  • Interrupción de latencia
  • Estar nervioso
  • Lagómetro
  • Tiempo de espera
  • Latencia de memoria
  • Ingeniería de desempeño
  • Tiempo de respuesta (tecnología)
  • Sensibilidad
  • Rendimiento

Referencias [ editar ]

  1. ^ "Latency" Consultado el 27 de octubre de 2020.
  2. ^ TABB (2009). Tecnología de negociación de alta frecuencia: una antología de TABB . Archivado desde el original el 1 de agosto de 2016 . Consultado el 11 de febrero de 2017 .
  3. ^ Mackenzie, Michael; Grant, Jeremy (2009). "El guión para flashear" (PDF) . Financial Times . Archivado desde el original (PDF) el 23 de julio de 2011 . Consultado el 18 de julio de 2011 . extraer pequeñas porciones de beneficios de la negociación de pequeñas cantidades de acciones en empresas, a menudo entre diferentes plataformas de negociación, y el éxito depende de variaciones mínimas en la velocidad, o "latencia", en la lengua vernácula de negociación.
  4. ^ Hasbrouck, Joel; Saar, Gideon. "Comercio de baja latencia" (PDF) . pag. 1. Archivado desde el original (PDF) el 11 de noviembre de 2011 . Consultado el 18 de julio de 2011 .
  5. ^ Heires, Katherine (julio de 2009). "Código verde: los casos de Goldman Sachs y UBS aumentan la necesidad de evitar que los valiosos activos digitales salgan por la puerta. Millones en ganancias comerciales pueden depender de ello" (PDF) . Noticias de la industria de valores . Consultado el 18 de julio de 2011 .
  6. ^ "Comercio de alta frecuencia: cuando milisegundos significan millones" . El telégrafo . Consultado el 25 de marzo de 2018 .
  7. ^ "¡No haga un mal uso del ping!" . Consultado el 29 de abril de 2015 .
  8. ^ Shane Chen (2005). "Estrategias de modelado de tráfico / discusión de protocolos de red" . knowplace.org . Archivado desde el original el 9 de enero de 2007.
  9. ^ "Parte 1 de QoS básica - Vigilancia del tráfico y modelado en el enrutador IOS de Cisco" . El CCIE R&S . Consultado el 29 de abril de 2015 .

Lectura adicional [ editar ]

  • M. Brian Blake (diciembre de 2003). "Coordinación de varios agentes para la orquestación de procesos orientados al flujo de trabajo" (PDF) . Revista de Sistemas de Información y Gestión de E-Business . Springer-Verlag. Archivado desde el original (PDF) el 2006-09-01.

Enlaces externos [ editar ]

  • Simular la latencia del enlace de red en Linux