En los mercados de capitales , la baja latencia es el uso de operaciones algorítmicas para reaccionar a los eventos del mercado más rápido que la competencia para aumentar la rentabilidad de las operaciones. Por ejemplo, cuando se ejecutan estrategias de arbitraje , es posible que la oportunidad de "arbitrar" el mercado solo se presente durante unos pocos milisegundos antes de que se logre la paridad . Para demostrar el valor que los clientes le dan a la latencia, en 2007 un gran banco de inversión global declaró que cada milisegundo perdido da como resultado 100 millones de dólares anuales en oportunidades perdidas. [1]
Lo que se considera "bajo" es, por tanto, relativo, pero también una profecía autocumplida. Muchas organizaciones y empresas están usando las palabras "latencia ultrabaja" para describir latencias de menos de 1 milisegundo , pero es una definición en evolución, con la cantidad de tiempo considerada "baja" cada vez más reducida.
Hay muchos factores técnicos que influyen en el tiempo que le toma a un sistema comercial detectar una oportunidad y aprovecharla con éxito. Las empresas dedicadas al comercio de baja latencia están dispuestas a invertir un esfuerzo y recursos considerables para aumentar la velocidad de su tecnología comercial, ya que las ganancias pueden ser significativas. Esto se hace a menudo en el contexto del comercio de alta frecuencia .
Factores
Hay muchos factores que influyen en el tiempo que le toma a un sistema comercial detectar una oportunidad y aprovecharla con éxito, entre ellos:
- Distancia entre el intercambio y el sistema comercial.
- Distancia entre dos lugares de negociación , en el caso de, por ejemplo, arbitraje
- Eficiencia de la arquitectura del sistema comercial:
- Adaptadores de red
- Elección del sistema operativo
- Eficiencia del código / lógica
- Elección del lenguaje de programación
- CPU tradicional vs FPGA
- Opciones de cableado: cobre, fibra, microondas,
Desde la perspectiva de la red, la velocidad de la luz "c" dicta un límite de latencia teórico: un motor comercial a solo 150 km (93 millas) en el camino desde el intercambio nunca puede lograr tiempos de retorno al intercambio mejores que 1 ms antes incluso de considerar el latencia interna del intercambio y del sistema comercial. Este límite teórico supone que la luz viaja en línea recta en un vacío, lo que en la práctica es poco probable que suceda: en primer lugar, lograr y mantener un vacío a larga distancia es difícil y, en segundo lugar, la luz no se puede emitir y recibir fácilmente a largas distancias debido a muchas factores, incluida la curvatura de la tierra, la interferencia de partículas en el aire, etc. La luz que viaja dentro de los cables de fibra oscura no viaja a la velocidad de la luz - "c" - ya que no hay vacío y la luz se refleja constantemente en el paredes del cable, alargando la trayectoria efectiva recorrida en comparación con la longitud del cable y, por lo tanto, ralentizándolo. En la práctica, también hay varios enrutadores, conmutadores, otros enlaces de cable y cambios de protocolo entre un intercambio y un sistema comercial. Como resultado, la mayoría de los motores de negociación de baja latencia se encontrarán físicamente cerca de los intercambios, incluso en el mismo edificio que el intercambio (ubicación conjunta) para reducir aún más la latencia.
Para reducir aún más la latencia, se están empleando nuevas tecnologías. La tecnología de transmisión de datos inalámbrica puede ofrecer ventajas de velocidad sobre las mejores opciones de cableado, ya que las señales pueden viajar más rápido por el aire que por la fibra. La transmisión inalámbrica también puede permitir que los datos se muevan en una ruta más recta y directa que las rutas de cableado. [2]
Un factor crucial para determinar la latencia de un canal de datos es su rendimiento . Las tasas de datos están aumentando exponencialmente, lo que tiene una relación directa con la velocidad a la que se pueden procesar los mensajes. Además, los sistemas de baja latencia no solo deben poder enviar un mensaje de A a B lo más rápido posible, sino que también deben poder procesar millones de mensajes por segundo. Consulte la comparación de latencia y rendimiento para obtener una discusión más detallada.
Donde ocurre la latencia
Latencia desde el evento hasta la ejecución
Cuando se habla de latencia en el contexto de los mercados de capitales, considere el viaje de ida y vuelta entre el evento y el comercio:
- El evento ocurre en un lugar en particular
- La información sobre ese evento se coloca en un mensaje en el cable
- El mensaje llega a la aplicación de toma de decisiones
- La aplicación toma una decisión comercial basada en ese evento
- El pedido se envía al centro de negociación.
- Venue ejecuta la orden
- La confirmación del pedido se envía de vuelta a la aplicación.
También debemos considerar cómo se ensambla la latencia en esta cadena de eventos:
- Procesamiento: el tiempo necesario para procesar un mensaje (que podría ser tan simple como un conmutador de red que reenvía un paquete)
- Propagación: el tiempo que tardan algunos datos en llegar de A a B (limitado por la velocidad de la luz)
- Tamaño del paquete dividido por ancho de banda , tamaño total del mensaje (carga útil + encabezados), ancho de banda disponible, número de mensajes que se envían a través del enlace.
Hay una serie de pasos que contribuyen a la latencia total de una operación:
Ocurrencia de eventos a estar en el cable
Los sistemas en un lugar en particular deben manejar eventos, como la colocación de pedidos, y ponerlos en marcha lo más rápido posible para ser competitivos en el mercado. Algunos lugares ofrecen servicios premium para clientes que necesitan las soluciones más rápidas.
Cambiar a la aplicación
Esta es una de las áreas donde se pueden agregar más demoras, debido a las distancias involucradas, la cantidad de procesamiento de los motores de enrutamiento internos, la transferencia entre diferentes redes y la gran cantidad de datos que se envían, reciben y procesan desde varios lugares de datos. .
La latencia es en gran parte una función de la velocidad de la luz, que es 299,792,458 metros / segundo (186,000 millas / segundo) (671,000,000 millas / hora) en un ambiente científicamente controlado; esto equivaldría a una latencia de 3 microsegundos por cada kilómetro. Sin embargo, al medir la latencia de los datos, debemos tener en cuenta el cable de fibra óptica. Aunque parece "puro", no es un vacío y, por lo tanto, debe tenerse en cuenta la refracción de la luz. Para medir la latencia en redes de larga distancia, la latencia calculada es en realidad de 4,9 microsegundos por cada kilómetro. En redes de metro más cortas, el rendimiento de la latencia aumenta un poco más debido a la construcción de elevadores y conexiones cruzadas que pueden hacer que la latencia sea tan alta como 5 microsegundos por kilómetro.
De ello se deduce que para calcular la latencia de una conexión, es necesario conocer la distancia total recorrida por la fibra, que rara vez es una línea recta, ya que tiene que atravesar contornos geográficos y obstáculos, como carreteras y vías férreas, entre otros. derechos de paso.
Debido a las imperfecciones de la fibra, la luz se degrada a medida que se transmite a través de ella. Para distancias superiores a 100 kilómetros, es necesario desplegar amplificadores o regeneradores. La sabiduría aceptada dice que los amplificadores agregan menos latencia que los regeneradores, aunque en ambos casos la latencia agregada puede ser muy variable, lo cual debe tenerse en cuenta. En particular, es más probable que los intervalos heredados utilicen regeneradores de latencia más alta.
- Propagación entre la ubicación del lugar de ejecución y la ubicación de la solicitud
- Retrasos en las redes de agregación de datos como Refinitiv Elektron, Bloomberg, IDC y otras
- Propagación dentro de las redes internas
- Procesamiento dentro de redes internas
- Procesamiento por sistemas de enrutamiento internos
- Ancho de banda de extranet y redes internas
- Tamaños de paquetes de mensajes
- Cantidad de datos que se envían y reciben
Toma de decisiones de la aplicación
Esta área no pertenece estrictamente al paraguas de "baja latencia", sino que es la capacidad de la empresa comercial de aprovechar las tecnologías de Computación de alto rendimiento para procesar datos rápidamente. Sin embargo, se incluye para completar.
- Procesamiento por API
- Procesamiento por aplicaciones
- Propagación entre sistemas internos
- Procesamiento de red / ancho de banda / tamaño de paquete / propagación entre sistemas internos
Envío del pedido al lugar
Al igual que con los retrasos entre el intercambio y la aplicación, muchas operaciones involucrarán los sistemas de una firma de corretaje . La competitividad de la casa de bolsa en muchos casos está directamente relacionada con el desempeño de sus sistemas de gestión y colocación de pedidos.
- Procesamiento por sistemas de gestión de pedidos internos
- Procesamiento por sistemas Broker
- Propagación entre la aplicación y el corredor
- Propagación entre el corredor y el lugar de ejecución
Ejecución de órdenes
La cantidad de tiempo que tarda el lugar de ejecución en procesar y hacer coincidir la orden.
Medida de latencia
Terminología
Latencia media
La latencia promedio es el tiempo promedio que tarda un mensaje en pasar de un punto a otro; cuanto más bajo, mejor. Los tiempos por debajo de 1 milisegundo son típicos de un sistema de datos de mercado.
Co-ubicación
La coubicación es el acto de ubicar las computadoras de las empresas comerciales de alta frecuencia y de los comerciantes propietarios en las mismas instalaciones donde se encuentran los servidores informáticos de una bolsa. Esto les da a los comerciantes acceso a los precios de las acciones un poco antes que otros inversores. Muchos intercambios han convertido la coubicación en una importante fuente de ingresos al cobrar a las empresas comerciales por privilegios de "acceso de baja latencia". La creciente demanda de coubicación ha llevado a muchas bolsas de valores a expandir sus centros de datos. [3]
Jitter de latencia
Hay muchos casos de uso en los que la predictibilidad de la latencia en la entrega de mensajes es tan importante, si no más importante, que lograr una latencia promedio baja. Esta predictibilidad de latencia también se conoce como "fluctuación de latencia baja" y describe una desviación de latencias alrededor de la medición de latencia media.
Rendimiento
El rendimiento se puede definir como la cantidad de datos procesados por unidad de tiempo. El rendimiento se refiere a la cantidad de mensajes que el sistema recibe, envía y procesa y, por lo general, se mide en actualizaciones por segundo. El rendimiento tiene una correlación con las mediciones de latencia y, por lo general, a medida que aumenta la tasa de mensajes, también lo hacen las cifras de latencia. Para dar una indicación de la cantidad de mensajes con los que estamos tratando, la "Autoridad de informes de precios de opciones" (OPRA) está pronosticando tasas máximas de mensajes de 907,000 actualizaciones por segundo (ups) en su red para julio de 2008. [4] Esto es solo un lugar único: la mayoría de las empresas recibirán actualizaciones de varios lugares.
Matices del procedimiento de prueba
Sellado de tiempo / relojes
La precisión del reloj es primordial al probar la latencia entre sistemas. Cualquier discrepancia dará resultados inexactos. Muchas pruebas implican ubicar el nodo de publicación y el nodo de recepción en la misma máquina para garantizar que se esté utilizando la misma hora del reloj. Sin embargo, esto no siempre es posible, por lo que los relojes de diferentes máquinas deben mantenerse sincronizados mediante algún tipo de protocolo de tiempo:
- NTP está limitado a milisegundos, por lo que no es lo suficientemente preciso para las aplicaciones de baja latencia actuales.
- La precisión del tiempo CDMA está en decenas de microsegundos. Está basado únicamente en EE. UU. La precisión se ve afectada por la distancia a la fuente de transmisión.
- El GPS es el protocolo de hora más preciso en términos de sincronización. Sin embargo, es el más caro.
Reducir la latencia en la cadena de pedidos
Reducir la latencia en la cadena de pedidos implica abordar el problema desde muchos ángulos. La ley de Amdahl , comúnmente utilizada para calcular las ganancias de rendimiento al lanzar más CPU a un problema, se puede aplicar de manera más general para mejorar la latencia, es decir, mejorar una parte de un sistema que ya es bastante intrascendente (con respecto a la latencia) dará como resultado un mínimo mejora en el desempeño general. Otra estrategia para reducir la latencia implica llevar la toma de decisiones sobre las operaciones a una tarjeta de interfaz de red . Esto puede aliviar la necesidad de involucrar al procesador principal del sistema, lo que puede crear retrasos indeseables en el tiempo de respuesta. Conocido como procesamiento del lado de la red, debido a que el procesamiento involucrado tiene lugar lo más cerca posible de la interfaz de red, esta práctica es un factor de diseño para los "sistemas de latencia ultrabaja". [5]
Ver también
Referencias
- ^ "Búsqueda de Wall Street para procesar datos a la velocidad de la luz" . Semana de la información. 20 de abril de 2007.
- ^ Verge, Jason. "Wall Street Going Wireless en oferta para una latencia ultrabaja" . Conocimiento del centro de datos . Consultado el 7 de mayo de 2013 .
- ^ Picardo, Elvis. "Será mejor que conozca su terminología comercial de alta frecuencia" . Investopedia .
- ^ Wikipedia: Autoridad de informes de precios de opciones # Mensajes por segundo
- ^ "Negociación de latencia ultrabaja" . Verificación y diseño de New Wave .