Mesa de arena de realidad aumentada



La mesa de arena de realidad aumentada (ARES) es una mesa de arena digital e interactiva que utiliza tecnología de realidad aumentada (AR) para crear un mapa del espacio de batalla en 3D. Fue desarrollado por la Dirección de Ingeniería e Investigación Humana (HRED) en el Laboratorio de Investigación del Ejército (ARL) para combinar los aspectos positivos de las mesas de arena militares tradicionales con las últimas tecnologías digitales para apoyar mejor el entrenamiento de los soldados y ofrecer nuevas posibilidades de aprendizaje. [1] Utiliza un proyector para mostrar un mapa topográfico sobre la arena en una caja de arena normal, así como un sensor de movimiento que realiza un seguimiento de los cambios en el diseño de la arena para ajustar adecuadamente la visualización del terreno generada por computadora.[2] [3]

Un estudio de ARL realizado en 2017 con 52 militares en servicio activo (36 hombres y 16 mujeres) encontró que los participantes que usaron ARES dedicaron menos tiempo a preparar la mesa en comparación con los participantes que usaron una mesa de arena tradicional. Además, ARES demostró una puntuación de carga de trabajo percibida más baja, medida con las clasificaciones del índice de carga de tareas de la NASA (NASA-TLX), en comparación con la mesa de arena tradicional. Sin embargo, no hubo una diferencia significativa en las puntuaciones de las pruebas posteriores al conocimiento al recrear el mapa visual. [4]

El proyecto ARES fue una de las 25 iniciativas de ARL en desarrollo desde 1995 hasta 2015 que se centró en visualizar datos espaciales en interfaces virtuales o de mesa de arena. [1] [5] Fue desarrollado por el Centro de tecnología de capacitación y simulación (STTC) de HRED con Charles Amburn como investigador principal. [1] Las colaboraciones involucradas con ARES incluyeron Dignitas Technologies, Design Interactive (DI), el Instituto de Simulación y Entrenamiento de la Universidad de Florida Central y la Academia Militar de EE. UU. en West Point . [6]

ARES se diseñó en gran medida para ser una interfaz de usuario tangible (TUI) , en la que la información digital se puede manipular utilizando objetos físicos como la mano de una persona. Fue construido utilizando componentes comerciales listos para usar, incluidos un proyector, una computadora portátil, un monitor LCD, el sensor Xbox Kinect de Microsoft y el software ARES desarrollado por el gobierno. Con el proyector y el sensor Kinect mirando hacia abajo sobre la superficie del arenero, el proyector proporciona una superposición digital sobre la arena y el sensor Kinect escanea la superficie del mapa para detectar cualquier gesto del usuario dentro de los límites del arenero. [1]

Durante el desarrollo, los investigadores exploraron la posibilidad de incorporar ideas como superficies multitáctiles, pantallas holográficas en 3D y entornos virtuales. Sin embargo, las restricciones presupuestarias limitaron la implementación de tales ideas. [5]

En septiembre de 2014, durante la exhibición Modern Day Marine en Quantico, Virginia, los investigadores de ARL exhibieron ARES por primera vez. [7]