El programa Learning Applied to Ground Vehicles (LAGR) , que se desarrolló desde 2004 hasta 2008, tenía el objetivo de acelerar el progreso en la navegación autónoma, basada en la percepción, fuera de la carretera en vehículos terrestres no tripulados robóticos (UGV). LAGR fue financiado por DARPA , una agencia de investigación del Departamento de Defensa de los Estados Unidos .
Historia y antecedentes
Si bien los robots móviles existían desde la década de 1960 ( por ejemplo, Shakey ), el progreso en la creación de robots que pudieran navegar por sí mismos, al aire libre, fuera de la carretera, en terrenos irregulares y llenos de obstáculos había sido lento. De hecho, no se establecieron métricas claras para medir el progreso. [1] Una comprensión básica de las capacidades todoterreno comenzó a surgir con el programa DARPA PerceptOR [2] en el que equipos de investigación independientes desplegaron vehículos robóticos en pruebas gubernamentales no ensayadas que midieron la velocidad promedio y el número de intervenciones requeridas por parte del operador en un curso fijo a lo largo de waypoints espaciados . Estas pruebas expusieron los desafíos extremos de la navegación todoterreno. Si bien los vehículos PerceptOR estaban equipados con sensores y algoritmos que eran de vanguardia para el comienzo del siglo XXI, el rango limitado de su tecnología de percepción hizo que quedaran atrapados en callejones sin salida naturales . Además, su dependencia de comportamientos preestablecidos no les permitió adaptarse a circunstancias inesperadas. El resultado general fue que, excepto en terrenos esencialmente abiertos con obstáculos mínimos, o por caminos de tierra, los vehículos PerceptOR no podían navegar sin la intervención repetida y repetida del operador.
El programa LAGR fue diseñado para construir sobre la metodología iniciada en PerceptOR mientras buscaba superar los desafíos técnicos expuestos por las pruebas de PerceptOR.
Metas LAGR
El objetivo principal de LAGR era acelerar el progreso en la navegación fuera de los UGV. Los objetivos sinérgicos adicionales incluyeron (1) establecer una metodología de evaluación comparativa para medir el progreso de los robots autónomos que operan en entornos no estructurados, (2) promover la visión artificial y, por lo tanto, permitir la percepción de largo alcance, y (3) aumentar el número de instituciones e individuos que pudieron para contribuir a la investigación de vanguardia sobre UGV.
Estructura y fundamento del programa LAGR
El programa LAGR se diseñó [3] para centrarse en el desarrollo de nueva ciencia para la percepción y el control de robots en lugar de en nuevo hardware . Por lo tanto, se decidió crear una flota de robots idénticos y relativamente simples que serían suministrados a los investigadores de LAGR, quienes eran miembros de equipos competitivos, dejándolos libres para concentrarse en el desarrollo de algoritmos. Cada equipo recibió dos robots del diseño estándar. Desarrollaron un nuevo software en estos robots y luego enviaron el código a un equipo de prueba del gobierno que luego probó ese código en robots del gobierno en varios cursos de prueba. Estos campos estaban ubicados en todo EE. UU. Y los equipos no los conocían previamente. De esta manera, el código de todos los equipos podría probarse en circunstancias esencialmente idénticas. Después de un período de inicio inicial, el ciclo de desarrollo / prueba de código se repitió aproximadamente una vez al mes.
El robot estándar fue diseñado y construido por el sitio web oficial del Centro Nacional de Ingeniería Robótica de la Universidad Carnegie Mellon (CMU NREC) . Las computadoras de los vehículos estaban precargadas con un sistema modular de percepción y navegación “Baseline” que era esencialmente el mismo sistema que CMU NREC había creado para el programa PerceptOR y se consideraba que representaba el estado del arte al inicio de LAGR. La naturaleza modular del sistema Baseline permitió a los investigadores reemplazar partes del código Baseline con sus propios módulos y aún tener un sistema de trabajo completo sin tener que crear un sistema de navegación completo desde cero. Así, por ejemplo, pudieron comparar el rendimiento de su propio módulo de detección de obstáculos con el del código de línea de base, mientras mantenían todo lo demás fijo. El código de línea de base también sirvió como una referencia fija: en cualquier entorno y en cualquier momento del programa, el código de los equipos se podía comparar con el código de línea de base. Este ciclo rápido brindó al equipo de gobierno y a los equipos de ejecutores una rápida retroalimentación y permitió que el equipo de gobierno diseñara cursos de prueba que desafiaban a los ejecutantes en tareas de percepción específicas y cuya dificultad probablemente desafiaría, pero no abrumaría, las capacidades actuales de los ejecutantes. Los equipos no estaban obligados a enviar un código nuevo para cada prueba, pero por lo general lo hacían. A pesar de este margen de maniobra, algunos equipos encontraron que el ciclo de pruebas rápido les distraía de su progreso a largo plazo y hubieran preferido un intervalo más largo entre las pruebas.
Para avanzar a la Fase II, cada equipo tuvo que modificar el código de línea de base para que en las 3 pruebas finales de la fase I de las pruebas del gobierno, los robots que ejecutaban el código del equipo promediaran al menos un 10% más rápido que un vehículo que ejecutaba el código de línea de base original. Esta métrica bastante modesta de “Pasar / No Pasar” se eligió para permitir a los equipos elegir enfoques arriesgados pero prometedores que podrían no estar completamente desarrollados en los primeros 18 meses del programa. Los 8 equipos lograron esta métrica, y algunos obtuvieron más del doble de velocidad que la línea de base en las pruebas posteriores, que era el objetivo de la Fase II. Tenga en cuenta que la métrica de la Fase I Go / No Go era tal que los equipos no se completaban entre sí durante un número limitado de espacios en la Fase II: cualquier número de equipos, de ocho a cero, podía pasar la calificación. Esta estrategia de DARPA fue diseñada para fomentar la cooperación e incluso el intercambio de códigos entre los equipos.
Los equipos LAGR
Se seleccionaron ocho equipos como actores en la Fase I, los primeros 18 meses, de LAGR. Los equipos eran de Applied Perception (investigador principal [PI] Mark Ollis), Georgia Tech (PI Tucker Balch), Jet Propulsion Laboratory (PI Larry Matthies), Net-Scale Technologies (PI Urs Muller), NIST (PI James Albus ), Universidad de Stanford (PI Sebastian Thrun ), SRI International (PI Robert Bolles) y Universidad de Pennsylvania (PI Daniel Lee).
El equipo de Stanford renunció al final de la Fase I para enfocar sus esfuerzos en el Gran Desafío de DARPA ; fue reemplazado por un equipo de la Universidad de Colorado , Boulder (PI Greg Grudic). También en la Fase II, el equipo de NIST suspendió su participación en la competencia y en su lugar se concentró en ensamblar los mejores elementos de software de cada equipo en un solo sistema. Roger Bostelman se convirtió en PI de ese esfuerzo.
El vehículo LAGR
El vehículo LAGR, que tenía aproximadamente el tamaño de un carrito de la compra de un supermercado, fue diseñado para ser fácil de controlar. (Un programa complementario de DARPA, Learning Locomotion, [4] abordó el control de motores complejos). Funcionaba con baterías y tenía dos motores de silla de ruedas accionados independientemente en la parte delantera y dos ruedas giratorias en la parte trasera. Cuando las ruedas delanteras se giraban en la misma dirección, el robot se impulsaba hacia adelante o hacia atrás. Cuando estas ruedas se movieron en direcciones opuestas, el robot giró.
El costo de ~ $ 30,000 del vehículo LAGR significaba que se podía construir una flota y distribuirla a varios equipos que se expandían en el campo de investigadores que tradicionalmente habían participado en los programas de robótica de DARPA. La velocidad máxima del vehículo de aproximadamente 3 millas / hora y el peso relativamente modesto de ~ 100 kg significaron que representaba un peligro de seguridad mucho menor en comparación con los vehículos utilizados en programas anteriores en vehículos terrestres no tripulados y, por lo tanto, redujo aún más el presupuesto requerido para que cada equipo lo administrara. su robot.
Sin embargo, los vehículos LAGR eran máquinas sofisticadas. Su conjunto de sensores incluía 2 pares de cámaras estéreo , un acelerómetro , un sensor de parachoques, codificadores de rueda y un GPS . El vehículo también tenía tres computadoras que eran programables por el usuario.
Resultados científicos
Una piedra angular del programa fue la incorporación de comportamientos aprendidos en los robots. Además, el programa utilizó sistemas ópticos pasivos para realizar análisis de escenas de largo alcance.
La dificultad de probar la navegación UGV en entornos fuera de la carretera no estructurados hizo que la medición precisa y objetiva del progreso fuera una tarea desafiante. Si bien no se había definido una medida absoluta de rendimiento en LAGR, la comparación relativa del código de un equipo con el código de la línea de base en un curso determinado demostró si se estaba progresando en ese entorno. Al concluir el programa, las pruebas mostraron que muchos de los artistas habían logrado saltos en el desempeño. En particular, las velocidades autónomas promedio aumentaron en un factor de 3 y la percepción visual útil se extendió a rangos de hasta 100 metros. [5]
Si bien LAGR logró extender el rango útil de percepción visual, esto se hizo principalmente mediante el análisis de color o textura basado en píxeles o parches. El reconocimiento de objetos no se abordó directamente.
A pesar de que el vehículo LAGR tenía un GPS WAAS , su posición nunca se determinó hasta el ancho del vehículo, por lo que fue difícil para los sistemas reutilizar los mapas de obstáculos de las áreas que los robots habían atravesado previamente desde que el GPS se desviaba continuamente. La deriva fue especialmente severa si había un dosel de bosque. Algunos equipos desarrollaron algoritmos de odometría visual que básicamente eliminaron esta deriva.
LAGR también tenía el objetivo de ampliar el número de artistas y eliminar la necesidad de una gran integración de sistemas para que las valiosas pepitas de tecnología creadas por equipos pequeños pudieran ser reconocidas y luego adoptadas por la comunidad en general.
Algunos equipos desarrollaron métodos rápidos para aprender con un maestro humano: un humano podría operar el robot por Radio Control (RC) y dar señales especificando áreas “seguras” y “no seguras” y el robot podría adaptarse y navegar rápidamente con la misma política. Esto se demostró cuando se le enseñó al robot a ser agresivo al conducir sobre malezas muertas mientras evitaba los arbustos o, alternativamente, se le enseñó a ser tímido y solo conducir por caminos cortados.
LAGR se gestionó en conjunto con el vehículo de combate terrestre no tripulado de DARPA - Programa de integración de PerceptOR (UPI) CMU NREC UPI Sitio web . UPI combinó la percepción avanzada con un vehículo de extrema movilidad. Los mejores algoritmos estéreo y la odometría visual de LAGR se transfirieron a UPI. Además, las interacciones entre los LAGR PI y el equipo de UPI dieron como resultado la incorporación de tecnología adaptativa en la base de código de UPI con una mejora resultante en el rendimiento de los robots "Crusher" de UPI .
Gestión de programas
LAGR fue administrado por la Oficina de Tecnología de Procesamiento de Información de DARPA. Larry Jackel concibió el programa y fue el director del programa de 2004 a 2007. Eric Krotkov, Michael Perschbacher y James Pippine contribuyeron a la concepción y gestión de LAGR. Charles Sullivan jugó un papel importante en las pruebas de LAGR. Tom Wagner fue el director del programa desde mediados de 2007 hasta la conclusión del programa a principios de 2008.
Referencias
- ^ Véase especialmente el apéndice C, Consejo Nacional de Investigación de las Academias Nacionales, "Desarrollo de tecnología para vehículos terrestres no tripulados del ejército", National Academies Press, Washington, DC, 2002.
- ^ E. Krotkov, S. Fish, L. Jackel, M. Perschbacher y J. Pippine, "Los experimentos de evaluación de DARPA PerceptOR". Autonomous Robots, 22 (1): páginas 19-35, 2007.
- ^ LD Jackel, Douglass Hackett, Eric Krotkov, Michael Perschbacher, James Pippine y Charles Sullivan. “Cómo DARPA estructura sus programas de robótica para mejorar la locomoción y la navegación”. Comunicaciones del ACM, 50 (11): páginas 55-59, 2007.
- ^ James Pippine, Douglas Hackett, Adam Watson, "Una descripción general del programa de locomoción de aprendizaje de la Agencia de Proyectos de Investigación Avanzada de Defensa", Revista Internacional de Investigación Robótica, Vol 30, Núm. 2, páginas 141-144, 2011
- ^ Para una discusión detallada de los resultados de LAGR, consulte los números especiales de Journal of Field Robotics, Vol 23 números 11/12 de 2006 y Vol 26 número 1/2 de 2009.