Servo visual


El servo visual , también conocido como control de robot basado en visión y abreviado VS , es una técnica que utiliza información de retroalimentación extraída de un sensor de visión (retroalimentación visual [1] ) para controlar el movimiento de un robot . Uno de los primeros artículos que habla sobre el servo visual fue del SRI International Labs en 1979. [2]

Un ejemplo de servo visual en un sistema de captura de alta velocidad [3]

Hay dos configuraciones fundamentales del efector final del robot (mano) y la cámara: [4]

  • Control de ojo en mano o de bucle cerrado de punto final, donde la cámara se conecta a la mano en movimiento y observa la posición relativa del objetivo.
  • Control ojo a mano, o de punto final en bucle abierto, donde la cámara se fija en el mundo y observa el objetivo y el movimiento de la mano.

Las técnicas de control de Visual Servoing se clasifican ampliamente en los siguientes tipos: [5] [6]

  • Basado en imágenes (IBVS)
  • Posición / pose basada (PBVS)
  • Enfoque híbrido

El IBVS fue propuesto por Weiss y Sanderson. [7] La ley de control se basa en el error entre las características actuales y deseadas en el plano de la imagen y no implica ninguna estimación de la pose del objetivo. Las características pueden ser las coordenadas de características visuales, líneas o momentos de regiones. IBVS tiene dificultades [8] con movimientos de rotación muy grande, lo que se ha denominado retroceso de la cámara. [9]

PBVS es una técnica basada en modelos (con una sola cámara). Esto se debe a que la pose del objeto de interés se estima con respecto a la cámara y luego se envía un comando al controlador del robot, que a su vez controla el robot. En este caso, las características de la imagen también se extraen, pero además se utilizan para estimar la información 3D (posición del objeto en el espacio cartesiano), por lo que es servo en 3D.

Los enfoques híbridos utilizan alguna combinación de servoing 2D y 3D. Ha habido algunos enfoques diferentes para el servomotor híbrido

  • Servoes 2-1 / 2-D [10]
  • Basado en partición de movimiento
  • Basado en DOF particionado [9]

La siguiente descripción del trabajo anterior se divide en 3 partes

  • Estudio de los métodos de servomotores visuales existentes.
  • Varias características utilizadas y sus impactos en el servo visual.
  • Análisis de errores y estabilidad de esquemas de servomotores visuales.

Estudio de los métodos de servomotores visuales existentes

Los sistemas de servo visual, también llamados servoing, han existido desde principios de la década de 1980, [11] aunque el término servo visual en sí solo se acuñó en 1987. [4] [5] [6] El servo visual es, en esencia, un método para control de robot donde el sensor utilizado es una cámara (sensor visual). El servomotor consta principalmente de dos técnicas, [6] una implica el uso de información de la imagen para controlar directamente los grados de libertad (DOF) del robot, por lo que se conoce como servomotor visual basado en imágenes (IBVS). Mientras que el otro involucra la interpretación geométrica de la información extraída de la cámara, como estimar la pose del objetivo y los parámetros de la cámara (asumiendo que se conoce algún modelo básico del objetivo). Existen otras clasificaciones de servomotores basadas en las variaciones en cada componente de un sistema de servomotores, [5] por ejemplo, la ubicación de la cámara, los dos tipos son configuraciones ojo en mano y mano-ojo. Según el bucle de control, los dos tipos son punto final de bucle abierto y punto final de bucle cerrado. En función de si el control se aplica a las articulaciones (o DOF) directamente o como un comando de posición a un controlador de robot, los dos tipos son servo directo y mirar y moverse dinámicamente. Siendo uno de los primeros trabajos [12], los autores propusieron un esquema de servo visual jerárquico aplicado al servo basado en imágenes. La técnica se basa en el supuesto de que se puede extraer un buen conjunto de características del objeto de interés (por ejemplo, bordes, esquinas y centroides) y utilizar como modelo parcial junto con modelos globales de la escena y el robot. La estrategia de control se aplica a una simulación de un brazo robótico de dos y tres grados de libertad.

Feddema y col. [13] introdujo la idea de generar la trayectoria de la tarea con respecto a la velocidad de la característica. Esto es para asegurar que los sensores no se vuelvan ineficaces (deteniendo la retroalimentación) para ninguno de los movimientos del robot. Los autores asumen que los objetos se conocen a priori (por ejemplo, modelo CAD) y todas las características se pueden extraer del objeto. El trabajo de Espiau et al. [14] discute algunas de las preguntas básicas en el servo visual. Las discusiones se concentran en el modelado de la matriz de interacción, cámara, características visuales (puntos, líneas, etc.). En [15] se propuso un sistema de servomotor adaptativo con una arquitectura de servomotores de mirar y moverse. El método utilizó flujo óptico junto con SSD para proporcionar una métrica de confianza y un controlador estocástico con filtrado de Kalman para el esquema de control. El sistema asume (en los ejemplos) que el plano de la cámara y el plano de las características son paralelos., [16] analiza un enfoque de control de velocidad utilizando la relación jacobiana s˙ = Jv˙. Además, el autor utiliza el filtrado de Kalman, asumiendo que la posición extraída del objetivo tiene errores inherentes (errores de sensor). Se desarrolla un modelo de la velocidad objetivo y se utiliza como entrada de alimentación hacia adelante en el bucle de control. Además, menciona la importancia de examinar la discrepancia cinemática, los efectos dinámicos, la repetibilidad, las oscilaciones de tiempo de estabilización y el retraso en la respuesta.

Corke [17] plantea una serie de preguntas muy críticas sobre el servo visual y trata de desarrollar sus implicaciones. El artículo se centra principalmente en la dinámica del servo visual. El autor trata de abordar problemas como el retraso y la estabilidad, al mismo tiempo que habla de las rutas de avance en el bucle de control. El artículo también busca justificar la generación de trayectorias, la metodología de control de ejes y el desarrollo de métricas de desempeño.

Chaumette en [18] proporciona una buena idea de los dos problemas principales del IBVS. Uno, sirviendo a un mínimo local y el segundo, alcanzando una singularidad jacobiana. El autor muestra que los puntos de imagen por sí solos no constituyen buenos rasgos debido a la aparición de singularidades. El artículo continúa discutiendo las posibles comprobaciones adicionales para evitar singularidades, a saber, los números de condición de J_s y Jˆ + _s, para comprobar el espacio nulo de ˆ J_s y J ^ T_s. Un punto principal que destaca el autor es la relación entre los mínimos locales y los movimientos de características de la imagen irrealizables.

A lo largo de los años se han desarrollado muchas técnicas híbridas. [4] Estos implican calcular la pose parcial / completa de la geometría epipolar usando múltiples vistas o múltiples cámaras. Los valores se obtienen por estimación directa o mediante un aprendizaje o un esquema estadístico. Mientras que otros han utilizado un enfoque de conmutación que cambia entre basado en imágenes y basado en posición basado en una función de Lyapnov. [4] Las primeras técnicas híbridas que usaban una combinación de enfoques basados ​​en imágenes y basados ​​en pose (información 2D y 3D) para servoing requerían un modelo completo o parcial del objeto para extraer la información de pose y usaban una variedad de técnicas para extraer la información de movimiento de la imagen. [19] utilizó un modelo de movimiento afín a partir del movimiento de la imagen además de un modelo CAD poliédrico aproximado para extraer la pose del objeto con respecto a la cámara para poder servo sobre el objeto (en las líneas de PBVS).

El servo visual 2-1 / 2-D desarrollado por Malis et al. [20] es una técnica bien conocida que desglosa la información requerida para servo en una forma organizada que desacopla rotaciones y traducciones. Los artículos asumen que la pose deseada se conoce a priori. La información de rotación se obtiene a partir de una estimación de pose parcial, una homografía (esencialmente información en 3D) que da un eje de rotación y el ángulo (calculando los valores propios y los vectores propios de la homografía). La información de traslación se obtiene de la imagen directamente mediante el seguimiento de un conjunto de puntos característicos. Las únicas condiciones son que los puntos característicos que se están rastreando nunca abandonen el campo de visión y que una estimación de profundidad esté predeterminada por alguna técnica fuera de línea. Se ha demostrado que el servomotor 2-1 / 2-D es más estable que las técnicas que lo precedieron. Otra observación interesante con esta formulación es que los autores afirman que el jacobiano visual no tendrá singularidades durante los movimientos. La técnica híbrida desarrollada por Corke y Hutchinson, [21] [22] popularmente llamada enfoque en porciones divide el jacobiano visual (o imagen) en movimientos (tanto rotaciones como traslaciones) que relacionan los ejes X e Y y los movimientos relacionados con el eje Z. [22] describe la técnica para dividir las columnas del jacobiano visual que corresponden a la traslación y rotación del eje Z (es decir, la tercera y sexta columnas). Se muestra que el enfoque dividido maneja el Enigma de Chaumette discutido en. [23] Esta técnica requiere una buena estimación de profundidad para funcionar correctamente. [24] describe un enfoque híbrido en el que la tarea de servo se divide en dos, a saber, principal y secundaria. La tarea principal es mantener las características de interés dentro del campo de visión. Mientras que la tarea secundaria es marcar un punto de fijación y usarlo como referencia para llevar la cámara a la pose deseada. La técnica necesita una estimación de profundidad de un procedimiento fuera de línea. El artículo analiza dos ejemplos para los que se obtienen estimaciones de profundidad a partir de la odometría del robot y suponiendo que todas las características están en un plano. La tarea secundaria se logra utilizando la noción de paralaje. Las características que se rastrean se eligen mediante una inicialización realizada en el primer fotograma, que normalmente son puntos. [25] lleva a cabo una discusión sobre dos aspectos del servomotor visual, el modelado de características y el seguimiento basado en modelos. La suposición principal que se hace es que el modelo 3D del objeto está disponible. Los autores destacan la noción de que las características ideales deben elegirse de manera que la DOF del movimiento pueda desacoplarse mediante una relación lineal. Los autores también introducen una estimación de la velocidad objetivo en la matriz de interacción para mejorar el rendimiento del seguimiento. Los resultados se comparan con técnicas de servomotor bien conocidas incluso cuando se producen oclusiones.

Varias características utilizadas y sus impactos en el servo visual.

En esta sección se analiza el trabajo realizado en el campo del servomotor visual. Intentamos rastrear las diversas técnicas en el uso de funciones. La mayor parte del trabajo ha utilizado puntos de imagen como características visuales. La formulación de la matriz de interacción en [5] asume que los puntos de la imagen se utilizan para representar el objetivo. Hay un cuerpo de trabajo que se desvía del uso de puntos y usa regiones de características, líneas, momentos de imagen e invariantes de momento. [26] En, [27] los autores discuten un seguimiento basado en afines de las características de la imagen. Las características de la imagen se eligen en función de una medida de discrepancia, que se basa en la deformación que sufren las características. Las características utilizadas fueron parches de textura. Uno de los puntos clave del documento fue que destacó la necesidad de buscar características para mejorar el servo visual. En [28] los autores analizan la elección de características de la imagen (la misma pregunta también se discutió en [5] en el contexto del seguimiento). El efecto de la elección de las características de la imagen sobre la ley de control se analiza solo con respecto al eje de profundidad. Los autores consideran la distancia entre los puntos característicos y el área de un objeto como características. Estas características se utilizan en la ley de control con formas ligeramente diferentes para resaltar los efectos sobre el rendimiento. Se observó que se lograba un mejor rendimiento cuando el error del servo era proporcional al cambio en el eje de profundidad. [29] proporciona una de las primeras discusiones sobre el uso de momentos. Los autores proporcionan una nueva formulación de la matriz de interacción utilizando la velocidad de los momentos en la imagen, aunque complicada. Aunque se utilizan los momentos, los momentos son del pequeño cambio en la ubicación de los puntos de contorno con el uso del teorema de Green. El documento también intenta determinar el conjunto de características (en un avión) para un robot de 6 DOF. En [30] analiza el uso de momentos de imagen para formular el jacobiano visual. Esta formulación permite el desacoplamiento del DOF en función del tipo de momentos elegidos. El caso simple de esta formulación es teóricamente similar al servoing 2-1 / 2- D. [30] La variación en el tiempo de los momentos (m˙ij) se determina utilizando el movimiento entre dos imágenes y el Teorema de Greens. La relación entre m˙ij y el tornillo de velocidad (v) se da como m˙_ij = L_m_ij v. Esta técnica evita la calibración de la cámara asumiendo que los objetos son planos y usando una estimación de profundidad. La técnica funciona bien en el caso plano pero tiende a ser complicada en el caso general. La idea básica se basa en el trabajo en [4] Se han utilizado invariantes de momento. [31] La idea clave es encontrar el vector de características que desacopla todo el DOF del movimiento. Algunas observaciones realizadas fueron que los momentos centralizados son invariantes para las traducciones 2D. Se desarrolla una forma polinomial complicada para rotaciones 2D. La técnica sigue la enseñanza mediante la demostración, por lo que requiere los valores de profundidad y área del objeto deseadas (asumiendo que el plano de la cámara y el objeto son paralelos y que el objeto es plano). Otras partes del vector de características son invariantes R3, R4. Los autores afirman que las oclusiones se pueden manejar. [32] y [33] se basan en el trabajo descrito en. [29] [31] [32] La principal diferencia es que los autores utilizan una técnica similar a, [16] donde la tarea se divide en dos (en el caso donde las características no son paralelas al plano de la cámara). Se realiza una rotación virtual para traer la característica paralela al plano de la cámara. [34] consolida el trabajo realizado por los autores sobre momentos de imagen.

Análisis de errores y estabilidad de esquemas de servomotores visuales

Espiau en [35] mostró a partir de un trabajo puramente experimental que el servoing visual basado en imágenes (IBVS) es robusto a los errores de calibración. El autor usó una cámara sin calibración explícita junto con coincidencia de puntos y sin estimación de pose. El artículo analiza el efecto de los errores y la incertidumbre en los términos de la matriz de interacción desde un enfoque experimental. Los objetivos utilizados fueron puntos y se asumió que eran planos.

Se realizó un estudio similar en [36] donde los autores llevaron a cabo una evaluación experimental de algunos servo sistemas visuales no calibrados que eran populares en los años 90. El resultado principal fue la evidencia experimental de la efectividad del servocontrol visual sobre los métodos de control convencionales. Kyrki y col. [37] analiza los errores de servomotor para el servomotor visual 2-1 / 2-D y basado en la posición. La técnica implica determinar el error al extraer la posición de la imagen y propagarla para poseer estimación y control de servo. Los puntos de la imagen se mapean a puntos del mundo a priori para obtener un mapeo (que es básicamente la homografía, aunque no se indica explícitamente en el artículo). Este mapeo se divide en rotaciones y traslaciones puras. La estimación de pose se realiza utilizando una técnica estándar de Computer Vision. Los errores de píxeles se transforman en la pose. Estos se propagan al controlador. Una observación del análisis muestra que los errores en el plano de la imagen son proporcionales a la profundidad y el error en el eje de profundidad es proporcional al cuadrado de la profundidad. Los errores de medición en el servo visual se han investigado ampliamente. La mayoría de las funciones de error se relacionan con dos aspectos del servo visual. Uno es error de estado estable (una vez servido) y dos sobre la estabilidad del lazo de control. Otros errores de servo que han sido de interés son los que surgen de la estimación de pose y la calibración de la cámara. En, [38] los autores amplían el trabajo realizado en [39] al considerar la estabilidad global en presencia de errores de calibración intrínsecos y extrínsecos. [40] proporciona un enfoque para limitar el error de seguimiento de la función de la tarea. En, [41] los autores utilizan la técnica de servoing visual de enseñar mostrando. Donde la pose deseada se conoce a priori y el robot se mueve desde una pose dada. El objetivo principal del artículo es determinar el límite superior del error de posicionamiento debido al ruido de la imagen utilizando una técnica de optimización convexa. [42] proporciona una discusión sobre el análisis de estabilidad con respecto a la incertidumbre en las estimaciones de profundidad. Los autores concluyen el artículo con la observación de que para la geometría del objetivo desconocida se requiere una estimación de profundidad más precisa para limitar el error. Muchas de las técnicas de servomotor visual [21] [22] [43] suponen implícitamente que sólo un objeto está presente en la imagen y que la característica relevante para el seguimiento junto con el área del objeto está disponible. La mayoría de las técnicas requieren una estimación de pose parcial o una estimación de profundidad precisa de la pose actual y deseada.

  • Caja de herramientas Matlab para servo visual .
  • Simulador de servo visual basado en Java.
  • ViSP (estados de ViSP para "Visual Servoing Platform") es un software modular que permite el desarrollo rápido de aplicaciones de servo visual. [44]

  • Robótica
  • Robot
  • Visión por computador
  • Visión de máquina
  • Control de robot

  1. ^ "Concepto básico y términos técnicos" . Laboratorio Ishikawa Watanabe, Universidad de Tokio . Consultado el 12 de febrero de 2015 .
  2. ^ Agin, GJ, "Control en tiempo real de un robot con una cámara móvil". Nota técnica 179, SRI International, febrero de 1979.
  3. ^ "Sistema de captura de alta velocidad (exhibido en el Museo Nacional de Ciencia e Innovación Emergentes desde 2005)" . Laboratorio Ishikawa Watanabe, Universidad de Tokio . Consultado el 12 de febrero de 2015 .
  4. ↑ a b c d F. Chaumette, S. Hutchinson. Servocontrol visual, Parte II: Enfoques avanzados. Revista IEEE Robotics and Automation, 14 (1): 109-118, marzo de 2007
  5. ^ a b c d e S. A. Hutchinson, GD Hager y PI Corke. Un tutorial sobre el servocontrol visual. IEEE Trans. Robot. Automat., 12 (5): 651--670, octubre de 1996.
  6. ↑ a b c F. Chaumette, S. Hutchinson. Servocontrol visual, Parte I: Enfoques básicos. Revista IEEE Robotics and Automation, 13 (4): 82-90, diciembre de 2006
  7. ^ AC Sanderson y LE Weiss. Servocontrol visual adaptativo de robots. En A. Pugh, editor, Robot Vision, páginas 107-116. IFS, 1983
  8. ^ F. Chaumette. Problemas potenciales de estabilidad y convergencia en el servomotor visual basado en imágenes y en posición. En D. Kriegman, G. Hager y S. Morse, editores, La confluencia de la visión y el control, volumen 237 de Lecture Notes in Control and Information Sciences, páginas 66–78. Springer-Verlag, 1998.
  9. ^ a b P. Corke y SA Hutchinson (agosto de 2001), "Un nuevo enfoque dividido para el servocontrol visual basado en imágenes", IEEE Trans. Robot. Autom. , 17 (4): 507–515, doi : 10.1109 / 70.954764
  10. ^ E. Malis, F. Chaumette y S. Boudet, Servoing visual 2.5 D, Transacciones IEEE sobre robótica y automatización, 15 (2): 238-250, 1999
  11. ^ GJ Agin. Sistema de visión artificial para inspección y montaje industrial. Computadora IEEE, páginas 11-20, 1979
  12. ^ Lee E. Weiss, Arthur C. Sanderson y Charles P. Neuman. Control dinámico de robots basado en sensores con retroalimentación visual. Transacciones IEEE sobre robótica y automatización, 3 (5): 404–417, octubre de 1987
  13. ^ JT Feddema y OR Mitchell. Servomotor guiado por visión con generación de trayectorias basadas en características. Transacciones IEEE sobre robótica y automatización, 5 (5): 691–700, octubre de 1989
  14. ^ B. Espiau, F. Chaumette y P. Rives. Un nuevo enfoque del servomotor visual en robótica. Transacciones IEEE sobre robótica y automatización, 8 (3): 313–326, junio de 1992
  15. ^ NP Papanikopoulos y Khosla PK Seguimiento visual robótico adaptativo: teoría y experimentos. IEEE Transactions on Automatic Control, 38 (3): 429–445, marzo de 1993
  16. ^ a b P. Corke. Experimentos en servoing visual robótico de alto rendimiento. En Simposio Internacional sobre Robótica Experimental, octubre de 1993
  17. ^ P. Corke. Problemas dinámicos en los sistemas de servos visuales de robots. En International Symposium on Robotics Research, páginas 488–498, 1995.
  18. ^ F. Chaumette. Problemas potenciales de estabilidad y convergencia en el servomotor visual basado en imágenes y en posición. En D. Kriegman, G. Hagar y S. Morse, editores, Confluence of Vision and Control, Lecture Notes in Control and Information Systems, volumen 237, páginas 66–78. Springer-Verlag, 1998
  19. ^ E Marchand, P. Bouthemy, F Chaumette y V. Moreau. Seguimiento visual robusto mediante el acoplamiento de estimación de pose 2d y 3d. En Actas de la Conferencia Internacional IEEE sobre Procesamiento de Imágenes, 1999.
  20. ^ E. Malis. Control de robot híbrido basado en visión resistente a grandes errores de calibración en parámetros de cámara tanto intrínsecos como extrínsecos. En European Control Conference, páginas 289–293, septiembre de 2001.
  21. ^ a b P. Corke y S. Hutchinson. Un nuevo esquema de servocontrol visual híbrido basado en imágenes. En Proceedings of the 39th IEEE Conference on Decision and Control, diciembre de 2000
  22. ^ a b c P. Corke y S. Hutchinson. Un nuevo enfoque dividido para el servocontrol visual basado en imágenes. Transacciones IEEE sobre robótica y automatización, 17 (4): 507–515, agosto de 2001
  23. ^ F. Chaumette. Problemas potenciales de estabilidad y convergencia en el servomotor visual basado en imágenes y en posición. En D. Kriegman, G. Hagar y S. Morse, editores, Confluence of Vision and Control, Lecture Notes in Control and Information Systems, volumen 237, páginas 66–78. Springer-Verlag, 1998
  24. ^ C. Collewet y F. Chaumette. Posicionamiento de una cámara con respecto a objetos planos de formas desconocidas mediante el acoplamiento de servos visuales 2-d y estimaciones 3-d. Transacciones IEEE sobre robótica y automatización, 18 (3): 322–333, junio de 2002
  25. ^ F. Chaumette y E. Marchand. Resultados recientes en servomotores visuales para aplicaciones robóticas, 2013
  26. ^ N. Andreff, B. Espiau y R. Horaud. Servo visual de líneas. En la Conferencia Internacional sobre Robótica y Automatización, San Francisco, abril de 2000
  27. ^ J. Shi y C. Tomasi. Buenas características para rastrear. En Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, páginas 593–600, 1994
  28. ^ R. Mahony, P. Corke y F. Chaumette. Elección de funciones de imagen para el control del eje de profundidad en el servocontrol visual basado en imágenes. En Proceedings of the IEEE Conference on Intelligent Robots and Systems, páginas 390–395, octubre de 2002
  29. ^ a b F. Chaumette. Un primer paso hacia el servo visual utilizando momentos de imagen. En Proceedings of the IEEE Conference on Intelligent Robots and Systems, páginas 378–383, octubre de 2002.
  30. ^ a b F. Chaumette. Momento de la imagen: un conjunto general y útil de características para el servo visual. Transacciones de IEEE sobre robótica, 20 (4): 713–723, agosto de 2004
  31. ^ a b O. Tahri y F. Chaumette. Aplicación de invariantes de momento al servo visual. En Proceedings of the IEEE Conference on Robots and Automation, páginas 4276–4281, septiembre de 2003
  32. ^ a b O. Tahri y F. Chaumette. Momentos de imagen: descriptores genéricos para servoing visual basado en imágenes desacopladas. En Proceedings of the IEEE Conference on Robotics and Automation, páginas 1861–1867, abril de 2004
  33. ^ O. Tahri y F. Chaumette. Los objetos complejos presentan una estimación basada en los invariantes del momento de la imagen. En Proceedings of the IEEE Conference on Robots and Automation, páginas 436–441, abril de 2005
  34. ^ O. Tahri y F. Chaumette. Momentos de imagen basados ​​en puntos y regiones para el servomotor visual de objetos planos. IEEE Transactions on Robotics, 21 (6): 1116–1127, diciembre de 2005
  35. ^ B. Espiau. Efecto de los errores de calibración de la cámara en el servomotor visual en robótica. En Third Int. Simposio sobre robótica experimental, octubre de 1993
  36. ^ M. Jagersand, O. Fuentes y R. Nelson. Evaluación experimental de servoing visual no calibrado para manipulación de precisión. En International Conference on Robotics and Automation, páginas 2874–2880, abril de 1997
  37. ^ V. Kyrki, D. Kragic y H Christensen. Errores de medición en el servo visual. En Proceedings of the IEEE Conference on Robotics and Automation, páginas 1861–1867, abril de 2004
  38. ^ E. Malis. Control de robot híbrido basado en visión resistente a grandes errores de calibración en parámetros de cámara tanto intrínsecos como extrínsecos. En European Control Conference, páginas 289–293, septiembre de 2001
  39. ^ E. Malis, F. Chaumette y S. Boudet. Servo visual 2-1 / 2-d. Transacciones IEEE sobre robótica y automatización, 15 (2): 238–250, abril de 1999
  40. ^ G. Morel, P. Zanne y F. Plestan. Servoing visual robusto: Limita la función de tarea rastreando errores. Transacciones IEEE sobre tecnología de sistemas de control, 13 (6): 998– 1009, noviembre de 2009
  41. ^ G. Chesi y YS Hung. El ruido de la imagen provoca errores en el posicionamiento de la cámara. IEEE Transactions on Pattern Analysis and Machine Intelligence, 29 (8): 1476–1480, agosto de 2007
  42. ^ E. Malis y P. Rives. Robustez del servo visual basado en imágenes con respecto a los errores de distribución de profundidad. En la Conferencia Internacional IEEE sobre Robótica y Automatización, septiembre de 2003
  43. ^ E. Malis, F. Chaumette y S. Boudet. Servo visual 2-1 / 2-d. Transacciones IEEE sobre robótica y automatización, 15 (2): 238–250, abril de 1999
  44. ^ E. Marchand, F. Spindler, F. Chaumette. ViSP para servo visual: una plataforma de software genérica con una amplia clase de habilidades de control de robots. Revista IEEE Robotics and Automation, Número especial sobre "Paquetes de software para el control del movimiento basado en la visión", P. Oh, D. Burschka (Eds.), 12 (4): 40-52, diciembre de 2005.

  • SA Hutchinson, GD Hager y PI Corke. Un tutorial sobre el servocontrol visual. IEEE Trans. Robot. Automat., 12 (5): 651—670, octubre de 1996.
  • F. Chaumette, S. Hutchinson. Servocontrol visual, Parte I: Enfoques básicos. Revista IEEE Robotics and Automation, 13 (4): 82-90, diciembre de 2006.
  • F. Chaumette, S. Hutchinson. Servocontrol visual, Parte II: Enfoques avanzados. Revista IEEE Robotics and Automation, 14 (1): 109-118, marzo de 2007.
  • Notas del tutorial de IROS 2004 sobre el servo visual avanzado .
  • Springer Handbook of Robotics Capítulo 24: Visual Servoing y Visual Tracking (François Chaumette, Seth Hutchinson)
  • UW-Madison, laboratorio de robótica y sistemas inteligentes
  • Grupo de investigación INRIA Lagadic
  • Universidad Johns Hopkins, Laboratorio EXTREMIDADES
  • Universidad de Siena, SIRSLab Vision & Robotics Group
  • Universidad de Tohoku, Laboratorio de sistemas de control inteligente
  • Grupo de investigación INRIA Arobas
  • LASMEA, grupo Rosace
  • UIUC, Instituto Beckman