La visión artificial ( MV ) es la tecnología y los métodos utilizados para proporcionar inspección y análisis automáticos basados en imágenes para aplicaciones tales como inspección automática, control de procesos y guía de robots, generalmente en la industria. La visión artificial se refiere a muchas tecnologías, productos de software y hardware, sistemas integrados, acciones, métodos y experiencia. La visión artificial como disciplina de la ingeniería de sistemas puede considerarse distinta de la visión artificial , una forma de informática.. Intenta integrar tecnologías existentes de nuevas formas y aplicarlas para resolver problemas del mundo real. El término es el que prevalece para estas funciones en entornos de automatización industrial, pero también se utiliza para estas funciones en otros entornos, como la seguridad y la guía de vehículos.
El proceso general de visión artificial incluye la planificación de los detalles de los requisitos y el proyecto, y luego la creación de una solución. Durante el tiempo de ejecución, el proceso comienza con la creación de imágenes, seguido del análisis automatizado de la imagen y la extracción de la información requerida.
Definición
Las definiciones del término "visión artificial" varían, pero todas incluyen la tecnología y los métodos utilizados para extraer información de una imagen de forma automática, a diferencia del procesamiento de imágenes , donde la salida es otra imagen. La información extraída puede ser una simple señal de parte buena / parte mala, o más un conjunto complejo de datos como la identidad, posición y orientación de cada objeto en una imagen. La información se puede utilizar para aplicaciones tales como inspección automática y guía de procesos y robots en la industria, para monitoreo de seguridad y guía de vehículos. [1] [2] [3] Este campo abarca un gran número de tecnologías, productos de software y hardware, sistemas integrados, acciones, métodos y experiencia. [3] [4] La visión artificial es prácticamente el único término utilizado para estas funciones en aplicaciones de automatización industrial; el término es menos universal para estas funciones en otros entornos como la seguridad y la guía de vehículos. La visión artificial como disciplina de la ingeniería de sistemas puede considerarse distinta de la visión artificial , una forma de informática básica ; La visión artificial intenta integrar las tecnologías existentes de nuevas formas y aplicarlas para resolver problemas del mundo real de una manera que cumpla con los requisitos de la automatización industrial y áreas de aplicación similares. [3] : 5 [5] El término también se utiliza en un sentido más amplio por ferias comerciales y grupos comerciales como la Asociación de imágenes automatizadas y la Asociación europea de visión artificial. Esta definición más amplia también abarca productos y aplicaciones asociados con mayor frecuencia con el procesamiento de imágenes. [4] Los usos principales de la visión artificial son la inspección automática y la guía de procesos / robots industriales . [6] [7] : 6–10 [8] Consulte el glosario de visión artificial .
Inspección y clasificación automáticas basadas en imágenes
Los usos principales de la visión artificial son la inspección y clasificación automática basada en imágenes y la guía de robots .; [6] [7] : 6–10 en esta sección, el primero se abrevia como "inspección automática". El proceso general incluye la planificación de los detalles de los requisitos y el proyecto, y luego la creación de una solución. [9] [10] Esta sección describe el proceso técnico que ocurre durante el funcionamiento de la solución.
Métodos y secuencia de funcionamiento.
El primer paso en la secuencia de operación de la inspección automática es la adquisición de una imagen , generalmente usando cámaras, lentes e iluminación que ha sido diseñada para proporcionar la diferenciación requerida por el procesamiento posterior. [11] [12] Los paquetes de software MV y los programas desarrollados en ellos emplean varias técnicas de procesamiento de imágenes digitales para extraer la información requerida y, a menudo, toman decisiones (como pasa / falla) basadas en la información extraída. [13]
Equipo
Los componentes de un sistema de inspección automática generalmente incluyen iluminación, una cámara u otro generador de imágenes, un procesador, software y dispositivos de salida. [7] : 11-13
Imagen
El dispositivo de formación de imágenes (por ejemplo, una cámara) puede estar separado de la unidad principal de procesamiento de imágenes o combinarse con ella, en cuyo caso la combinación se denomina generalmente cámara inteligente o sensor inteligente. [14] [15] La inclusión de la función de procesamiento completo en el mismo recinto que la cámara se denomina a menudo procesamiento integrado. [16] Cuando se separan, la conexión se puede realizar a un hardware intermedio especializado, un dispositivo de procesamiento personalizado o un capturador de fotogramas dentro de una computadora utilizando una interfaz digital estandarizada o analógica ( Camera Link , CoaXPress ). [17] [18] [19] [20] Las implementaciones de MV también utilizan cámaras digitales capaces de realizar conexiones directas (sin un capturador de fotogramas) a una computadora a través de interfaces FireWire , USB o Gigabit Ethernet . [20] [21]
Si bien las imágenes convencionales (luz visible 2D) se utilizan más comúnmente en MV, las alternativas incluyen imágenes multiespectrales , imágenes hiperespectrales , imágenes de varias bandas infrarrojas, imágenes de barrido de líneas [22] , imágenes 3D de superficies e imágenes de rayos X. [6] Las diferenciaciones clave dentro de las imágenes de luz visible MV 2D son monocromáticas frente a color, velocidad de fotogramas , resolución y si el proceso de imágenes es simultáneo o no en toda la imagen, lo que la hace adecuada para procesos en movimiento. [23]
Aunque la gran mayoría de las aplicaciones de visión artificial se resuelven mediante imágenes bidimensionales, las aplicaciones de visión artificial que utilizan imágenes en 3D son un nicho creciente dentro de la industria. [24] [25] El método más utilizado para la obtención de imágenes en 3D es la triangulación basada en el escaneo, que utiliza el movimiento del producto o la imagen durante el proceso de obtención de imágenes. Se proyecta un láser sobre las superficies de un objeto. En la visión artificial, esto se logra con un movimiento de escaneo, ya sea moviendo la pieza de trabajo o moviendo la cámara y el sistema de imágenes láser. La línea es vista por una cámara desde un ángulo diferente; la desviación de la línea representa variaciones de forma. Las líneas de varios escaneos se ensamblan en un mapa de profundidad o una nube de puntos. [26] La visión estereoscópica se utiliza en casos especiales que involucran características únicas presentes en ambas vistas de un par de cámaras. [26] Otros métodos 3D utilizados para la visión artificial son el tiempo de vuelo y la cuadrícula. [26] [24] Un método son los sistemas basados en matrices de rejilla que utilizan un sistema de luz estructurado pseudoaleatorio como el empleado por el sistema Microsoft Kinect alrededor de 2012. [27] [28]
Procesamiento de imágenes
Una vez que se adquiere una imagen, se procesa. [19] Las funciones de procesamiento central generalmente las realiza una CPU , una GPU , una FPGA o una combinación de estas. [16] El entrenamiento y la inferencia del aprendizaje profundo imponen requisitos de rendimiento de procesamiento más altos. [29] Generalmente, se utilizan múltiples etapas de procesamiento en una secuencia que termina como el resultado deseado. Una secuencia típica puede comenzar con herramientas como filtros que modifican la imagen, seguido de la extracción de objetos, luego la extracción (por ejemplo, mediciones, lectura de códigos) de los datos de esos objetos, seguido de la comunicación de esos datos o su comparación con los valores objetivo a crear y comunicar resultados "pasa / no pasa". Los métodos de procesamiento de imágenes por visión artificial incluyen;
- Costura / Registro : combinación de imágenes adyacentes en 2D o 3D. [ cita requerida ]
- Filtrado (por ejemplo, filtrado morfológico ) [30]
- Umbral: El umbral comienza con la configuración o determinación de un valor de gris que será útil para los siguientes pasos. Luego, el valor se usa para separar partes de la imagen y, a veces, para transformar cada parte de la imagen a blanco y negro simplemente en función de si está por debajo o por encima de ese valor de escala de grises. [31]
- Recuento de píxeles: cuenta la cantidad de píxeles claros u oscuros [ cita requerida ]
- Segmentación : Partición de una imagen digital en múltiples segmentos para simplificar y / o cambiar la representación de una imagen en algo que sea más significativo y más fácil de analizar. [32] [33]
- Detección de bordes: búsqueda de bordes de objetos [34]
- Análisis de color: identifique piezas, productos y elementos utilizando el color, evalúe la calidad del color y aísle las características utilizando el color. [6]
- Detección y extracción de manchas: inspección de una imagen en busca de manchas discretas de píxeles conectados (por ejemplo, un agujero negro en un objeto gris) como puntos de referencia de la imagen. [35]
- Red neuronal / aprendizaje profundo / aprendizaje de las máquinas de procesamiento: ponderada y toma de decisiones de múltiples variables de auto-aprendizaje [36] Hacia 2019 hay una gran expansión de este, mediante un aprendizaje profundo y el aprendizaje de máquina para expandir significativamente las capacidades de visión artificial.
- Reconocimiento de patrones, incluida la coincidencia de plantillas . Encontrar, emparejar y / o contar patrones específicos. Esto puede incluir la ubicación de un objeto que puede ser girado, parcialmente oculto por otro objeto o de tamaño variable. [37]
- Lectura de códigos de barras , matriz de datos y " códigos de barras 2D " [38]
- Reconocimiento óptico de caracteres : lectura automática de texto, como números de serie [39]
- Calibración / Metrología : medición de las dimensiones del objeto (por ejemplo, en píxeles , pulgadas o milímetros ) [40]
- Comparación con los valores objetivo para determinar un resultado de "pasa o no pasa" o "pasa / no pasa". Por ejemplo, con la verificación de código o código de barras, el valor leído se compara con el valor objetivo almacenado. Para calibrar, una medición se compara con el valor y las tolerancias adecuados. Para la verificación de códigos alfanuméricos, el valor de OCR se compara con el valor adecuado o objetivo. Para la inspección de imperfecciones, el tamaño medido de las imperfecciones puede compararse con los máximos permitidos por los estándares de calidad. [38]
Salidas
Un resultado común de los sistemas de inspección automática son las decisiones de pasa / no pasa. [13] Estas decisiones pueden, a su vez, activar mecanismos que rechacen artículos fallidos o suenen una alarma. Otras salidas comunes incluyen la posición del objeto y la información de orientación para los sistemas de guía de robots. [6] Además, los tipos de salida incluyen datos de medición numéricos, datos leídos de códigos y caracteres, recuentos y clasificación de objetos, visualizaciones del proceso o resultados, imágenes almacenadas, alarmas de sistemas MV de monitoreo espacial automatizado y señales de control de procesos . [9] [12] Esto también incluye interfaces de usuario, interfaces para la integración de sistemas multicomponente e intercambio automatizado de datos. [41]
Guiado de robot basado en imágenes
La visión artificial comúnmente proporciona información de ubicación y orientación a un robot para permitir que el robot agarre correctamente el producto. Esta capacidad también se utiliza para guiar el movimiento que es más simple que los robots, como un controlador de movimiento de 1 o 2 ejes. [6] El proceso general incluye la planificación de los detalles de los requisitos y el proyecto, y luego la creación de una solución. Esta sección describe el proceso técnico que ocurre durante el funcionamiento de la solución. Muchos de los pasos del proceso son los mismos que los de la inspección automática, excepto que se centran en proporcionar información de posición y orientación como resultado final. [6]
Mercado
Tan recientemente como en 2006, un consultor de la industria informó que MV representaba un mercado de $ 1.5 mil millones en América del Norte. [42] Sin embargo, el editor en jefe de una revista comercial MV afirmó que "la visión artificial no es una industria per se" sino más bien "la integración de tecnologías y productos que brindan servicios o aplicaciones que benefician a verdaderas industrias como la automotriz o fabricación de bienes de consumo, agricultura y defensa ". [4]
Ver también
- Glosario de visión artificial
- Detección de características (visión por computadora)
- Detección de primer plano
- Unidad de procesamiento de visión
- Clasificación óptica
Referencias
- ^ Steger, Carsten; Markus Ulrich; Christian Wiedemann (2018). Algoritmos y aplicaciones de visión artificial (2ª ed.). Weinheim: Wiley-VCH . pag. 1. ISBN 978-3-527-41365-2. Consultado el 30 de enero de 2018 .
- ^ Beyerer, Jürgen; Puente León, Fernando y Frese, Christian (2016). Visión artificial - Inspección visual automatizada: teoría, práctica y aplicaciones . Berlín: Springer . doi : 10.1007 / 978-3-662-47794-6 . ISBN 978-3-662-47793-9. Consultado el 11 de octubre de 2016 .
- ^ a b c Graves, Mark y Bruce G. Batchelor (2003). Visión artificial para la inspección de productos naturales . Springer . pag. 5. ISBN 978-1-85233-525-0. Consultado el 2 de noviembre de 2010 .
- ^ a b c Holton, W. Conard (octubre de 2010). "Por cualquier otro nombre" . Diseño de sistemas de visión . 15 (10). ISSN 1089-3709 . Consultado el 5 de marzo de 2013 .
- ^ Owen-Hill, Alex (21 de julio de 2016). "Robot Vision vs Computer Vision: ¿Cuál es la diferencia?" . Robótica mañana.
- ^ a b c d e f g Turek, Fred D. (junio de 2011). "Fundamentos de la visión artificial, cómo hacer que los robots vean" . Resumen técnico de la NASA . 35 (6): 60–62 . Consultado el 29 de noviembre de 2011 .
- ^ a b c Cognex (2016). "Introducción a la visión artificial" (PDF) . Revista de montaje . Consultado el 9 de febrero de 2017 .
- ^ Lückenhaus, Maximilian (1 de mayo de 2016). "Visión artificial en IIoT" . Revista de calidad .
- ^ a b West, Perry Una hoja de ruta para construir un sistema de visión artificial Páginas 1-35
- ^ Dechow, David (enero de 2009). "Integración: hacer que funcione" . Visión y sensores : 16-20. Archivado desde el original el 14 de marzo de 2020 . Consultado el 12 de mayo de 2012 .
- ^ Hornberg, Alexander (2006). Manual de visión artificial . Wiley-VCH . pag. 427. ISBN 978-3-527-40584-8. Consultado el 5 de noviembre de 2010 .
- ^ a b Demant C .; Streicher-Abel B. y Waszkewitz P. (1999). Procesamiento de imágenes industriales: Control de calidad visual en la fabricación . Springer-Verlag. ISBN 3-540-66410-6.[ página necesaria ]
- ^ a b Hornberg, Alexander (2006). Manual de visión artificial . Wiley-VCH. pag. 429. ISBN 978-3-527-40584-8. Consultado el 5 de noviembre de 2010 .
- ^ Belbachir, Ahmed Nabil, ed. (2009). Cámaras inteligentes . Saltador. ISBN 978-1-4419-0952-7.[ página necesaria ]
- ^ Dechow, David (febrero de 2013). "Explore los fundamentos de la visión artificial: parte 1" . Diseño de sistemas de visión . 18 (2): 14-15 . Consultado el 5 de marzo de 2013 .
- ^ a b Consideraciones críticas para el diseño de visión integrado por Dave Rice y la revista Amber Thousand Photonics Spectra publicada por Laurin Publishing Co., número de julio de 2019, páginas 60-64
- ^ Wilson, Andrew (31 de mayo de 2011). "El estándar CoaXPress tiene cámara, soporte para captura de fotogramas" . Diseño de sistemas de visión . Consultado el 28 de noviembre de 2012 .
- ^ Wilson, Dave (12 de noviembre de 2012). "Cámaras certificadas como compatibles con el estándar CoaXPress" . Diseño de sistemas de visión . Consultado el 5 de marzo de 2013 .
- ^ a b Davies, ER (1996). Visión artificial: aspectos prácticos de los algoritmos teóricos (2ª ed.). Harcourt & Company. ISBN 978-0-12-206092-2.[ página necesaria ] .
- ^ a b Dinev, Petko (marzo de 2008). "¿Digital o analógica? La selección de la cámara adecuada para una aplicación depende de lo que intente lograr el sistema de visión artificial" . Visión y sensores : 10–14. Archivado desde el original el 14 de marzo de 2020 . Consultado el 12 de mayo de 2012 .
- ^ Wilson, Andrew (diciembre de 2011). "Enfoque del producto - Mirando hacia el futuro de la visión" . Diseño de sistemas de visión . 16 (12) . Consultado el 5 de marzo de 2013 .
- ^ Wilson, Andrew (abril de 2011). "La elección de infrarrojos" . Diseño de sistemas de visión . 16 (4): 20-23 . Consultado el 5 de marzo de 2013 .
- ^ West, Perry High Speed, CyberOptics de visión artificial en tiempo real, páginas 1-38
- ^ a b Murray, Charles J (febrero de 2012). "3D Machine Vison entra en foco" . Noticias de diseño . Archivado desde el original el 5 de junio de 2012 . Consultado el 12 de mayo de 2012 .
- ^ Davies, ER (2012). Visión por computadora y máquina: teoría, algoritmos, aspectos prácticos (4ª ed.). Prensa académica. págs. 410–411. ISBN 9780123869081. Consultado el 13 de mayo de 2012 .
- ^ a b c Imágenes en 3-D: una visión general práctica de la visión artificial por Fred Turek y Kim Jackson Quality Magazine, edición de marzo de 2014, volumen 53 / número 3, páginas 6-8
- ^ http://research.microsoft.com/en-us/people/fengwu/depth-icip-12.pdf LUZ ESTRUCTURADA HÍBRIDA PARA SENSOR DE PROFUNDIDAD ESCALABLE Yueyi Zhang, Zhiwei Xiong, Universidad de Ciencia y Tecnología Feng Wu de China, Hefei , China Microsoft Research Asia, Pekín, China
- ^ R.Morano, C.Ozturk, R.Conn, S. Dubin, S. Zietz, J. Nissano, "Luz estructurada usando códigos pseudoaleatorios", Transacciones IEEE sobre análisis de patrones e inteligencia de máquinas 20 (3) (1998) 322– 327
- ^ Encontrar el hardware óptimo para la inferencia de aprendizaje profundo en visión artificial por Mike Fussell Vision Systems Design, número de septiembre de 2019 de la revista, páginas 8-9
- ^ Demant C .; Streicher-Abel B. y Waszkewitz P. (1999). Procesamiento de imágenes industriales: Control de calidad visual en la fabricación . Springer-Verlag. pag. 39. ISBN 3-540-66410-6.
- ^ Demant C .; Streicher-Abel B. y Waszkewitz P. (1999). Procesamiento de imágenes industriales: Control de calidad visual en la fabricación . Springer-Verlag. pag. 96. ISBN 3-540-66410-6.
- ^ Linda G. Shapiro y George C. Stockman (2001): "Computer Vision", págs. 279-325, Nueva Jersey, Prentice-Hall, ISBN 0-13-030796-3
- ^ Lauren Barghout. Enfoque taxométrico visual La segmentación de imágenes utilizando cortes de taxón espacial difuso rinde regiones contextualmente relevantes. Tratamiento de la información y gestión de la incertidumbre en sistemas basados en el conocimiento. CCIS Springer-Verlag. 2014
- ^ Demant C .; Streicher-Abel B. y Waszkewitz P. (1999). Procesamiento de imágenes industriales: Control de calidad visual en la fabricación . Springer-Verlag. pag. 108. ISBN 3-540-66410-6.
- ^ Demant C .; Streicher-Abel B. y Waszkewitz P. (1999). Procesamiento de imágenes industriales: Control de calidad visual en la fabricación . Springer-Verlag. pag. 95. ISBN 3-540-66410-6.
- ^ Turek, Fred D. (marzo de 2007). "Introducción a la visión artificial de la red neuronal" . Diseño de sistemas de visión . 12 (3) . Consultado el 5 de marzo de 2013 .
- ^ Demant C .; Streicher-Abel B. y Waszkewitz P. (1999). Procesamiento de imágenes industriales: Control de calidad visual en la fabricación . Springer-Verlag. pag. 111. ISBN 3-540-66410-6.
- ^ a b Demant C .; Streicher-Abel B. y Waszkewitz P. (1999). Procesamiento de imágenes industriales: Control de calidad visual en la fabricación . Springer-Verlag. pag. 125. ISBN 3-540-66410-6.
- ^ Demant C .; Streicher-Abel B. y Waszkewitz P. (1999). Procesamiento de imágenes industriales: Control de calidad visual en la fabricación . Springer-Verlag. pag. 132. ISBN 3-540-66410-6.
- ^ Demant C .; Streicher-Abel B. y Waszkewitz P. (1999). Procesamiento de imágenes industriales: Control de calidad visual en la fabricación . Springer-Verlag. pag. 191. ISBN 3-540-66410-6.
- ^ Hornberg, Alexander (2006). Manual de visión artificial . Wiley-VCH . pag. 709. ISBN 978-3-527-40584-8. Consultado el 5 de noviembre de 2010 .
- ^ Hapgood, Fred (15 de diciembre de 2006 - 1 de enero de 2007). "Fábricas del futuro" . CIO . 20 (6): 46. ISSN 0894-9301 . Consultado el 28 de octubre de 2010 .