El reconocimiento de gestos es un tema de la informática y la tecnología del lenguaje cuyo objetivo es interpretar los gestos humanos a través de algoritmos matemáticos . [1] Es una subdisciplina de la visión por computadora . Los gestos pueden originarse a partir de cualquier movimiento o estado corporal, pero normalmente se originan en la cara o la mano . Actual [ ¿cuándo? ] enfoques en el campo incluyen el reconocimiento de emociones a partir del reconocimiento de gestos faciales y manuales. Los usuarios pueden usar gestos simples para controlar o interactuar con dispositivos sin tocarlos físicamente. Se han realizado muchos enfoques utilizando cámaras yalgoritmos de visión artificial para interpretar el lenguaje de señas . Sin embargo, la identificación y el reconocimiento de la postura, la marcha, la proxémica y los comportamientos humanos también es tema de las técnicas de reconocimiento de gestos. [2] El reconocimiento de gestos puede verse como una forma para que las computadoras comiencen a comprender el lenguaje corporal humano , construyendo así un puente más rico entre las máquinas y los humanos que las primitivas interfaces de usuario de texto o incluso las GUI ( interfaces gráficas de usuario), que aún limitan la mayoría de entrada al teclado y el mouse e interactuar de forma natural sin ningún dispositivo mecánico. Usando el concepto de reconocimiento de gestos, es posible señalar con el dedo en este punto y se moverá en consecuencia. Esto podría hacer que la entrada convencional en dispositivos sea tan e incluso redundante.
Descripción general
Funciones de reconocimiento de gestos:
- Más preciso
- Alta estabilidad
- Ahorro de tiempo para desbloquear un dispositivo
Las principales áreas de aplicación del reconocimiento de gestos en la actualidad [ ¿cuándo? ] escenario son:
- Sector automotriz
- Sector de la electrónica de consumo
- Sector de tránsito
- Sector del juego
- Para desbloquear teléfonos inteligentes
- Defensa [3]
- Automatización del hogar
- Traducción automática de lenguaje de señas [4]
El reconocimiento de gestos se puede realizar con técnicas de visión por computadora y procesamiento de imágenes . [5]
La literatura incluye trabajo continuo en el campo de la visión por computadora sobre la captura de gestos o poses y movimientos humanos más generales mediante cámaras conectadas a una computadora. [6] [7] [8] [9]
Reconocimiento de gestos y computación con lápiz: la computación con lápiz reduce el impacto del hardware de un sistema y también aumenta la gama de objetos del mundo físico que se pueden usar para el control más allá de los objetos digitales tradicionales como teclados y ratones. Tales implementaciones podrían permitir una nueva gama de hardware que no requiera monitores. Esta idea puede llevar a la creación de una pantalla holográfica. El término reconocimiento de gestos se ha utilizado para referirse de manera más estricta a los símbolos de escritura a mano que no son de entrada de texto, como la escritura en una tableta gráfica , los gestos multitáctiles y el reconocimiento de gestos del mouse . Esta es la interacción de la computadora a través del dibujo de símbolos con un cursor de dispositivo señalador. [10] [11] [12] (ver Computación con lápiz )
Tipos de gestos
En las interfaces de computadora, se distinguen dos tipos de gestos: [13] Consideramos los gestos en línea, que también pueden considerarse como manipulaciones directas como escalar y rotar. Por el contrario, los gestos fuera de línea generalmente se procesan una vez finalizada la interacción; por ejemplo, se dibuja un círculo para activar un menú contextual .
- Gestos fuera de línea: aquellos gestos que se procesan después de la interacción del usuario con el objeto. Un ejemplo es el gesto para activar un menú.
- Gestos online: gestos de manipulación directa. Se utilizan para escalar o rotar un objeto tangible.
Interfaz sin contacto
La interfaz de usuario sin contacto es un tipo de tecnología emergente en relación con el control por gestos. La interfaz de usuario sin contacto (TUI) es el proceso de controlar la computadora a través de movimientos corporales y gestos sin tocar un teclado, mouse o pantalla. [14] La interfaz sin contacto, además de los controles por gestos, se están volviendo muy populares, ya que brindan la capacidad de interactuar con dispositivos sin tocarlos físicamente.
Tipos de tecnología sin contacto
Hay varios dispositivos que utilizan este tipo de interfaz, como teléfonos inteligentes, computadoras portátiles, juegos, televisión y equipos de música.
Un tipo de interfaz sin contacto utiliza la conectividad bluetooth de un teléfono inteligente para activar el sistema de gestión de visitantes de una empresa. Esto evita tener que tocar una interfaz durante la pandemia de COVID-19 . [15]
Los dispositivos de entrada
La capacidad de rastrear los movimientos de una persona y determinar qué gestos puede estar realizando se puede lograr a través de varias herramientas. Las interfaces de usuario cinéticas (KUI) [16] son un tipo emergente de interfaces de usuario que permiten a los usuarios interactuar con dispositivos informáticos a través del movimiento de objetos y cuerpos. Los ejemplos de KUI incluyen interfaces de usuario tangibles y juegos con detección de movimiento como Wii y Kinect de Microsoft , y otros proyectos interactivos. [17]
Aunque hay una gran cantidad de investigación realizada en el reconocimiento de gestos basado en imágenes / video, existe cierta variación dentro de las herramientas y entornos utilizados entre las implementaciones.
- Guantes con alambre . Estos pueden proporcionar información a la computadora sobre la posición y rotación de las manos utilizando dispositivos de seguimiento magnético o inercial. Además, algunos guantes pueden detectar la flexión de los dedos con un alto grado de precisión (5-10 grados), o incluso proporcionar retroalimentación háptica al usuario, que es una simulación del sentido del tacto. El primer dispositivo tipo guante de rastreo de manos disponible comercialmente fue el DataGlove, [18] un dispositivo tipo guante que podía detectar la posición de la mano, el movimiento y la flexión de los dedos. Esto utiliza cables de fibra óptica que recorren el dorso de la mano. Se crean pulsos de luz y cuando los dedos están doblados, la luz se filtra a través de pequeñas grietas y se registra la pérdida, dando una aproximación de la postura de la mano.
- Cámaras con reconocimiento de profundidad. Utilizando cámaras especializadas, como cámaras de luz estructurada o de tiempo de vuelo , se puede generar un mapa de profundidad de lo que se ve a través de la cámara a corta distancia y utilizar estos datos para aproximar una representación en 3D de lo que se ve. Estos pueden ser efectivos para la detección de gestos con las manos debido a sus capacidades de corto alcance. [19]
- Cámaras estéreo . Usando dos cámaras cuyas relaciones entre sí son conocidas, la salida de las cámaras puede aproximar una representación 3D. Para obtener las relaciones de las cámaras, se puede utilizar una referencia de posicionamiento como una banda lexiana o emisores de infrarrojos . [20] En combinación con la medición de movimiento directo ( 6D-Vision ), los gestos se pueden detectar directamente.
- Controladores basados en gestos. Estos controladores actúan como una extensión del cuerpo de modo que cuando se realizan gestos, parte de su movimiento puede ser capturado convenientemente por software. Un ejemplo de captura de movimiento emergente basada en gestos es a través del seguimiento de la mano esquelética , que se está desarrollando para aplicaciones de realidad virtual y realidad aumentada. Un ejemplo de esta tecnología lo muestran las empresas de seguimiento uSens y Gestigon , que permiten a los usuarios interactuar con su entorno sin controladores. [21] [22]
- Detección de Wi-Fi [23]
Otro ejemplo de esto son los seguimientos de gestos del mouse , donde el movimiento del mouse se correlaciona con un símbolo dibujado por la mano de una persona que puede estudiar los cambios en la aceleración a lo largo del tiempo para representar gestos. [24] [25] [26] El software también compensa el temblor humano y el movimiento involuntario. [27] [28] [29] Los sensores de estos cubos emisores de luz inteligentes se pueden usar para detectar manos y dedos, así como otros objetos cercanos, y se pueden usar para procesar datos. La mayoría de las aplicaciones se encuentran en la música y la síntesis de sonido, [30] pero pueden aplicarse a otros campos.
- Cámara única . Se puede usar una cámara 2D estándar para el reconocimiento de gestos donde los recursos / el entorno no serían convenientes para otras formas de reconocimiento basado en imágenes. Anteriormente se pensaba que una sola cámara podría no ser tan efectiva como las cámaras estéreo o sensibles a la profundidad, pero algunas empresas están desafiando esta teoría. Tecnología de reconocimiento de gestos basada en software que utiliza una cámara 2D estándar que puede detectar gestos robustos con las manos.
Algoritmos
Dependiendo del tipo de datos de entrada, el enfoque para interpretar un gesto podría realizarse de diferentes maneras. Sin embargo, la mayoría de las técnicas se basan en punteros clave representados en un sistema de coordenadas 3D. Basado en el movimiento relativo de estos, el gesto se puede detectar con una alta precisión, dependiendo de la calidad de la entrada y el enfoque del algoritmo.
Para interpretar los movimientos del cuerpo, hay que clasificarlos según las propiedades comunes y el mensaje que pueden expresar los movimientos. Por ejemplo, en lenguaje de señas cada gesto representa una palabra o frase.
Alguna literatura diferencia 2 enfoques diferentes en el reconocimiento de gestos: un modelo 3D y uno basado en apariencia. [31] El método más importante utiliza información 3D de elementos clave de las partes del cuerpo para obtener varios parámetros importantes, como la posición de la palma de la mano o los ángulos de las articulaciones. Por otro lado, los sistemas basados en apariencia utilizan imágenes o videos para la interpretación directa.
Algoritmos basados en modelos 3D
El enfoque del modelo 3D puede utilizar modelos volumétricos o esqueléticos, o incluso una combinación de los dos. Los enfoques volumétricos se han utilizado mucho en la industria de la animación por computadora y con fines de visión por computadora. Los modelos generalmente se crean a partir de superficies 3D complicadas, como NURBS o mallas poligonales.
El inconveniente de este método es que es muy intensivo en computación y aún no se han desarrollado sistemas para el análisis en tiempo real. Por el momento, un enfoque más interesante sería asignar objetos primitivos simples a las partes del cuerpo más importantes de la persona (por ejemplo, cilindros para los brazos y el cuello, esfera para la cabeza) y analizar la forma en que interactúan entre sí. Además, algunas estructuras abstractas como supercuadricas y cilindros generalizados pueden ser incluso más adecuadas para aproximar las partes del cuerpo.
Algoritmos basados en el esqueleto
En lugar de utilizar un procesamiento intensivo de los modelos 3D y tratar con muchos parámetros, se puede simplemente utilizar una versión simplificada de los parámetros de los ángulos de articulación junto con las longitudes de los segmentos. Esto se conoce como una representación esquelética del cuerpo, donde se calcula un esqueleto virtual de la persona y las partes del cuerpo se asignan a ciertos segmentos. El análisis aquí se realiza utilizando la posición y orientación de estos segmentos y la relación entre cada uno de ellos (por ejemplo, el ángulo entre las articulaciones y la posición u orientación relativa)
Ventajas de usar modelos esqueléticos:
- Los algoritmos son más rápidos porque solo se analizan los parámetros clave.
- Es posible la coincidencia de patrones con una base de datos de plantillas
- El uso de puntos clave permite que el programa de detección se centre en las partes importantes del cuerpo.
Modelos basados en apariencia
Estos modelos ya no usan una representación espacial del cuerpo, porque derivan los parámetros directamente de las imágenes o videos usando una base de datos de plantilla. Algunos se basan en las plantillas 2D deformables de las partes humanas del cuerpo, especialmente las manos. Las plantillas deformables son conjuntos de puntos en el contorno de un objeto, que se utilizan como nodos de interpolación para la aproximación del contorno del objeto. Una de las funciones de interpolación más simples es la lineal, que realiza una forma promedio a partir de conjuntos de puntos, parámetros de variabilidad de puntos y deformadores externos. Estos modelos basados en plantillas se utilizan principalmente para el seguimiento manual, pero también podrían ser útiles para una clasificación de gestos simple.
Un segundo enfoque en la detección de gestos utilizando modelos basados en la apariencia utiliza secuencias de imágenes como plantillas de gestos. Los parámetros de este método son las imágenes en sí mismas o ciertas características derivadas de ellas. La mayoría de las veces, solo se utiliza una vista (monoscópica) o dos (estereoscópica).
Modelos basados en electromiografía
La electromiografía (EMG) se refiere al estudio de las señales eléctricas producidas por los músculos del cuerpo. A través de la clasificación de los datos recibidos de los músculos del brazo, es posible clasificar la acción y así ingresar el gesto a un software externo. [1] Los dispositivos EMG de consumo permiten enfoques no invasivos, como una banda para el brazo o la pierna, y se conectan a través de bluetooth. Debido a esto, EMG tiene una ventaja sobre los métodos visuales, ya que el usuario no necesita estar frente a una cámara para dar entrada, lo que permite una mayor libertad de movimiento.
Desafíos
Existen muchos desafíos asociados con la precisión y la utilidad del software de reconocimiento de gestos. Para el reconocimiento de gestos basado en imágenes, existen limitaciones en el equipo utilizado y el ruido de la imagen . Es posible que las imágenes o los videos no estén bajo una iluminación constante o en el mismo lugar. Los elementos en segundo plano o las características distintivas de los usuarios pueden dificultar el reconocimiento.
La variedad de implementaciones para el reconocimiento de gestos basado en imágenes también puede causar problemas para la viabilidad de la tecnología para el uso general. Por ejemplo, es posible que un algoritmo calibrado para una cámara no funcione para otra cámara. La cantidad de ruido de fondo también causa dificultades de rastreo y reconocimiento, especialmente cuando ocurren oclusiones (parciales y totales). Además, la distancia a la cámara y la resolución y calidad de la cámara también provocan variaciones en la precisión del reconocimiento.
Para capturar los gestos humanos mediante sensores visuales, también se requieren métodos robustos de visión por computadora, por ejemplo, para el seguimiento de la mano y el reconocimiento de la postura de la mano [32] [33] [34] [35] [36] [37] [38] [39 ] [40] o para capturar movimientos de la cabeza, expresiones faciales o dirección de la mirada.
Aceptabilidad social
Un desafío importante para la adopción de interfaces de gestos en dispositivos móviles de consumo, como teléfonos inteligentes y relojes inteligentes, se deriva de las implicaciones de aceptabilidad social de la entrada de gestos. Si bien los gestos pueden facilitar la entrada rápida y precisa en muchas computadoras de factor de forma novedoso, su adopción y utilidad a menudo se ve limitada por factores sociales más que por factores técnicos. Con este fin, los diseñadores de métodos de entrada de gestos pueden buscar equilibrar tanto las consideraciones técnicas como la voluntad del usuario de realizar gestos en diferentes contextos sociales. [41] Además, diferentes dispositivos de hardware y mecanismos de detección admiten diferentes tipos de gestos reconocibles.
Dispositivo móvil
Las interfaces de gestos en dispositivos móviles y de factor de forma pequeño a menudo son compatibles con la presencia de sensores de movimiento, como unidades de medición inercial (IMU). En estos dispositivos, la detección de gestos se basa en que los usuarios realicen gestos basados en movimientos capaces de ser reconocidos por estos sensores de movimiento. Esto puede hacer que la captura de señales de gestos sutiles o de bajo movimiento sea un desafío, ya que pueden volverse difíciles de distinguir de los movimientos naturales o el ruido. A través de una encuesta y un estudio de la usabilidad de los gestos, los investigadores encontraron que los gestos que incorporan movimientos sutiles, que parecen similares a la tecnología existente, se ven o se sienten similares a todas las acciones, y que son agradables tenían más probabilidades de ser aceptados por los usuarios, mientras que los gestos que parecen extraños, incómodos de realizar, interfieren con la comunicación o involucran movimientos poco comunes que hacen que los usuarios rechacen su uso. [41] La aceptabilidad social de los gestos de los dispositivos móviles depende en gran medida de la naturalidad del gesto y el contexto social.
Ordenadores corporales y portátiles
Las computadoras portátiles suelen diferir de los dispositivos móviles tradicionales en que su ubicación de uso e interacción tiene lugar en el cuerpo del usuario. En estos contextos, las interfaces de gestos pueden convertirse en las preferidas sobre los métodos de entrada tradicionales, ya que su pequeño tamaño hace que las pantallas táctiles o los teclados sean menos atractivos. Sin embargo, comparten muchos de los mismos obstáculos de aceptabilidad social que los dispositivos móviles cuando se trata de interacción gestual. Sin embargo, la posibilidad de que las computadoras portátiles se oculten a la vista o se integren en otros objetos cotidianos, como la ropa, permite la entrada de gestos para imitar las interacciones comunes de la ropa, como ajustarse el cuello de una camisa o frotarse el bolsillo delantero del pantalón. [42] [43] Una consideración importante para la interacción con la computadora portátil es la ubicación para la ubicación y la interacción del dispositivo. Un estudio que exploraba las actitudes de terceros hacia la interacción de dispositivos portátiles realizado en Estados Unidos y Corea del Sur encontró diferencias en la percepción del uso de la informática portátil de hombres y mujeres, en parte debido a las diferentes áreas del cuerpo consideradas socialmente sensibles. [43] Otro estudio que investigó la aceptabilidad social de las interfaces proyectadas en el cuerpo encontró resultados similares, y ambos estudios etiquetaron las áreas alrededor de la cintura, la ingle y la parte superior del cuerpo (para las mujeres) como las menos aceptables, mientras que las áreas alrededor del antebrazo y la muñeca fueron más aceptable. [44]
Instalaciones publicas
Las instalaciones públicas , como las pantallas públicas interactivas, permiten el acceso a la información y la visualización de medios interactivos en entornos públicos como museos, galerías y teatros. [45] Si bien las pantallas táctiles son una forma frecuente de entrada para las pantallas públicas, las interfaces de gestos brindan beneficios adicionales como una mayor higiene, interacción a distancia, mejor capacidad de descubrimiento y pueden favorecer la interacción performativa. [42] Una consideración importante para la interacción gestual con exhibiciones públicas es la alta probabilidad o expectativa de una audiencia espectadora. [45]
"Brazo de gorila"
El "brazo de gorila" fue un efecto secundario de la pantalla táctil orientada verticalmente o el uso de lápiz óptico. En períodos de uso prolongado, los brazos de los usuarios comenzaron a sentir fatiga y / o malestar. Este efecto contribuyó a la disminución de la entrada de pantalla táctil a pesar de la popularidad inicial en la década de 1980. [46] [47]
Para medir la fatiga del brazo y el efecto secundario del brazo del gorila, los investigadores desarrollaron una técnica llamada Consumed Endurance. [48] [49]
Ver también
- Reconocimiento de actividad
- Estimación de la postura del cuerpo articulado
- Unidad principal automotriz
- Procesamiento informático del lenguaje corporal
- Estimación de pose 3D
- Gesto del dispositivo señalador
Referencias
- ^ a b Kobylarz, Jhonatan; Bird, Jordan J .; Faria, Diego R .; Ribeiro, Eduardo Parente; Ekárt, Anikó (7 de marzo de 2020). "Pulgar hacia arriba, pulgar hacia abajo: interacción no verbal humano-robot a través de la clasificación EMG en tiempo real a través del aprendizaje de transferencia transductiva inductiva y supervisada" . Revista de Inteligencia Ambiental y Computación Humanizada . Springer Science and Business Media LLC. doi : 10.1007 / s12652-020-01852-z . ISSN 1868-5137 .
- ^ Matthias Rehm, Nikolaus Bee, Elisabeth André, Wave Like an Egyptian - Reconocimiento de gestos basado en acelerómetro para interacciones culturales específicas , British Computer Society, 2007
- ^ "Patente paisaje informe reconocimiento de gestos de la mano PatSeer Pro" . PatSeer . Consultado el 2 de noviembre de 2017 .
- ^ Chai, Xiujuan, et al. " Reconocimiento y traducción de lengua de signos con kinect ". Conf. IEEE en AFGR. Vol. 655, 2013.
- ^ Sultana A, Rajapuspha T (2012), "Reconocimiento de gestos basado en la visión para gestos con las manos alfabéticas utilizando el clasificador SVM" , Revista internacional de tecnología de ingeniería y ciencias de la computación (IJCSET)., 2012
- ^ Pavlovic, V., Sharma, R. y Huang, T. (1997), "Interpretación visual de los gestos con las manos para la interacción humano-computadora: una revisión" , Transacciones IEEE sobre análisis de patrones e inteligencia de máquinas, julio de 1997. Vol. 19 (7), págs. 677 -695.
- ^ R. Cipolla y A. Pentland, Visión por computadora para la interacción humano-máquina , Cambridge University Press, 1998, ISBN 978-0-521-62253-0
- ^ Ying Wu y Thomas S. Huang, "Reconocimiento de gestos basado en la visión: una revisión" Archivado el 25 de agosto de 2011 en Wayback Machine , en: Comunicación basada en gestos en la interacción humano-computadora, volumen 1739 de Springer Lecture Notes in Computer Science, páginas 103-115, 1999, ISBN 978-3-540-66935-7 , doi : 10.1007 / 3-540-46616-9
- ^ Alejandro Jaimes y Nicu Sebe, Interacción multimodal humano-computadora: una encuesta Archivado 2011-06-06 en Wayback Machine , Computer Vision and Image Understanding Volume 108, Issues 1-2, October-November 2007, Pages 116-134 Special Issue sobre Visión para la interacción persona-computadora, doi : 10.1016 / j.cviu.2006.10.019
- ^ Dopertchouk, Oleg; "Reconocimiento de gestos de escritura a mano" , gamedev.net , 9 de enero de 2004
- ^ Chen, Shijie; "Técnicas de reconocimiento de gestos en la aplicación de reconocimiento de escritura a mano" , Fronteras en el reconocimiento de escritura a mano, págs. 142-147, noviembre de 2010
- ^ Balaji, R; Deepu, V; Madhvanath, Sriganesh; Prabhakaran, Jayasree "Reconocimiento de gestos manuscritos para teclado de gestos" Archivado el 6 de septiembre de 2008en Wayback Machine , Hewlett-Packard Laboratories
- ^ Dietrich Kammer, Mandy Keck, Georg Freitag, Markus Wacker, Taxonomía y descripción general de los marcos multitáctiles: arquitectura, alcance y características Archivado 2011-01-25 en Wayback Machine
- ^ "Definición de interfaz de usuario sin contacto de PC Magazine Encyclopedia" . pcmag.com . Consultado el 28 de julio de 2017 .
- ^ "Cómo COVID 19 puede cambiar la forma en que las personas trabajan con las aplicaciones de inicio de sesión de visitantes" . 22 de mayo de 2020.
- ^ V. Pallotta; P. Bruegger; B. Hirsbrunner (febrero de 2008). "Interfaces de usuario cinéticas: interacción física incorporada con sistemas de computación ubicuos móviles" . Avances en la Computación Ubicua: Paradigmas y Direcciones Futuros . Publicaciones IGI.
- ^ S. Benford; H. Schnadelbach; B. Koleva; B. Gaver; A. Schmidt; A. Boucher; A. Steed; R. Anastasi; C. Greenhalgh; T. Rodden; H. Gellersen (2003). "Sensible, sensible y deseable: un marco para diseñar interfaces físicas" (PDF) . CiteSeerX 10.1.1.190.2504 . Archivado desde el original (PDF) el 26 de enero de 2006. Cite journal requiere
|journal=
( ayuda ) - ^ Thomas G. Zimmerman, Jaron Lanier, Chuck Blanchard, Steve Bryson y Young Harvill. http://portal.acm.org . " UN DISPOSITIVO DE INTERFAZ DE GESTO DE MANO ". http://portal.acm.org .
- ^ Yang Liu, Yunde Jia, Un método robusto de seguimiento de manos y reconocimiento de gestos para interfaces visuales portátiles y sus aplicaciones , Actas de la Tercera Conferencia Internacional sobre Imagen y Gráficos (ICIG'04), 2004
- ^ Kue-Bum Lee, Jung-Hyun Kim, Kwang-Seok Hong, Una implementación de interfaz de juego multimodal basada en PDA , Quinta Conferencia Internacional sobre Investigación, Gestión y Aplicaciones de Ingeniería de Software, 2007
- ^ "Seguimiento de gestos Gestigon - TechCrunch Disrupt" . TechCrunch . Consultado el 11 de octubre de 2016 .
- ^ Matney, Lucas. "uSens muestra nuevos sensores de seguimiento que tienen como objetivo ofrecer experiencias más ricas para la realidad virtual móvil" . TechCrunch . Consultado el 29 de agosto de 2016 .
- ^ Khalili, Abdullah; Soliman, Abdel-Hamid; Asaduzzaman, Md; Griffiths, Alison (marzo de 2020). "Detección Wi-Fi: aplicaciones y desafíos" . La Revista de Ingeniería . 2020 (3): 87–97. doi : 10.1049 / joe.2019.0790 . ISSN 2051-3305 .
- ^ Per Malmestig, Sofie Sundberg, SignWiiver: implementación de la tecnología del lenguaje de señas. Archivado el 25 de diciembre de 2008 en Wayback Machine.
- ^ Thomas Schlomer, Benjamin Poppinga, Niels Henze, Susanne Boll, Reconocimiento de gestos con un controlador de Wii , Actas de la segunda conferencia internacional sobre interacción tangible e integrada, 2008
- ^ AiLive Inc., Libro blanco de LiveMove Archivado el 13 de julio de 2007 en Wayback Machine , 2006
- ^ Diseño electrónico 08 de septiembre de 2011. William Wong. La interfaz de usuario natural emplea la integración de sensores.
- ^ Cable & Satellite International septiembre / octubre de 2011. Stephen Cousins. Una vista a la emoción.
- ^ TechJournal South 7 de enero de 2008. Hillcrest Labs gana ronda de $ 25MD.
- ^ Blog de Percussa AudioCubes 4 de octubre de 2012. Control gestual en síntesis de sonido. Archivado el 10 de septiembre de 2015 en la Wayback Machine.
- ^ Vladimir I. Pavlovic, Rajeev Sharma, Thomas S. Huang, Interpretación visual de los gestos con las manos para la interacción humano-computadora ; Una revisión, IEEE Transactions on Pattern Analysis and Machine Intelligence, 1997
- ^ Ivan Laptev y Tony Lindeberg "Seguimiento de modelos de manos multiestado mediante filtrado de partículas y una jerarquía de características de imagen multiescala" , Actas de escala-espacio y morfología en visión por computadora, volumen 2106 de Springer Lecture Notes in Computer Science, páginas 63 -74, Vancouver, BC, 1999. ISBN 978-3-540-42317-1 , doi : 10.1007 / 3-540-47778-0
- ^ von Hardenberg, Christian; Bérard, François (2001). "Interacción humana-computadora a mano alzada". Actas del taller de 2001 sobre interfaces de usuario perceptivas . Serie de actas de conferencias internacionales de ACM. 15 archivo. Orlando Florida. págs. 1–8. CiteSeerX 10.1.1.23.4541 .
- ^ Lars Bretzner, Ivan Laptev, Tony Lindeberg "Reconocimiento de gestos con la mano utilizando características de color de múltiples escalas, modelos jerárquicos y filtrado de partículas" , Actas de la Quinta Conferencia Internacional IEEE sobre Reconocimiento Automático de Rostros y Gestos, Washington, DC, EE. UU., 21-21 Mayo de 2002, páginas 423-428. ISBN 0-7695-1602-5 , doi : 10.1109 / AFGR.2002.1004190
- ^ Domitilla Del Vecchio, Richard M. Murray Pietro Perona, "Descomposición del movimiento humano en primitivas basadas en dinámicas con aplicación a tareas de dibujo" Archivado 2010-02-02 en Wayback Machine , Automatica Volumen 39, Número 12, diciembre de 2003, Páginas 2085–2098, doi : 10.1016 / S0005-1098 (03) 00250-4 .
- ^ Thomas B. Moeslund y Lau Nørgaard, "Una breve descripción de los gestos con las manos utilizados en interfaces de computadora humana usable" Archivado 2011-07-19 en Wayback Machine , Informe técnico: CVMT 03-02, ISSN 1601-3646 , Laboratorio de Visión por Computador y Tecnología de Medios, Universidad de Aalborg, Dinamarca.
- ^ M. Kolsch y M. Turk "Seguimiento manual rápido 2D con bandadas de funciones e integración de múltiples señales" Archivado el21 de agosto de 2008en la Wayback Machine , CVPRW '04. Actas Taller de reconocimiento de patrones y visión por computadora, del 27 de mayo al 2 de junio de 2004, doi : 10.1109 / CVPR.2004.71
- ^ Xia Liu Fujimura, K., "Reconocimiento de gestos con la mano usando datos de profundidad", Actas de la Sexta Conferencia Internacional IEEE sobre Reconocimiento Automático de Rostros y Gestos, 17-19 de mayo de 2004, páginas 529-534, ISBN 0-7695-2122-3 , doi : 10.1109 / AFGR.2004.1301587 .
- ^ Stenger B, Thayananthan A, Torr PH, Cipolla R: "Seguimiento manual basado en modelos utilizando un filtro bayesiano jerárquico" , IEEE Transactions on IEEE Transactions on Pattern Analysis and Machine Intelligence, 28 (9): 1372-84, septiembre de 2006.
- ^ A Erol, G Bebis, M Nicolescu, RD Boyle, X Twombly, "Estimación de la postura de la mano basada en la visión: una revisión" , Computer Vision and Image Understanding Volume 108, Issues 1-2, October-November 2007, Pages 52-73 Número especial sobre la visión para la interacción persona-computadora, doi : 10.1016 / j.cviu.2006.10.012 .
- ^ a b Rico, Julie; Brewster, Stephen (2010). "Gestos utilizables para interfaces móviles: evaluación de la aceptabilidad social". Actas de la Conferencia SIGCHI sobre factores humanos en sistemas informáticos . CHI '10. Nueva York, NY, EE. UU .: ACM: 887–896. doi : 10.1145 / 1753326.1753458 . ISBN 9781605589299. S2CID 16118067 .
- ^ a b Walter, Robert; Bailly, Gilles; Müller, Jörg (2013). "StrikeAPose: Revelando gestos en el aire en pantallas públicas" . StrikeAPose . Actas de la Conferencia SIGCHI sobre factores humanos en sistemas informáticos - CHI '13 . Nueva York, Nueva York, Estados Unidos: ACM Press. págs. 841–850. doi : 10.1145 / 2470654.2470774 . ISBN 9781450318990. S2CID 2041073 .
- ^ a b Profita, Halley P .; Clawson, James; Gilliland, Scott; Zeagler, Clint; Starner, Thad; Budd, Jim; Hacer, Ellen Yi-Luen (2013). "No te preocupes por tocar mi muñeca: un estudio de caso de interacción con tecnología corporal en público". Actas del Simposio internacional de 2013 sobre computadoras portátiles . ISWC '13. Nueva York, NY, EE. UU .: ACM: 89–96. doi : 10.1145 / 2493988.2494331 . ISBN 9781450321273. S2CID 3236927 .
- ^ Harrison, Chris; Faste, Haakon (2014). "Implicaciones de la ubicación y el tacto para las interfaces proyectadas en el cuerpo". Actas de la Conferencia de 2014 sobre diseño de sistemas interactivos . DIS '14. Nueva York, NY, EE. UU .: ACM: 543–552. doi : 10.1145 / 2598510.2598587 . ISBN 9781450329026. S2CID 1121501 .
- ^ a b Reeves, Stuart; Benford, Steve; O'Malley, Claire; Fraser, Mike (2005). "Diseñando la experiencia del espectador" (PDF) . Actas de la Conferencia SIGCHI sobre factores humanos en sistemas informáticos - CHI '05 . Nueva York, Nueva York, EE.UU .: ACM Press: 741. doi : 10.1145 / 1054972.1055074 . ISBN 978-1581139983. S2CID 5739231 .
- ^ Rupert Goodwins. "¿Windows 7? Sin brazo" . ZDNet .
- ^ "brazo de gorila" . catb.org .
- ^ Hincapié-Ramos, JD, Guo, X., Moghadasian, P. e Irani. P. 2014. "Resistencia consumida: una métrica para cuantificar la fatiga del brazo de las interacciones en el aire" . En Actas de la 32ª conferencia anual de ACM sobre factores humanos en sistemas informáticos (CHI '14). ACM, Nueva York, NY, EE. UU., 1063–1072. DOI = 10.1145 / 2556288.2557130
- ^ Hincapié-Ramos, JD, Guo, X. e Irani, P. 2014. "El banco de trabajo de resistencia consumida: una herramienta para evaluar la fatiga del brazo durante las interacciones en el aire" . En Actas de la publicación complementaria de 2014 sobre Diseño de sistemas interactivos (DIS Companion '14). ACM, Nueva York, NY, EE. UU., 109-112. DOI = 10.1145 / 2598784.2602795
enlaces externos
- Bibliografía comentada de referencias a gestos y computación con lápiz
- Notas sobre la historia de la informática basada en lápiz (YouTube)
- El futuro, todo es un gesto : interfaces de gestos y videojuegos
- Anuncio gestualmente interactivo de Ford: gestos utilizados para interactuar con la señalización digital
- Seguimiento de la mano en 3D: una encuesta de literatura