En informática , una interfaz de usuario natural , o NUI , o interfaz natural es una interfaz de usuario que es efectivamente invisible y permanece invisible a medida que el usuario aprende continuamente interacciones cada vez más complejas. Se utiliza la palabra natural porque la mayoría de las interfaces de computadora utilizan dispositivos de control artificiales cuyo funcionamiento debe aprenderse.
Un NUI se basa en que un usuario pueda pasar rápidamente de novato a experto. Si bien la interfaz requiere aprendizaje, ese aprendizaje se facilita a través del diseño, lo que le da al usuario la sensación de que tiene éxito de manera instantánea y continua. Por lo tanto, "natural" se refiere a un objetivo en la experiencia del usuario: que la interacción sea natural, mientras se interactúa con la tecnología, en lugar de que la interfaz en sí sea natural. Esto se contrasta con la idea de una interfaz intuitiva , refiriéndose a una que se puede utilizar sin necesidad de conocimientos previos.
Se han propuesto varias estrategias de diseño que han cumplido este objetivo con diversos grados de éxito. Una estrategia es el uso de una " interfaz de usuario de realidad " (" RUI "), [1] también conocida como métodos de " interfaces basadas en la realidad " ( RBI ). Un ejemplo de una estrategia de RUI es utilizar una computadora portátil para hacer que los objetos del mundo real "se puedan hacer clic", es decir, para que el usuario pueda hacer clic en cualquier objeto cotidiano para que funcione como un hipervínculo, fusionando así el ciberespacio y el mundo real. . Debido a que el término "natural" evoca el "mundo natural", las RBI a menudo se confunden con NUI, cuando en realidad son simplemente un medio para lograrlo.
Un ejemplo de una estrategia para diseñar una NUI no basada en RBI es la limitación estricta de la funcionalidad y la personalización, de modo que los usuarios tengan muy poco que aprender en el funcionamiento de un dispositivo. Siempre que las capacidades predeterminadas coincidan con los objetivos del usuario, la interfaz es fácil de usar. Esta es una estrategia de diseño general en iOS de Apple. [ cita requerida ] Debido a que este diseño coincide con una pantalla táctil directa, los no diseñadores comúnmente atribuyen erróneamente la facilidad de interactuar con el dispositivo a esa pantalla multitáctil, y no al diseño del software donde realmente reside.
Historia
En la década de 1990, Steve Mann desarrolló una serie de estrategias de interfaz de usuario utilizando la interacción natural con el mundo real como alternativa a una interfaz de línea de comandos (CLI) o interfaz gráfica de usuario (GUI). Mann se refirió a este trabajo como "interfaces de usuario naturales", "interfaces de usuario directas" y "computación sin metáforas". [2] La tecnología EyeTap de Mann representa típicamente un ejemplo de una interfaz de usuario natural. El uso que hace Mann de la palabra "natural" se refiere tanto a la acción que resulta natural para los usuarios humanos, como al uso de la naturaleza misma, es decir, la física ( filosofía natural ) y el entorno natural. Un buen ejemplo de una NUI en ambos sentidos es la hidraulófono , especialmente cuando se utiliza como dispositivo de entrada, en el que tocar un elemento natural (agua) se convierte en una forma de introducir datos. De manera más general, una clase de instrumentos musicales llamados "physiphones", así llamados de las palabras griegas "physika", "physikos" (naturaleza) y "phone" (sonido) también se han propuesto como "interfaces de usuario basadas en la naturaleza". [3]
En 2006, Christian Moore estableció una comunidad de investigación abierta con el objetivo de ampliar la discusión y el desarrollo relacionados con las tecnologías NUI. [4] En una presentación de la conferencia de 2008 "Predicting the Past", August de los Reyes, director principal de experiencia de usuario de Surface Computing en Microsoft, describió la NUI como la siguiente fase evolutiva después del cambio de la CLI a la GUI. [5] Por supuesto, esto también es una simplificación excesiva, ya que las NUI necesariamente incluyen elementos visuales y, por lo tanto, interfaces gráficas de usuario. Una descripción más precisa de este concepto sería describirlo como una transición de WIMP a NUI.
En la CLI, los usuarios tenían que aprender un medio de entrada artificial, el teclado y una serie de entradas codificadas, que tenían un rango limitado de respuestas, donde la sintaxis de esos comandos era estricta.
Luego, cuando el mouse habilitó la GUI, los usuarios pudieron aprender más fácilmente los movimientos y acciones del mouse, y pudieron explorar la interfaz mucho más. La GUI se basó en metáforas para interactuar con contenido u objetos en pantalla. El "escritorio" y el "arrastre", por ejemplo, son metáforas de una interfaz visual que finalmente fue traducida al estricto lenguaje codificado de la computadora.
Un ejemplo del malentendido del término NUI se demostró en el Consumer Electronics Show en 2010. "Ahora una nueva ola de productos está preparada para llevar interfaces de usuario naturales, como se denominan estos métodos de control de dispositivos electrónicos, a una audiencia aún más amplia. " [6]
En 2010, Bill Buxton de Microsoft reiteró la importancia de la NUI dentro de Microsoft Corporation con un video que analiza las tecnologías que podrían usarse para crear una NUI y su potencial futuro. [7]
En 2010, Daniel Wigdor y Dennis Wixon proporcionaron una operacionalización de la construcción de interfaces de usuario naturales en su libro. [8] En él, distinguen cuidadosamente entre interfaces de usuario naturales, las tecnologías utilizadas para lograrlas y la interfaz de usuario basada en la realidad.
Primeros ejemplos
Multitáctil
Cuando se le preguntó a Bill Buxton sobre la interfaz del iPhone, respondió: "Las tecnologías multitáctiles tienen una larga historia. Para ponerlo en perspectiva, el trabajo original realizado por mi equipo se realizó en 1984, el mismo año en que se lanzó la primera computadora Macintosh". , y no fuimos los primeros ". [9]
Multi-Touch es una tecnología que podría permitir una interfaz de usuario natural. Sin embargo, la mayoría de los kits de herramientas de UI que se utilizan para construir interfaces ejecutadas con dicha tecnología son GUI tradicionales.
Ejemplos de interfaces comúnmente denominadas NUI
Pixel perceptivo
Un ejemplo es el trabajo realizado por Jefferson Han en interfaces multitáctiles . En una demostración en TED en 2006, mostró una variedad de formas de interactuar con el contenido en pantalla utilizando tanto manipulaciones directas como gestos. Por ejemplo, para dar forma a una masa glutinosa en la pantalla, Jeff literalmente 'pellizca' y pincha y empuja con los dedos. En una interfaz GUI para una aplicación de diseño, por ejemplo, un usuario usaría la metáfora de 'herramientas' para hacer esto, por ejemplo, seleccionando una herramienta de empuje o seleccionando dos partes de la masa que luego querían aplicar un 'pellizco' acción para. Han demostró que la interacción del usuario podría ser mucho más intuitiva eliminando los dispositivos de interacción a los que estamos acostumbrados y reemplazándolos por una pantalla que fuera capaz de detectar una gama mucho más amplia de acciones y gestos humanos. Por supuesto, esto solo permite un conjunto muy limitado de interacciones que se asignan claramente a la manipulación física (RBI). Ampliar las capacidades del software más allá de las acciones físicas requiere mucho más trabajo de diseño.
Microsoft PixelSense
Microsoft PixelSense toma ideas similares sobre cómo los usuarios interactúan con el contenido, pero agrega la capacidad del dispositivo para reconocer ópticamente los objetos colocados encima. De esta manera, los usuarios pueden activar acciones en la computadora a través de los mismos gestos y movimientos que permitía la pantalla táctil de Jeff Han, pero también los objetos pasan a formar parte de los mecanismos de control. Entonces, por ejemplo, cuando coloca una copa de vino en la mesa, la computadora la reconoce como tal y muestra el contenido asociado con esa copa de vino. Colocar una copa de vino en una mesa se relaciona bien con las acciones realizadas con copas de vino y otras mesas y, por lo tanto, se proyecta bien en interfaces basadas en la realidad. Por lo tanto, podría verse como una entrada a una experiencia NUI.
Toque inmersivo 3D
"3D Immersive Touch" se define como la manipulación directa de objetos del entorno virtual 3D utilizando hardware de superficie de un solo toque o multitáctil en entornos virtuales 3D multiusuario. Acuñado por primera vez en 2007 para describir y definir los principios de aprendizaje de la interfaz de usuario natural 3D asociados con Edusim. La interfaz de usuario natural de Immersive Touch ahora parece estar adquiriendo un enfoque y un significado más amplios con la adaptación más amplia de hardware de superficie y táctil, como el iPhone, iPod touch, iPad y una lista cada vez mayor de otro hardware. Apple también parece estar muy interesado en las interfaces de usuario naturales 3D “Immersive Touch” en los últimos años. Este trabajo se basa en la amplia base académica que ha estudiado la manipulación 3D en entornos de realidad virtual.
Xbox Kinect
Kinect es un dispositivo de entrada de detección de movimiento de Microsoft para la consola de videojuegos Xbox 360 y PC con Windows que utiliza gestos espaciales para la interacción en lugar de un controlador de juego . Según la página de Microsoft , Kinect está diseñado para "una nueva y revolucionaria forma de jugar: no se requiere controlador". [10] Nuevamente, debido a que Kinect permite la detección del mundo físico, muestra potencial para diseños RBI y, por lo tanto, potencialmente también para NUI.
Ver también
- Edusim
- Registro visual
- Interfaz de usuario cinética
- Interfaz de usuario orgánica
- Asistente personal inteligente
- Post-WIMP
- Entrada de scratch
- Navegación espacial
- Interfaz de usuario tangible
- Interfaz de usuario táctil
Notas
- ^ Interfaz de usuario de realidad (RUI) , en el documento del discurso inaugural de clausura, titulado "Yo reconfigurado como base para la inteligencia humanística", Steve Mann, USENIX-98, Nueva Orleans del 15 al 19 de junio de 1998, publicado en: ATEC '98 Actas de la conferencia anual sobre la Conferencia Técnica Anual de USENIX Asociación USENIX Berkeley, CA, EE. UU. © 1998
- ^ Procesamiento inteligente de imágenes, John Wiley and Sons, 2001
- ^ Interfaces naturales para la expresión musical, Steve Mann, Nime 2007
- ↑ Moore, Christian (15 de julio de 2006). "Nueva Comunidad Abierta" . Comunidad del Grupo NUI.
- ^ de los Reyes, agosto (25 de septiembre de 2008). "Predecir el pasado" . Direcciones web Sur 2008 . Centro de convenciones de Sydney: direcciones web.
- ^ Wingfield, Nick (5 de enero de 2010). "Cuerpo en movimiento: CES para mostrar artilugios táctiles" . Wall Street Journal.
- ^ Buxton, Bill (6 de enero de 2010). "CES 2010: NUI con Bill Buxton" . Investigación de Microsoft.
- ^ Mundo valiente de NUI
- ^ Buxton, Bill. "Sistemas Multi-Touch que he conocido y amado" . Bill Buxton.
- ^ "Proyecto Xbox.com Natal" . Archivado desde el original el 9 de julio de 2009 . Consultado el 2 de agosto de 2009 .
Referencias
- http://blogs.msdn.com/surface/archive/2009/02/25/what-is-nui.aspx
- https://www.amazon.com/Brave-NUI-World-Designing-Interfaces/dp/0123822319/ref=sr_1_1?ie=UTF8&qid=1329478543&sr=8-1 El libro Brave NUI World de los creadores de NUI de Microsoft Surface