Animación facial por computadora


La animación facial por computadora es principalmente un área de gráficos por computadora que encapsula métodos y técnicas para generar y animar imágenes o modelos de la cara de un personaje. El personaje puede ser un humano , un humanoide, un animal , una criatura o personaje legendario , etc. Por su temática y tipo de producción, también se relaciona con muchos otros campos científicos y artísticos desde la psicología hasta la animación tradicional . La importancia de los rostros humanos en la comunicación verbal y no verbal y los avances en hardware y software de gráficos por computadorahan causado un considerable interés científico, tecnológico y artístico en la animación facial por computadora.

Aunque el desarrollo de métodos de gráficos por computadora para la animación facial comenzó a principios de la década de 1970, los principales logros en este campo son más recientes y ocurrieron desde finales de la década de 1980.

El cuerpo de trabajo en torno a la animación facial por computadora se puede dividir en dos áreas principales: técnicas para generar datos de animación y métodos para aplicar dichos datos a un personaje. Las técnicas como la captura de movimiento y los fotogramas clave pertenecen al primer grupo, mientras que la animación de objetivos metamorfos (más comúnmente conocida como animación blendshape) y la animación esquelética pertenecen al segundo. La animación facial se ha vuelto muy conocida y popular a través de largometrajes animados y juegos de computadora, pero sus aplicaciones incluyen muchas más áreas, como comunicación , educación , simulación científica y agentes .basados ​​en sistemas (por ejemplo, representantes de servicio al cliente en línea). Con los avances recientes en el poder computacional en dispositivos personales y móviles , la animación facial ha pasado de aparecer en contenido prerenderizado a crearse en tiempo de ejecución.

La expresión facial humana ha sido objeto de investigación científica durante más de cien años. El estudio de los movimientos y expresiones faciales partió de un punto de vista biológico. Después de algunas investigaciones anteriores, por ejemplo, de John Bulwer a fines de la década de 1640, el libro de Charles Darwin La expresión de las emociones en hombres y animales puede considerarse un punto de partida importante para la investigación moderna en biología del comportamiento .

El modelado y la animación de expresiones faciales basados ​​en computadora no es un esfuerzo nuevo. El primer trabajo con representación facial basada en computadora se realizó a principios de la década de 1970. Parke creó la primera animación facial tridimensional en 1972. En 1973, Gillenson desarrolló un sistema interactivo para ensamblar y editar imágenes faciales dibujadas con líneas. en 1974, Parke desarrolló un modelo facial tridimensional parametrizado.

Uno de los intentos más importantes para describir los movimientos faciales fue el Sistema de Codificación de Acción Facial (FACS). Originalmente desarrollado por Carl-Herman Hjortsjö [1] en la década de 1960 y actualizado por Ekman y Friesen en 1978, FACS define 46 unidades de acción facial (AU) básicas. Un grupo importante de estas Unidades de Acción representa movimientos primitivos de los músculos faciales en acciones como levantar las cejas, guiñar el ojo y hablar. Ocho AU son para movimientos tridimensionales rígidos de la cabeza (es decir, girar e inclinarse hacia la izquierda y hacia la derecha y subir, bajar, avanzar y retroceder). FACS se ha utilizado con éxito para describir los movimientos deseados de rostros sintéticos y también para rastrear actividades faciales.


Captura de pantalla del cortometraje animado "Kara" de Quantic Dream