De Wikipedia, la enciclopedia libre
Saltar a navegación Saltar a búsqueda

La cinematografía virtual es el conjunto de técnicas cinematográficas realizadas en un entorno de infografía . Incluye una amplia variedad de temas como fotografiar objetos reales, a menudo con configuración estéreo o multicámara , con el fin de recrearlos como objetos tridimensionales y algoritmos para la creación automatizada de ángulos de cámara reales y simulados . La cinematografía virtual se puede utilizar para filmar escenas desde ángulos de cámara que de otro modo serían imposibles, crear la fotografía de películas animadas y manipular la apariencia de efectos generados por computadora.

Historia [ editar ]

Primeras etapas [ editar ]

Un ejemplo temprano de una película que integra un entorno virtual es la película de 1998, What Dreams May Come , protagonizada por Robin Williams . El equipo de efectos especiales de la película utilizó planos de construcción reales para generar modelos de estructura metálica a escala que luego se utilizaron para generar el mundo virtual. [1] La película obtuvo numerosas nominaciones y premios, incluido el Premio de la Academia a los Mejores Efectos Visuales y el Premio del Gremio de Directores de Arte a la Excelencia en Diseño de Producción. [2] El término "cinematografía virtual" surgió en 1999 cuando el artista de efectos especiales John Gaeta y su equipo quisieron nombrar las nuevas tecnologías cinematográficas que habían creado. [3]

Cinematografía virtual moderna [ editar ]

La trilogía Matrix ( The Matrix , The Matrix Reloaded y The Matrix Revolutions ) utilizó las primeras técnicas de Cinematografía Virtual para desarrollar una "filmación" virtual de imágenes realistas generadas por computadora. El resultado de John Gaeta y su equipo en el trabajo de ESC Entertainment fue la creación de versiones CGI fotorrealistas de los artistas, escenarios y acciones. Su trabajo se basó en los hallazgos de Paul Debevec et al. Sobre la adquisición y posterior simulación del campo de reflectancia sobre el rostro humano adquirido utilizando la más simple de las etapas de luz en 2000. [4]Escenas famosas que habría sido imposible o extremadamente mucho tiempo para producir en el contexto de la cinematografía tradicional incluyen la pelea corpulento en The Matrix Reloaded (2003), donde Neo lucha hasta a 100 agentes Smith y el comienzo del enfrentamiento final en el Matrix Revolutions (2003), donde Neo [5] le da un puñetazo al pómulo del Agente Smith, dejando ileso el aspecto digital.

Para la trilogía de Matrix , los realizadores se basaron en gran medida en la cinematografía virtual para atraer al público. Bill Pope , director de fotografía , utilizó esta herramienta de una manera mucho más sutil. No obstante, estas escenas lograron alcanzar un alto nivel de realismo y dificultaron que la audiencia se diera cuenta de que en realidad estaban viendo una toma creada en su totalidad por artistas de efectos visuales utilizando herramientas de gráficos por computadora en 3D. [6]

En Spider-Man 2 (2004), los realizadores manipularon las cámaras para que el público se sintiera como si se balancearan junto a Spider-Man por la ciudad de Nueva York. Usando el radar de la cámara de captura de movimiento , el camarógrafo se mueve simultáneamente con la animación mostrada. [7] Esto hace que la audiencia experimente la perspectiva de Spider-Man y aumenta el sentido de la realidad. En Avengers: Infinity War (2018), las escenas de la secuencia de Titán se crearon utilizando cinematografía virtual. Para hacer la escena más realista, los productores decidieron volver a filmar toda la escena con una cámara diferente para que viajara de acuerdo con el movimiento del Titán. [8]Los realizadores produjeron lo que se conoce como destello de lente sintética, lo que hace que el destello sea muy similar al metraje producido originalmente. Cuando se rehizo la clásica película animada El Rey León en 2019, los productores utilizaron la cinematografía virtual para hacer una animación realista. En la escena de batalla final entre Scar y Simba , el camarógrafo vuelve a mover la cámara según los movimientos de los personajes. [9] El objetivo de esta tecnología es sumergir aún más a la audiencia en la escena.

Métodos [ editar ]

Cinematografía virtual en postproducción [ editar ]

En posproducción , se utilizan tecnologías avanzadas para modificar, redirigir y mejorar las escenas capturadas en el set. Las configuraciones estéreo o multicámara fotografían objetos reales de tal manera que se pueden recrear como objetos y algoritmos 3D. Los equipos de captura de movimiento , como los puntos de seguimiento y las cámaras de los cascos, se pueden utilizar en el set para facilitar la recopilación de datos retroactivos en la posproducción. [10]

La tecnología de visión artificial llamada fotogrametría utiliza escáneres 3D para capturar geometría 3D. Por ejemplo, el escáner Arius 3D utilizado para las secuelas de Matrix pudo adquirir detalles como arrugas finas y poros de la piel tan pequeños como 100 µm. [4]

Los cineastas también han experimentado con equipos multicámara para capturar datos de movimiento sin ningún equipo de captura de movimiento en el set. Por ejemplo, se utilizó una técnica de captura de movimiento sin marcadores y de captura fotogramétrica de configuración multicámara llamada flujo óptico para crear imágenes digitales para las películas Matrix. [4]

Más recientemente, la película policial de Martin Scorsese , The Irishman, utilizó un sistema de captura facial completamente nuevo desarrollado por Industrial Light & Magic (ILM) que utilizaba una plataforma especial que constaba de dos cámaras digitales colocadas a ambos lados de la cámara principal para capturar datos de movimiento en en tiempo real con las principales actuaciones. En posproducción, estos datos se utilizaron para renderizar digitalmente versiones de los actores generadas por computadora. [11] [12]

Los equipos de cámaras virtuales brindan a los directores de fotografía la capacidad de manipular una cámara virtual dentro de un mundo 3D y fotografiar los modelos 3D generados por computadora . Una vez que el contenido virtual se ha ensamblado en una escena dentro de un motor 3D , las imágenes se pueden componer, volver a iluminar y volver a fotografiar de forma creativa desde otros ángulos como si la acción estuviera sucediendo por primera vez. La “filmación” virtual de este CGI realista también permite movimientos de cámara físicamente imposibles, como las escenas en tiempo de bala en The Matrix . [4]

La cinematografía virtual también se puede utilizar para construir mundos virtuales completos desde cero. Controladores de movimiento e interfaces de tableta más avanzados han hecho posibles estas técnicas de visualización dentro de las limitaciones presupuestarias de las producciones de películas más pequeñas. [13]

Efectos en el set [ editar ]

La adopción generalizada de efectos visuales generó el deseo de producir estos efectos directamente en el set de manera que no perjudicaran las interpretaciones de los actores. [14] Los artistas de efectos comenzaron a implementar técnicas cinematográficas virtuales en el set, haciendo que los elementos generados por computadora de una toma determinada fueran visibles para los actores y directores de fotografía responsables de capturarla. [13]

Técnicas como la renderización en tiempo real , que permite crear un efecto antes de filmar una escena en lugar de insertarla digitalmente después, utilizan tecnologías que antes no estaban relacionadas, incluidos motores de videojuegos, proyectores y cámaras avanzadas para fusionar la cinematografía convencional con su contraparte virtual. [15] [16] [17]

El primer efecto de película en tiempo real fue desarrollado por Industrial Light & Magic junto con Epic Games , utilizando Unreal Engine para mostrar el clásico efecto de "velocidad de la luz" de Star Wars para la película de 2018 Solo: A Star Wars Story . [15] [18] La tecnología utilizada para la película, apodada "Stagecraft" por sus creadores, fue posteriormente utilizada por ILM para varios proyectos de Star Wars, así como para el remake animado fotorrealista de 2019 de su empresa matriz, Disney , de El Rey León . [19] [20]

En lugar de escanear y representar una imagen existente con técnicas cinematográficas virtuales, los efectos en tiempo real requieren un trabajo extra mínimo en la postproducción. Las tomas que incluyen la cinematografía virtual en el set no requieren ninguno de los métodos avanzados de posproducción; los efectos se pueden lograr utilizando la animación CGI tradicional.

Software [ editar ]

  • Autodesk Maya es un software de gráficos por computadora en 3D que se ejecuta en Windows , OS X y Linux .
  • Autodesk 3ds Max es un programa profesional de gráficos por computadora en 3D para crear animaciones, modelos, juegos e imágenes en 3D solo para Windows.
  • Blender (software) es un producto de software de gráficos por computadora en 3D gratuito y de código abierto que se utiliza para crear películas animadas, efectos visuales, arte, modelos impresos en 3D, aplicaciones interactivas en 3D y videojuegos, destinado a los directores de fotografía virtuales de bricolaje .
  • El software Pointstream de Arius3D es un sistema de flujo óptico y captura de movimiento denso profesional que utiliza un píxel y su movimiento como unidad de seguimiento, generalmente en una configuración de varias cámaras .

Ver también [ editar ]

  • Historia de la animación por computadora
  • Cronología de la animación por computadora en cine y televisión
  • Cronología de CGI en películas
  • Sistema de cámara virtual
  • Volumografía

Referencias [ editar ]

  1. Silberman, Steve (1 de mayo de 2003). "MATRIX2" . Cableado . ISSN  1059-1028 . Consultado el 2 de abril de 2020 .
  2. ^ What Dreams May Come - IMDb , consultado el 2 de abril de 2020
  3. ^ "VFXPro - El recurso diario de efectos visuales" . 2004-03-18. Archivado desde el original el 18 de marzo de 2004 . Consultado el 2 de abril de 2020 .
  4. ^ a b c d "Adquirir el campo de reflectancia de un rostro humano | Actas de la 27ª conferencia anual sobre gráficos por computadora y técnicas interactivas". doi : 10.1145 / 344779.344855 . S2CID 2860203 .  Cite journal requiere |journal=( ayuda )
  5. ^ George Borshukov, presentado en Imagina'04. "Making of The Superpunch" (PDF).
  6. ^ David Fincher - Detalles invisibles , consultado el 2 de abril de 2020
  7. The Amazing Spider-Man 2 - Virtual Cinematography , consultado el 2 de abril de 2020
  8. ^ Vengadores: Infinity War VFX | Breakdown - Cinematografía | Weta Digital , consultado el 2 de abril de 2020
  9. ^ El Rey León: cinematografía virtual y efectos visuales , consultado el 2 de abril de 2020
  10. Breznican, Anthony. "El irlandés, Vengadores: final del juego y la tecnología de envejecimiento que podría cambiar la actuación para siempre" . Feria de la vanidad . Consultado el 3 de abril de 2020 .
  11. ^ "Robert De Niro dijo que no hay pantalla verde. No hay puntos en la cara. Cómo el envejecimiento de 'El irlandés' cambia Hollywood" . Los Angeles Times . 2020-01-02 . Consultado el 3 de abril de 2020 .
  12. Desowitz, Bill (6 de diciembre de 2019). " ' El irlandés': cómo los innovadores efectos visuales de reducción del envejecimiento de Industrial Light & Magic rescataron Mob Epic de Martin Scorsese" . IndieWire . Consultado el 3 de abril de 2020 .
  13. ^ a b "Cinematografía virtual: más allá de la producción de un gran estudio | IDEA: E-REPOSITORY Y ARCHIVOS DE BIBLIOTECAS DREXEL" . idea.library.drexel.edu . Consultado el 2 de abril de 2020 .
  14. ^ "Sir Ian McKellen: filmar El Hobbit me hizo pensar que debería dejar de actuar" . Radio Times . Consultado el 2 de abril de 2020 .
  15. ↑ a b Roettgers, Janko (15 de mayo de 2019). "Cómo los motores de videojuegos ayudan a crear efectos visuales en escenarios de películas en tiempo real" . Variedad . Consultado el 2 de abril de 2020 .
  16. ^ CISIS 2016: Décima Conferencia Internacional de 2016 sobre Sistemas Intensivos de Software, Inteligentes y Complejos: actas: Instituto de Tecnología de Fukuoka (FIT), Fukuoka, Japón, 6-8 de julio de 2016 . Barolli, Leonard ,, Xhafa, Fatos ,, Ikeda, Makoto ,, Instituto de Tecnología de Fukuoka ,, IEEE Computer Society ,, Instituto de Ingenieros Eléctricos y Electrónicos. Los Alamitos, CA. ISBN 9781509009879. OCLC  972631841 .CS1 maint: others (link)
  17. ^ Choi, Wanho; Lee, Taehyung; Kang, Wonchul (2019). "Más allá de la pantalla" . SIGGRAPH Asia 2019 Technical Briefs on - SA '19 . Brisbane, Queensland, Australia: ACM Press: 65–66. doi : 10.1145 / 3355088.3365140 . ISBN 978-1-4503-6945-9. S2CID  184931978 .
  18. ^ www.unrealengine.com https://www.unrealengine.com/en-US/spotlights/unreal-engine-powers-ilm-s-vr-virtual-production-toolset-on-solo-a-star-wars- historia. Consultado el 2 de abril de 2020 . Falta o vacío |title=( ayuda )
  19. ^ "Cómo la nueva tecnología" Stagecraft "de Lucasfilm dio vida a 'The Mandalorian' y puede cambiar el futuro de la televisión" . / Película . 2019-11-20 . Consultado el 2 de abril de 2020 .
  20. ^ " La realidad virtual de ' El Rey León' ayudó a hacer un éxito. También podría cambiar la realización de películas" . Los Angeles Times . 2019-07-26 . Consultado el 2 de abril de 2020 .

Lectura adicional [ editar ]

  • Debevec, Paul (2006). "Cinematografía virtual: iluminación a través de la computación" (PDF) . Computadora . IEEE. 39 (8): 57–65. doi : 10.1109 / MC.2006.285 . ISSN  0018-9162 . S2CID  11904037 . Archivado desde el original (PDF) el 2007-02-09 . Consultado el 6 de noviembre de 2006 .
  • Jhala, Arnav (2005). "Introducción a la cinematografía virtual" (PDF) . Universidad Estatal de Carolina del Norte. Archivado desde el original (PDF) el 2007-01-02 . Consultado el 6 de noviembre de 2006 . Cite journal requires |journal= (help)
  • Newman, Bruce (2003). " Secuela de ' Matrix': Cinematografía Virtual" . Noticias de San José Mercury . Archivado desde el original el 27 de abril de 2006 . Consultado el 7 de noviembre de 2006 .