Composición de imagen profunda


La composición profunda de imágenes es una forma de composición y renderización de imágenes digitales que ha surgido recientemente . Además de los canales habituales de color y opacidad, se crea una noción de profundidad. Esto permite que múltiples muestras en la profundidad de la imagen compongan el color resultante final. Esta técnica produce resultados de alta calidad y elimina los artefactos alrededor de los bordes que no podrían tratarse de otra manera.

Los renderizadores 3D avanzados codifican los datos profundos en una imagen que muestra información sobre la ruta que toma cada píxel renderizado a lo largo del eje z que se extiende hacia afuera desde la cámara virtual a través del espacio, incluido el color y la opacidad de cada superficie o volumen no opaco por el que pasa. en el camino, así como muestras vecinas. Podría considerarse algo análogo a la forma en que el trazado de rayos genera trayectorias de fotones simuladas a través de tales medios; sin embargo, el trazado de rayos y otras técnicas de reproducción tradicionales generalmente producen imágenes que contienen solo tres o cuatro canales de valores de color y opacidad por píxel, aplanadas en un marco bidimensional. Asimismo, aunque los mapas de profundidadcontienen información del eje z y han sido de gran ayuda para los compositores por combinar renderizados 3D con acción en vivo y elementos prácticos, los mapas son relativamente limitados en comparación con las imágenes de datos profundos, ya que solo ofrecen un valor de profundidad de escala de grises de ocho bits para cada píxel. Incluso la popular adición de criptomatos a muchos canales de postproducción y estudios de VFX , al tiempo que proporciona formas de identificación codificadas por colores separadas para elementos individuales en una escena renderizada para cerrar aún más la brecha entre CGI y composición, no permite lo casi automatizado y totalmente no linealflujos de trabajo que hacen los datos profundos. Esto se debe a que las imágenes profundas encapsulan suficiente información 3D, por lo que las tareas que normalmente requieren mucho tiempo, como, por ejemplo, rotoscopiar numerosos mates de retención para interacciones complejas entre personajes en movimiento y volúmenes ambientales semitransparentes como el humo o el agua, son esencialmente triviales. En lugar de pasar por ese proceso, se podrían generar fácilmente múltiples mates a partir de un único conjunto de imágenes profundas sin necesidad de volver a renderizar cada elemento mate y fondo para cada caso. Además de esa eficiencia y flexibilidad, las imágenes de datos profundos proporcionan inherentemente una calidad visual mucho más alta en áreas comunes que han sido difíciles con los renders tradicionales, como los bordes borrosos por movimiento de personajes con elementos semitransparentes como el cabello.

Una desventaja del uso de imágenes profundas es su tamaño de archivo sustancial, ya que codifican una cantidad relativamente enorme de datos por fotograma en comparación incluso con formatos multicanal como OpenEXR .

Los datos se almacenan en función de la profundidad. Esto da como resultado una curva de función que se puede utilizar para buscar los datos a cualquier profundidad arbitraria. Manipular los datos es más difícil.

Cada muestra se considera una pieza independiente y, por lo tanto, se puede manipular fácilmente. Para asegurarse de que los datos representen el detalle correcto, es necesario introducir un valor de expansión adicional.

Los renderizadores 3D producen los datos necesarios como parte del proceso de renderizado. Las muestras se recogen en profundidad y luego se combinan. Los datos profundos se pueden escribir antes de que esto suceda, por lo que no es nada nuevo para el proceso. La generación de datos profundos a partir de los datos de la cámara requiere un mapa de profundidad adecuado . Esto se usa en un par de casos, pero aún no es lo suficientemente preciso para una representación detallada. Sin embargo, para la tarea básica de retención, esto puede ser suficiente.