Súper muestreo de aprendizaje profundo


El supermuestreo de aprendizaje profundo ( DLSS ) es una tecnología de mejora de imagen espacial y aprendizaje automático desarrollada por Nvidia y exclusiva de sus tarjetas gráficas para uso en tiempo real en videojuegos seleccionados, que utiliza aprendizaje profundo para mejorar imágenes de resolución más baja a una resolución más alta para visualización en monitores de ordenador de mayor resolución. Nvidia afirma que esta tecnología mejora las imágenes con una calidad similar a la de renderizar la imagen de forma nativa en una resolución más alta pero con menos cálculos realizados por la tarjeta de video , lo que permite configuraciones gráficas y velocidades de cuadro más altas para una resolución determinada. [1]

A partir de junio de 2021, esta tecnología está disponible exclusivamente en las GPU de las series GeForce RTX 20 y GeForce RTX 30 .

Nvidia anunció DLSS como una característica clave de las GPU de la serie GeForce RTX 20 cuando se lanzaron en septiembre de 2018. [2] En ese momento, los resultados se limitaron a algunos videojuegos (a saber, Battlefield V [3] y Metro Exodus ) porque el El algoritmo tuvo que ser entrenado específicamente en cada juego en el que se aplicó y los resultados generalmente no fueron tan buenos como una simple mejora de resolución. [4] [5]

En 2019, el videojuego Control se envió con trazado de rayos y una versión mejorada de DLSS, que no usaba Tensor Cores. [6] [7]

En abril de 2020, Nvidia anunció y envió con la versión del controlador 445.75 una versión mejorada de DLSS llamada DLSS 2.0, que estaba disponible para algunos juegos existentes, incluidos Control y Wolfenstein: Youngblood , y estaría disponible más adelante para los próximos juegos. Esta vez, Nvidia dijo que usó los Tensor Cores nuevamente y que la IA no necesitaba ser entrenada específicamente en cada juego. [2] [8]

Nvidia explicó que DLSS 1.0 funcionó para cada imagen de juego de destino al generar un "fotograma perfecto" mediante el supermuestreo tradicional , luego entrenó la red neuronal en estas imágenes resultantes. En un segundo paso, el modelo fue entrenado para reconocer entradas con alias en el resultado inicial. [12] [13]