De Wikipedia, la enciclopedia libre
Saltar a navegación Saltar a búsqueda
Componentes de una GPU

Una unidad de procesamiento de gráficos ( GPU ) es un circuito electrónico especializado diseñado para manipular y alterar rápidamente la memoria para acelerar la creación de imágenes en un búfer de cuadros destinado a la salida a un dispositivo de visualización . Las GPU se utilizan en sistemas integrados , teléfonos móviles , computadoras personales , estaciones de trabajo y consolas de juegos . Las GPU modernas son muy eficientes en la manipulación de gráficos por computadora y procesamiento de imágenes . Su estructura altamente paralelalos hace más eficientes que las unidades de procesamiento central (CPU) de propósito general para algoritmos que procesan grandes bloques de datos en paralelo. En una computadora personal, una GPU puede estar presente en una tarjeta de video o incrustada en la placa base . En ciertas CPU, están integradas en la matriz de la CPU . [1]

En la década de 1970, el término "GPU" originalmente significaba unidad de procesador de gráficos y describía una unidad de procesamiento programable que trabajaba independientemente de la CPU y era responsable de la manipulación y salida de gráficos. [2] [3] Más tarde, en 1994, Sony utilizó el término (que ahora significa unidad de procesamiento de gráficos ) en referencia a la GPU Sony diseñada por Toshiba para la consola PlayStation en 1994. [4] El término fue popularizado por Nvidia en 1999, quien comercializó la GeForce 256 como "la primera GPU del mundo". [5] Se presentó como un " procesador de un solo chipcon motores integrados de transformación, iluminación, configuración / recorte de triángulos y renderizado ". [6] Rival ATI Technologies acuñó el término" unidad de procesamiento visual "o VPU con el lanzamiento de la Radeon 9700 en 2002. [7]

Historia [ editar ]

1970 [ editar ]

Las placas del sistema Arcade han estado utilizando circuitos gráficos especializados desde la década de 1970. En los primeros equipos de videojuegos, la RAM para los búferes de cuadros era costosa, por lo que los chips de video componían los datos mientras se escaneaba la pantalla en el monitor. [8]

Se usó un circuito de cambio de barril especializado para ayudar a la CPU a animar los gráficos del framebuffer para varios juegos de arcade de la década de 1970 de Midway y Taito , como Gun Fight (1975), Sea Wolf (1976) y Space Invaders (1978). [9] [10] [11] El sistema arcade Namco Galaxian de 1979 utilizaba hardware gráfico especializado que soportaba colores RGB , sprites multicolores y fondos de mapa de mosaicos . [12] El hardware de Galaxian fue ampliamente utilizado durante laedad de oro de los videojuegos arcade , por compañías de juegos como Namco , Centuri , Gremlin , Irem , Konami , Midway , Nichibutsu , Sega y Taito . [13] [14]

Microprocesador Atari ANTIC en una placa base Atari 130XE

En el mercado doméstico, el Atari 2600 en 1977 usó un cambiador de video llamado Adaptador de Interfaz de Televisión . [15] Las computadoras Atari de 8 bits (1979) tenían ANTIC , un procesador de video que interpretaba instrucciones que describen una "lista de visualización", la forma en que las líneas de exploración se asignan a modos específicos de mapa de bits o de caracteres y dónde se almacena la memoria (por lo que no no es necesario que sea un búfer de trama contiguo). [16] Las subrutinas de código de máquina 6502 podrían activarse en líneas de exploración estableciendo un bit en una instrucción de lista de visualización. [17] ANTIC también admitió la vertical suave y Desplazamiento horizontal independiente de la CPU. [18]

Década de 1980 [ editar ]

NEC μPD7220 A

El NEC µPD7220 fue la primera implementación de un procesador de pantalla gráfica de PC como un solo chip de circuito integrado de integración a gran escala (LSI) , lo que permitió el diseño de tarjetas gráficas de video de bajo costo y alto rendimiento como las de Number Nine Visual Technology . Se convirtió en la GPU más conocida hasta mediados de la década de 1980. [19] Fue el primer procesador de pantalla de gráficos VLSI ( integración a muy gran escala) totalmente integrado con semiconductores de óxido de metal ( NMOS ) para PC, compatible con una resolución de hasta 1024x1024y sentó las bases para el mercado emergente de gráficos para PC. Se utilizó en varias tarjetas gráficas y se autorizó para clones como Intel 82720, la primera de las unidades de procesamiento de gráficos de Intel . [20] Los juegos de arcade de Williams Electronics Robotron 2084 , Joust , Sinistar y Bubbles , todos lanzados en 1982, contienen chips blitter personalizados para operar en mapas de bits de 16 colores. [21] [22]

En 1984, Hitachi lanzó ARTC HD63484, el primer procesador de gráficos CMOS importante para PC. El ARTC era capaz de mostrar una resolución de hasta 4K cuando estaba en modo monocromo , y se usó en varias tarjetas gráficas y terminales de PC a fines de la década de 1980. [23] En 1985, el Commodore Amiga presentaba un chip gráfico personalizado, con una unidad blitter que aceleraba la manipulación de mapas de bits, el dibujo de líneas y las funciones de relleno de áreas. También se incluye un coprocesadorcon su propio conjunto de instrucciones simples, capaz de manipular registros de hardware de gráficos en sincronía con el haz de video (por ejemplo, para interruptores de paleta por línea de escaneo, multiplexación de sprites y ventanas de hardware), o manejar el blitter. En 1986, Texas Instruments lanzó el TMS34010 , el primer procesador de gráficos totalmente programable. [24] Podría ejecutar código de propósito general, pero tenía un conjunto de instrucciones orientadas a gráficos. Durante 1990-1992, este chip se convirtió en la base de las tarjetas aceleradoras de Windows de la arquitectura gráfica de Texas Instruments ("TIGA") .

El adaptador IBM 8514 Micro Channel, con complemento de memoria.

En 1987, el sistema de gráficos IBM 8514 fue lanzado como una de las primeras tarjetas de video [ vagas ] para PC compatibles con IBM para implementar primitivas 2D de función fija en hardware electrónico . El X68000 de Sharp , lanzado en 1987, usó un chipset gráfico personalizado [25] con una paleta de colores de 65,536 y soporte de hardware para sprites, desplazamiento y múltiples campos de juego, [26] eventualmente sirviendo como una máquina de desarrollo para el arcade CP System de Capcom . Junta. Fujitsu luego compitió con FM Townscomputer, lanzado en 1989 con soporte para una paleta de colores completa de 16.777.216. [27] En 1988, las primeras tarjetas gráficas 3D poligonales dedicadas se introdujeron en salas de juegos con Namco System 21 [28] y Taito Air System. [29]

Sección VGA en la placa base en IBM PS / 55

IBM 's patentada Video Graphics Array estándar de visualización (VGA) fue introducido en 1987, con una resolución máxima de 640 × 480 píxeles. En noviembre de 1988, NEC Home Electronics anunció la creación de la Video Electronics Standards Association (VESA) para desarrollar y promover un estándar de pantalla de computadora Super VGA (SVGA) como sucesor del estándar de pantalla VGA patentado por IBM. Resolución de pantalla de gráficos habilitados para Super VGA de hasta 800 × 600 píxeles , un aumento del 36%. [30]

Década de 1990 [ editar ]

Laboratorios Tseng ET4000 / W32p
S3 Graphics ViRGE
Tarjeta Voodoo3 2000 AGP

En 1991, S3 Graphics presentó el S3 86C911 , que sus diseñadores nombraron en honor al Porsche 911 como una indicación del aumento de rendimiento que prometía. [31] El 86C911 generó una gran cantidad de imitadores: en 1995, todos los principales fabricantes de chips gráficos para PC habían agregado soporte de aceleración 2D a sus chips. [32] [33] En ese momento, los aceleradores de Windows de función fija habían superado a los costosos coprocesadores gráficos de uso general en el rendimiento de Windows, y estos coprocesadores desaparecieron del mercado de las PC.

A lo largo de la década de 1990, la aceleración de la GUI 2D continuó evolucionando. A medida que mejoraron las capacidades de fabricación, también lo hizo el nivel de integración de los chips gráficos. Llegaron interfaces de programación de aplicaciones (API) adicionales para una variedad de tareas, como la biblioteca de gráficos WinG de Microsoft para Windows 3.xy su interfaz DirectDraw posterior para la aceleración de hardware de juegos 2D dentro de Windows 95 y versiones posteriores.

A principios y mediados de la década de 1990, los gráficos 3D en tiempo real se estaban volviendo cada vez más comunes en los juegos de arcade, computadora y consola, lo que llevó a una creciente demanda pública de gráficos 3D acelerados por hardware . Los primeros ejemplos de hardware de gráficos 3D para el mercado masivo se pueden encontrar en placas de sistema arcade como Sega Model 1 , Namco System 22 y Sega Model 2 , y las consolas de videojuegos de quinta generación como Saturn , PlayStation y Nintendo 64 . Los sistemas de arcade como Sega Model 2 y Namco Magic Edge Hornet Simulator en 1993 eran capaces de hardware T&L ( transformación, recorte e iluminación) años antes de aparecer en tarjetas gráficas de consumo. [34] [35] Algunos sistemas utilizaron DSP para acelerar las transformaciones. Fujitsu , que trabajó en el sistema arcade Sega Model 2, [36] comenzó a trabajar en la integración de T&L en una única solución LSI para su uso en computadoras domésticas en 1995; [37] [38] el Fujitsu Pinolite, el primer procesador de geometría 3D para ordenadores personales, lanzado en 1997. [39] El primer hardware T & L GPU en casa consolas de videojuegos fue la Nintendo 64 's Realidad coprocesador , lanzado en 1996. [ 40] En 1997,Mitsubishi lanzó 3Dpro / 2MP , una GPU con todas las funciones capaz de transformación e iluminación, para estaciones de trabajo y computadoras de escritorio con Windows NT ; [41] ATi lo utilizó para su tarjeta gráfica FireGL 4000 , lanzada en 1997. [42]

El término "GPU" fue acuñado por Sony en referencia a la GPU Sony de 32 bits (diseñada por Toshiba ) en la consola de videojuegos PlayStation , lanzada en 1994. [4]

En el mundo de las PC, los primeros intentos fallidos notables de chips gráficos 3D de bajo costo fueron el S3 ViRGE , ATI Rage y Matrox Mystique . Estos chips eran esencialmente aceleradores 2D de la generación anterior con funciones 3D incorporadas. Muchos incluso eran compatibles con pines con los chips de la generación anterior para facilitar la implementación y el costo mínimo. Inicialmente, los gráficos 3D de rendimiento solo eran posibles con placas discretas dedicadas a acelerar funciones 3D (y que carecían por completo de aceleración de GUI 2D) como PowerVR y 3dfx Voodoo. Sin embargo, a medida que avanzaba la tecnología de fabricación, el vídeo, la aceleración de la GUI 2D y la funcionalidad 3D se integraron en un solo chip. Los conjuntos de chips Verite de Rendition fueron de los primeros en hacer esto lo suficientemente bien como para ser dignos de mención. En 1997, Rendition dio un paso más al colaborar con Hercules y Fujitsu en un proyecto "Thriller Conspiracy" que combinaba un procesador de geometría Fujitsu FXG-1 Pinolite con un núcleo Vérité V2200 para crear una tarjeta gráfica con un motor T&L completo años antes de la GeForce de Nvidia. 256 . Esta tarjeta, diseñada para reducir la carga sobre la CPU del sistema, nunca llegó al mercado. [ cita requerida ]

OpenGL apareció a principios de los 90 como una API de gráficos profesionales, pero originalmente sufrió problemas de rendimiento que permitieron que Glide API interviniera y se convirtiera en una fuerza dominante en la PC a finales de los 90. [43] Sin embargo, estos problemas se superaron rápidamente y la API de Glide se quedó en el camino. Las implementaciones de software de OpenGL fueron comunes durante este tiempo, aunque la influencia de OpenGL eventualmente condujo a un soporte de hardware generalizado. Con el tiempo, surgió una paridad entre las características que se ofrecen en hardware y las que se ofrecen en OpenGL. DirectX se hizo popular entre Windowsdesarrolladores de juegos a finales de los 90. A diferencia de OpenGL, Microsoft insistió en proporcionar un estricto soporte de hardware uno a uno. El enfoque hizo que DirectX fuera menos popular inicialmente como una API de gráficos independiente, ya que muchas GPU proporcionaban sus propias características específicas, de las que las aplicaciones OpenGL existentes ya podían beneficiarse, dejando a DirectX a menudo una generación atrás. (Consulte: Comparación de OpenGL y Direct3D ).

Con el tiempo, Microsoft comenzó a trabajar más de cerca con los desarrolladores de hardware y comenzó a apuntar a las versiones de DirectX para que coincidieran con las del hardware de gráficos de soporte. Direct3D 5.0 fue la primera versión de la floreciente API que obtuvo una adopción generalizada en el mercado de los juegos, y compitió directamente con muchas más bibliotecas gráficas específicas de hardware, a menudo propietarias, mientras que OpenGL mantuvo un gran número de seguidores. Direct3D 7.0 introdujo soporte para iluminación y transformación acelerada por hardware (T&L) para Direct3D, mientras que OpenGL ya tenía esta capacidad expuesta desde sus inicios. Las tarjetas de aceleración 3D se movieron más allá de ser simples rasterizadores para agregar otra etapa de hardware significativa a la canalización de renderizado 3D. La nvidia GeForce 256 (también conocida como NV10) fue la primera tarjeta de nivel de consumidor lanzada al mercado con T&L acelerado por hardware, mientras que las tarjetas 3D profesionales ya tenían esta capacidad. La transformación de hardware y la iluminación, ambas características ya existentes de OpenGL, llegaron al hardware de nivel de consumidor en los años 90 y sentaron el precedente para lasunidadesposteriores de sombreado de píxeles y de vértice , que eran mucho más flexibles y programables.

2000 a 2010 [ editar ]

Nvidia fue la primera en producir un chip capaz de realizar sombreado programable ; la GeForce 3 (nombre en código NV20). Cada píxel podría ahora ser procesado por un "programa" corto que podría incluir texturas de imagen adicionales como entradas, y cada vértice geométrico podría igualmente ser procesado por un programa corto antes de ser proyectado en la pantalla. Utilizada en la consola Xbox , compitió con la PlayStation 2 , que utilizaba una unidad vectorial personalizada para el procesamiento de vértices acelerado por hardware; comúnmente conocido como VU0 / VU1. Las primeras encarnaciones de los motores de ejecución de sombreadores utilizados en Xboxno eran de uso general y no podían ejecutar código de píxeles arbitrario. Los vértices y los píxeles fueron procesados ​​por diferentes unidades que tenían sus propios recursos con sombreadores de píxeles que tenían restricciones mucho más estrictas (ya que se ejecutan a frecuencias mucho más altas que con los vértices). Los motores de sombreado de píxeles eran en realidad más parecidos a un bloque de funciones altamente personalizable y en realidad no "ejecutaban" un programa. Muchas de estas disparidades entre el sombreado de vértices y píxeles no se abordaron hasta mucho más tarde con el modelo de sombreado unificado .

En octubre de 2002, con la presentación de la ATI Radeon 9700 (también conocida como R300), el primer acelerador Direct3D 9.0, sombreadores de píxeles y vértices del mundo podía implementar bucles y largos cálculos matemáticos de punto flotante , y rápidamente se estaban volviendo tan flexibles como las CPU, pero ordenadas de magnitud más rápido para operaciones de matriz de imágenes. El sombreado de píxeles se usa a menudo para el mapeo de protuberancias , que agrega textura, para hacer que un objeto se vea brillante, opaco, rugoso o incluso redondo o extruido. [44]

Con la introducción de la serie Nvidia GeForce 8 , y luego las nuevas unidades de procesamiento de flujo genéricas, las GPU se convirtieron en dispositivos informáticos más generalizados. Hoy en día, las GPU paralelas han comenzado a hacer incursiones computacionales contra la CPU, y un subcampo de investigación, denominado Computación GPU o GPGPU para Computación de Propósito General en GPU , se ha abierto camino en campos tan diversos como el aprendizaje automático , [45] exploración petrolera , investigación científica. procesamiento de imágenes , álgebra lineal , [46] estadísticas , [47] reconstrucción 3D e incluso opciones sobre accionesdeterminación de precios. GPGPU en ese momento era el precursor de lo que ahora se llama un sombreador de cómputo (por ejemplo, CUDA, OpenCL, DirectCompute) y en realidad abusó del hardware hasta cierto punto al tratar los datos pasados ​​a los algoritmos como mapas de textura y ejecutar algoritmos dibujando un triángulo o un cuadrante. con un sombreador de píxeles apropiado. Obviamente, esto implica algunos gastos generales, ya que unidades como el convertidor de escaneo están involucradas donde realmente no son necesarias (ni las manipulaciones de triángulos son siquiera una preocupación, excepto para invocar el sombreador de píxeles). A lo largo de los años, el consumo de energía de las GPU ha aumentado y para gestionarlo se han propuesto varias técnicas. [48]

La plataforma CUDA de Nvidia , introducida por primera vez en 2007, [49] fue el primer modelo de programación ampliamente adoptado para la computación GPU. Más recientemente, OpenCL se ha vuelto ampliamente compatible. OpenCL es un estándar abierto definido por Khronos Group que permite el desarrollo de código tanto para GPU como para CPU con énfasis en la portabilidad. [50] Las soluciones OpenCL son compatibles con Intel, AMD, Nvidia y ARM y, según un informe reciente de Evan's Data, OpenCL es la plataforma de desarrollo GPGPU más utilizada por desarrolladores tanto en EE. UU. Como en Asia Pacífico. [ cita requerida ]

2010 al presente [ editar ]

En 2010, Nvidia comenzó una asociación con Audi para impulsar los tableros de sus autos. Estas GPU Tegra alimentaban el tablero de los autos, ofreciendo una mayor funcionalidad a los sistemas de navegación y entretenimiento de los autos. [51] Los avances en la tecnología GPU en los automóviles han ayudado a impulsar la tecnología de conducción autónoma . [52] Las tarjetas de la serie Radeon HD 6000 de AMD se lanzaron en 2010 y en 2011, AMD lanzó sus GPU discretas de la serie 6000M para su uso en dispositivos móviles. [53]La línea Kepler de tarjetas gráficas de Nvidia salió en 2012 y se utilizó en las tarjetas de las series 600 y 700 de Nvidia. Una característica de esta nueva microarquitectura de GPU incluía GPU boost, una tecnología que ajusta la velocidad de reloj de una tarjeta de video para aumentarla o disminuirla según su consumo de energía. [54] La microarquitectura de Kepler se fabricó en el proceso de 28 nm.

La PS4 y Xbox One se lanzaron en 2013, ambas usan GPU basadas en Radeon HD 7850 y 7790 de AMD . [55] La línea Kepler de GPU de Nvidia fue seguida por la línea Maxwell , fabricada con el mismo proceso. Los chips de 28 nm de Nvidia fueron fabricados por TSMC, la empresa Taiwan Semiconductor Manufacturing Company, que fabricaba utilizando el proceso de 28 nm en ese momento. En comparación con la tecnología de 40 nm del pasado, este nuevo proceso de fabricación permitió un aumento del 20 por ciento en el rendimiento y consumió menos energía. [56] [57] Auriculares de realidad virtual tienen requisitos de sistema muy altos. Los fabricantes de cascos de realidad virtual recomendaron el GTX 970 y el R9 290X o mejores en el momento de su lanzamiento. [58] [59] Pascal es la próxima generación de tarjetas gráficas para consumidores de Nvidia lanzada en 2016. La serie de tarjetas GeForce 10 está incluida en esta generación de tarjetas gráficas. Se fabrican utilizando el proceso de fabricación de 16 nm que mejora las microarquitecturas anteriores. [60] Nvidia ha lanzado una tarjeta para no consumidores bajo la nueva arquitectura Volta , la Titan V. Los cambios de la Titan XP, la tarjeta de gama alta de Pascal, incluyen un aumento en el número de núcleos CUDA, la adición de núcleos tensores y HBM2. Los núcleos tensoriales son núcleos especialmente diseñados para el aprendizaje profundo, mientras que la memoria de alto ancho de banda es una memoria apilada, de menor frecuencia que ofrece un bus de memoria extremadamente amplio que es útil para el propósito previsto del Titan V. Para enfatizar que la Titan V no es una tarjeta de juegos, Nvidia eliminó el sufijo "GeForce GTX" que agrega a las tarjetas de juegos para consumidores.

El 20 de agosto de 2018, Nvidia lanzó las GPU de la serie RTX 20 que agregan núcleos de trazado de rayos a las GPU, mejorando su rendimiento en efectos de iluminación. [61] Las GPU Polaris 11 y Polaris 10 de AMD se fabrican mediante un proceso de 14 nanómetros. Su lanzamiento da como resultado un aumento sustancial en el rendimiento por vatio de las tarjetas de video AMD. [62] AMD también ha lanzado la serie Vega GPU para el mercado de gama alta como competidor de las tarjetas Pascal de gama alta de Nvidia, que también incluyen HBM2 como la Titan V.

En 2019, AMD lanzó el sucesor de su conjunto de microarquitectura / instrucciones Graphics Core Next (GCN). Apodada como RDNA, la primera línea de productos con la primera generación de RDNA fue la serie de tarjetas de video Radeon RX 5000 , que luego se lanzó el 7 de julio de 2019. [63] Más tarde, la compañía anunció que el sucesor de la microarquitectura RDNA sería una actualización. Apodada como RDNA 2, la nueva microarquitectura estaba programada para su lanzamiento en el cuarto trimestre de 2020. [64]

AMD presentó la serie Radeon RX 6000 , sus tarjetas gráficas RDNA 2 de próxima generación con soporte para trazado de rayos acelerado por hardware en un evento en línea el 28 de octubre de 2020. [65] [66] La línea inicialmente consiste en la RX 6800, RX 6800 XT y RX 6900 XT. [67] [68] El RX 6800 y 6800 XT se lanzaron el 18 de noviembre de 2020, y el RX 6900 XT se lanzó el 8 de diciembre de 2020. [69] Las variantes RX 6700 y RX 6700 XT, que se basan en Navi 22 se espera que se lance en la primera mitad de 2021. [70] [71] [72]

La PlayStation 5 y Xbox Series X y Series S se lanzaron en 2020, ambas usan GPU basadas en la microarquitectura RDNA 2 con ajustes patentados y diferentes configuraciones de GPU en la implementación de cada sistema. [73] [74] [75]

Empresas de GPU [ editar ]

Muchas empresas han producido GPU con varias marcas. En 2009, Intel , Nvidia y AMD / ATI fueron los líderes en participación de mercado, con 49,4%, 27,8% y 20,6% de participación de mercado, respectivamente. Sin embargo, esos números incluyen las soluciones gráficas integradas de Intel como GPU. Sin contar esos, Nvidia y AMD controlan casi el 100% del mercado a partir de 2018. Sus respectivas cuotas de mercado son del 66% y el 33%. [76] Además, S3 Graphics [77] y Matrox [78] producen GPU. Los teléfonos inteligentes modernos también usan principalmente GPU Adreno de Qualcomm ,GPU PowerVR de Imagination Technologies y GPU Mali de ARM .

Funciones computacionales [ editar ]

Las GPU modernas utilizan la mayoría de sus transistores para realizar cálculos relacionados con los gráficos de computadora en 3D . Además del hardware 3D, las GPU actuales incluyen capacidades básicas de aceleración 2D y framebuffer (generalmente con un modo de compatibilidad VGA). Las tarjetas más nuevas, como AMD / ATI HD5000-HD7000, incluso carecen de aceleración 2D; tiene que ser emulado por hardware 3D. Las GPU se utilizaron inicialmente para acelerar el trabajo intensivo en memoria de mapeo de texturas y renderizado de polígonos, y luego se agregaron unidades para acelerar cálculos geométricos como la rotación y traslación de vértices en diferentes sistemas de coordenadas.. Los desarrollos recientes en GPU incluyen soporte para sombreadores programables que pueden manipular vértices y texturas con muchas de las mismas operaciones admitidas por CPU , técnicas de sobremuestreo e interpolación para reducir el aliasing y espacios de color de muy alta precisión . Debido a que la mayoría de estos cálculos involucran operaciones matriciales y vectoriales , los ingenieros y científicos han estudiado cada vez más el uso de GPU para cálculos no gráficos; se adaptan especialmente a otros problemas embarazosamente paralelos .

Con la aparición del aprendizaje profundo, la importancia de las GPU ha aumentado. En una investigación realizada por Indigo, se descubrió que, al entrenar redes neuronales de aprendizaje profundo, las GPU pueden ser 250 veces más rápidas que las CPU. El crecimiento explosivo del Deep Learning en los últimos años se ha atribuido a la aparición de GPU de propósito general. [79] Ha habido cierto nivel de competencia en esta área con los ASIC , sobre todo la Unidad de procesamiento de tensor (TPU) fabricada por Google. Sin embargo, los ASIC requieren cambios en el código existente y las GPU siguen siendo muy populares.

Codificación y decodificación de video acelerada por GPU [ editar ]

La GPU ATI HD5470 (arriba) cuenta con UVD 2.1 que le permite decodificar formatos de video AVC y VC-1

La mayoría de las GPU fabricadas desde 1995 admiten el espacio de color YUV y las superposiciones de hardware , importantes para la reproducción de video digital , y muchas GPU fabricadas desde 2000 también admiten primitivas MPEG como compensación de movimiento e iDCT . Este proceso de decodificación de video acelerada por hardware, donde partes del proceso de decodificación de video y post-procesamiento de video se descargan al hardware de la GPU, se conoce comúnmente como "decodificación de video acelerada por GPU", "decodificación de video asistida por GPU", "aceleración por hardware de GPU decodificación de video "o" decodificación de video asistida por hardware GPU ".

Las tarjetas gráficas más recientes incluso decodifican video de alta definición en la tarjeta, descargando la unidad central de procesamiento. El más común APIs para GPU acelerada de decodificación de vídeo son DxVA para Microsoft Windows el sistema operativo y VDPAU , VAAPI , XvMC y XvBA para Linux y basado en UNIX-como sistemas operativos. Todos excepto XvMC son capaces de decodificar videos codificados con MPEG-1 , MPEG-2 , MPEG-4 ASP (MPEG-4 Part 2) , MPEG-4 AVC (H.264 / DivX 6), VC-1 , WMV3 / WMV9 ,Xvid / OpenDivX (DivX 4), y DivX 5 codecs , mientras XvMC sólo es capaz de decodificar MPEG-1 y MPEG-2.

Existen varias soluciones de codificación y decodificación de video de hardware dedicadas .

Procesos de decodificación de video que se pueden acelerar [ editar ]

Los procesos de decodificación de video que pueden acelerarse con el hardware GPU moderno de hoy son:

  • Compensación de movimiento (mocomp)
  • Transformada de coseno discreta inversa (iDCT)
    • Corrección desplegable de telecine inverso 3: 2 y 2: 2
  • Transformada de coseno discreta modificada inversa (iMDCT)
  • Filtro de desbloqueo en bucle
  • Predicción intracuadro
  • Cuantización inversa (IQ)
  • Decodificación de longitud variable (VLD) , más comúnmente conocida como aceleración de nivel de corte
  • -Espacial temporal desentrelazado y automático de entrelazado / progresivo de detección de fuente
  • Procesamiento de flujo de bits ( codificación de longitud variable adaptable al contexto / codificación aritmética binaria adaptable al contexto ) y posicionamiento perfecto de píxeles.

Las operaciones anteriores también tienen aplicaciones en la edición, codificación y transcodificación de videos.

Formularios de GPU [ editar ]

Terminología [ editar ]

En las computadoras personales, hay dos formas principales de GPU. Cada uno tiene muchos sinónimos: [80]

  • Tarjeta gráfica dedicada , también llamada discreta .
  • Gráficos integrados , también llamados: soluciones de gráficos compartidos , procesadores de gráficos integrados (IGP) o arquitectura de memoria unificada (UMA).

GPU específico de uso [ editar ]

La mayoría de las GPU están diseñadas para un uso específico, gráficos 3D en tiempo real u otros cálculos de masa:

  1. Juego de azar
    • GeForce GTX, RTX
    • Titán de Nvidia
    • Series Radeon HD, R5, R7, R9, RX, Vega y Navi
  2. Juegos en la nube
    • Nvidia Grid
    • AMD Radeon Sky
  3. Estación de trabajo (edición de video, codificación, decodificación, transcodificación y renderizado (creación de contenido digital), animación y renderizado 3D, VFX y gráficos en movimiento (CGI), desarrollo de videojuegos y creación de texturas 3D, desarrollo de productos / CAD 3D, análisis estructural, simulaciones, CFD análisis y cálculos científicos ...)
    • Nvidia Quadro
    • AMD FirePro
    • AMD Radeon Pro
    • AMD Radeon VII
  4. Estación de trabajo en la nube
    • Nvidia Tesla
    • AMD FireStream
  5. Formación en Inteligencia Artificial y Cloud
    • Nvidia Tesla
    • Instinto de AMD Radeon
  6. Coche automatizado / sin conductor
    • Nvidia Drive PX

Tarjetas gráficas dedicadas [ editar ]

Las GPU de la clase más poderosa suelen interactuar con la placa base por medio de una ranura de expansión como PCI Express (PCIe) o puerto de gráficos acelerado (AGP) y, por lo general, se pueden reemplazar o actualizar con relativa facilidad, asumiendo que la placa base es capaz de soportar la actualización. Algunas tarjetas gráficas todavía usan ranuras de interconexión de componentes periféricos (PCI), pero su ancho de banda es tan limitado que generalmente se usan solo cuando una ranura PCIe o AGP no está disponible.

Una GPU dedicada no es necesariamente extraíble ni interactúa necesariamente con la placa base de manera estándar. El término "dedicado" se refiere al hecho de que las tarjetas gráficas dedicadas tienen RAM dedicada al uso de la tarjeta, no al hecho de que la mayoría de las GPU dedicadas son extraíbles. Además, esta RAM generalmente se selecciona especialmente para la carga de trabajo en serie esperada de la tarjeta gráfica (consulte GDDR ). A veces, los sistemas con GPU discretas dedicadas se denominaban sistemas "DIS", [81]a diferencia de los sistemas "UMA" (consulte la siguiente sección). Las GPU dedicadas para computadoras portátiles generalmente se interconectan a través de una ranura no estándar y, a menudo, patentada debido a restricciones de tamaño y peso. Dichos puertos aún pueden considerarse PCIe o AGP en términos de su interfaz de host lógica, incluso si no son físicamente intercambiables con sus contrapartes.

Tecnologías como SLI y NVLink de Nvidia y CrossFire de AMD permiten que múltiples GPU dibujen imágenes simultáneamente para una sola pantalla, aumentando la potencia de procesamiento disponible para gráficos. Sin embargo, estas tecnologías son cada vez menos comunes, ya que la mayoría de los juegos no utilizan por completo varias GPU, ya que la mayoría de los usuarios no pueden pagarlas. [82] [83] [84] Se siguen utilizando varias GPU en supercomputadoras (como en Summit ), en estaciones de trabajo para acelerar el vídeo (procesando varios vídeos a la vez) [85] [86] [87] [88] y renderizado 3D, [89] [90] [91] [92] [93] para VFX[94] [95] y para simulaciones, [96] y en IA para agilizar la capacitación, como es el caso de la línea de estaciones de trabajo y servidores DGX de Nvidia y las GPU Tesla y las próximas GPU Ponte Vecchio de Intel.

Unidad de procesamiento de gráficos integrada [ editar ]

La posición de una GPU integrada en un diseño de sistema Northbridge / Southbridge
Una placa base ASRock con gráficos integrados, que tiene salidas HDMI, VGA y DVI.

La unidad de procesamiento de gráficos integrados (IGPU), los gráficos integrados , las soluciones de gráficos compartidos , los procesadores de gráficos integrados (IGP) o la arquitectura de memoria unificada (UMA) utilizan una parte de la RAM del sistema de una computadora en lugar de la memoria de gráficos dedicada. Los IGP se pueden integrar en la placa base como parte del chipset (northbridge), [97] o en el mismo chip ( circuito integrado) con la CPU (como AMD APU o Intel HD Graphics ). En ciertas placas base, [98] los IGP de AMD pueden usar un puerto lateral dedicado [ aclaración necesaria ]memoria. Este es un bloque fijo separado de memoria de alto rendimiento que está dedicado para que lo use la GPU. A principios de 2007, las computadoras con gráficos integrados representaban aproximadamente el 90% de todos los envíos de PC. [99] [ necesita actualización ] Son menos costosos de implementar que el procesamiento de gráficos dedicado, pero tienden a ser menos capaces. Históricamente, el procesamiento integrado se consideraba inadecuado para jugar juegos en 3D o ejecutar programas de gráficos intensivos, pero podía ejecutar programas menos intensivos como Adobe Flash. Ejemplos de tales IGP serían ofertas de SiS y VIA alrededor de 2004. [100] Sin embargo, procesadores gráficos integrados modernos como AMD Accelerated Processing Unit e Intel HD Graphics son más que capaces de manejar gráficos 2D o gráficos 3D de bajo estrés.

Dado que los cálculos de la GPU son extremadamente intensivos en memoria, el procesamiento integrado puede competir con la CPU por la RAM del sistema relativamente lenta, ya que tiene una memoria de video dedicada mínima o nula. Los IGP pueden tener hasta 29.856 GB / s de ancho de banda de memoria de la RAM del sistema, mientras que una tarjeta gráfica puede tener hasta 264 GB / s de ancho de banda entre su RAM y el núcleo de la GPU. Este ancho de banda del bus de memoria puede limitar el rendimiento de la GPU, aunque la memoria multicanal puede mitigar esta deficiencia. [101] Los chipsets de gráficos integrados más antiguos carecían de iluminación y transformación de hardware , pero los más nuevos la incluyen. [102] [103]

Procesamiento de gráficos híbridos [ editar ]

Esta nueva clase de GPU compite con los gráficos integrados en los mercados de computadoras de escritorio y portátiles de gama baja. Las implementaciones más comunes de esto son HyperMemory de ATI y TurboCache de Nvidia .

Las tarjetas gráficas híbridas son algo más caras que las gráficas integradas, pero mucho menos caras que las tarjetas gráficas dedicadas. Estos comparten memoria con el sistema y tienen una pequeña memoria caché dedicada, para compensar la alta latencia de la RAM del sistema. Las tecnologías dentro de PCI Express pueden hacer esto posible. Si bien a veces se anuncia que estas soluciones tienen hasta 768 MB de RAM, esto se refiere a la cantidad que se puede compartir con la memoria del sistema.

Procesamiento de secuencias y GPU de propósito general (GPGPU) [ editar ]

Se está volviendo cada vez más común utilizar una unidad de procesamiento de gráficos de propósito general (GPGPU) como una forma modificada de procesador de flujo (o un procesador vectorial ), que ejecuta núcleos de cómputo . Este concepto convierte la enorme potencia computacional de la tubería de sombreado de un acelerador de gráficos moderno en potencia informática de propósito general, en lugar de estar programada únicamente para realizar operaciones gráficas. En ciertas aplicaciones que requieren operaciones vectoriales masivas, esto puede producir un rendimiento varios órdenes de magnitud superior al de una CPU convencional. Los dos diseñadores de GPU independientes más grandes (consulte " Tarjetas gráficas dedicadas " más arriba), AMD y Nvidia, están comenzando a seguir este enfoque con una variedad de aplicaciones. Tanto Nvidia como AMD se han asociado con la Universidad de Stanford para crear un cliente basado en GPU para el proyecto de computación distribuida Folding @ home , para cálculos de plegamiento de proteínas. En determinadas circunstancias, la GPU calcula cuarenta veces más rápido que las CPU utilizadas tradicionalmente por este tipo de aplicaciones. [104] [105]

GPGPU se puede utilizar para muchos tipos de tareas vergonzosamente paralelas , incluido el trazado de rayos . Por lo general, son adecuados para cálculos de tipo de alto rendimiento que exhiben paralelismo de datos para explotar la arquitectura SIMD de ancho de vector amplio de la GPU.

Además, las computadoras de alto rendimiento basadas en GPU están comenzando a desempeñar un papel importante en el modelado a gran escala. Tres de las 10 supercomputadoras más potentes del mundo aprovechan la aceleración de la GPU. [106]

GPU admite extensiones de API para el lenguaje de programación C , como OpenCL y OpenMP . Además, cada proveedor de GPU introdujo su propia API que solo funciona con sus tarjetas, AMD APP SDK y CUDA de AMD y Nvidia, respectivamente. Estas tecnologías permiten funciones específicas llamadas núcleos informáticos.desde un programa C normal para que se ejecute en los procesadores de flujo de la GPU. Esto hace posible que los programas en C aprovechen la capacidad de una GPU para operar en grandes búferes en paralelo, sin dejar de usar la CPU cuando sea apropiado. CUDA es también la primera API que permite que las aplicaciones basadas en CPU accedan directamente a los recursos de una GPU para una informática de propósito más general sin las limitaciones de usar una API de gráficos. [ cita requerida ]

Desde 2005 ha habido interés en utilizar el rendimiento que ofrecen las GPU para la computación evolutiva en general y para acelerar la evaluación de la aptitud en la programación genética en particular. La mayoría de los enfoques compilan programas lineales o de árbol en la PC host y transfieren el ejecutable a la GPU para que se ejecute. Normalmente, la ventaja de rendimiento solo se obtiene ejecutando el programa activo único simultáneamente en muchos problemas de ejemplo en paralelo, utilizando la arquitectura SIMD de la GPU . [107] [108] Sin embargo, también se puede obtener una aceleración sustancial al no compilar los programas y, en cambio, transferirlos a la GPU para que se interpreten allí.[109] [110] La aceleración se puede obtener interpretando varios programas simultáneamente, ejecutando simultáneamente varios problemas de ejemplo o combinando ambos. Una GPU moderna puede interpretar simultáneamente cientos de miles de programas muy pequeños.

Algunas GPU de estaciones de trabajo modernas, como las tarjetas de estación de trabajo Nvidia Quadro que utilizan las arquitecturas Volta y Turing, cuentan con núcleos de procesamiento dedicados para aplicaciones de aprendizaje profundo basadas en tensor. En la serie actual de GPU de Nvidia, estos núcleos se denominan Tensor Cores. [111] Estas GPU generalmente tienen aumentos significativos en el rendimiento de FLOPS, utilizando la multiplicación y división de matrices 4x4, lo que da como resultado un rendimiento de hardware de hasta 128 TFLOPS en algunas aplicaciones. [112] Se supone que estos núcleos tensoriales también aparecen en las tarjetas de consumo que ejecutan la arquitectura Turing, y posiblemente en la serie Navi de tarjetas de consumo de AMD. [113]

GPU externa (eGPU) [ editar ]

Una GPU externa es un procesador de gráficos ubicado fuera de la carcasa de la computadora, similar a un disco duro externo grande. Los procesadores gráficos externos se utilizan a veces con computadoras portátiles. Las computadoras portátiles pueden tener una cantidad sustancial de RAM y una unidad de procesamiento central (CPU) suficientemente potente, pero a menudo carecen de un procesador de gráficos potente y, en cambio, tienen un chip de gráficos incorporado menos potente pero más eficiente en energía. Los chips de gráficos incorporados a menudo no son lo suficientemente potentes para jugar videojuegos o para otras tareas gráficas intensivas, como editar videos o animación / renderizado 3D.

Por tanto, es deseable poder conectar una GPU a algún bus externo de un portátil. PCI Express es el único bus que se utiliza para este propósito. El puerto puede ser, por ejemplo, un puerto ExpressCard o mPCIe (PCIe × 1, hasta 5 o 2,5 Gbit / s respectivamente) o un puerto Thunderbolt 1, 2 o 3 (PCIe × 4, hasta 10, 20 o 40 Gbit / s respectivamente). Estos puertos solo están disponibles en ciertos sistemas portátiles. [114] [115] Los gabinetes de eGPU incluyen su propia fuente de alimentación (PSU), porque las GPU potentes pueden consumir fácilmente cientos de vatios. [116]

El soporte oficial de proveedores para GPU externas ha ganado terreno recientemente. Un hito notable fue la decisión de Apple de admitir oficialmente GPU externas con MacOS High Sierra 10.13.4. [117]   También hay varios proveedores importantes de hardware (HP, Alienware, Razer) que lanzan carcasas eGPU Thunderbolt 3. [118] [119] [120] Este soporte ha continuado impulsando las implementaciones de eGPU por parte de los entusiastas. [121]

Ventas [ editar ]

En 2013, se enviaron 438,3 millones de GPU a nivel mundial y la previsión para 2014 fue de 414,2 millones. [122]

Ver también [ editar ]

  • Unidad de mapeo de texturas (TMU)
  • Unidad de salida de renderizado (ROP)
  • Ataque de fuerza bruta
  • Hardware de la computadora
  • Monitor de computadora
  • Caché de GPU
  • Virtualización de GPU
  • Procesador Manycore
  • Unidad de procesamiento de física (PPU)
  • Unidad de procesamiento de tensor (TPU)
  • Hardware de trazado de rayos
  • Renderizado de software
  • Unidad de procesamiento de visión (VPU)
  • Procesador de vectores
  • Tarjeta de video
  • Controlador de pantalla de video
  • Consola de videojuegos
  • Acelerador de IA

Hardware [ editar ]

  • Comparación de unidades de procesamiento de gráficos AMD
  • Comparación de las unidades de procesamiento de gráficos de Nvidia
  • Comparación de las unidades de procesamiento de gráficos Intel
  • Intel GMA
  • Larrabee
  • Nvidia PureVideo : la tecnología de flujo de bits de Nvidia utilizada en sus chips gráficos para acelerar la decodificación de video en GPU de hardware con DXVA.
  • SoC
  • UVD (Decodificador de video unificado) : la tecnología de flujo de bits de decodificación de video de ATI para admitir la decodificación de hardware (GPU) con DXVA

API [ editar ]

  • API OpenGL
  • API DirectX Video Acceleration (DxVA) para el sistema operativo Microsoft Windows .
  • Manto (API)
  • Vulkan (API)
  • API de aceleración de video (API VA)
  • VDPAU (API de presentación y decodificación de video para Unix)
  • Aceleración X-Video Bitstream (XvBA) , el equivalente X11 de DXVA para MPEG-2, H.264 y VC-1
  • Compensación de movimiento de X-Video : el equivalente X11 para códec de video MPEG-2 solamente

Aplicaciones [ editar ]

  • Clúster de GPU
  • Mathematica : incluye soporte integrado para la ejecución de GPU CUDA y OpenCL
  • Modelado molecular en GPU
  • Deeplearning4j : aprendizaje profundo distribuido de código abierto para Java

Referencias [ editar ]

  1. ^ Denny Atkin. "Computer Shopper: la GPU adecuada para usted" . Archivado desde el original el 6 de mayo de 2007 . Consultado el 15 de mayo de 2007 .
  2. ^ Barron, ET; Glorioso, RM (septiembre de 1973). "Un procesador periférico microcontrolado" . MICRO 6: Acta de la conferencia del 6º taller anual sobre microprogramación : 122–128. doi : 10.1145 / 800203.806247 . S2CID 36942876 . 
  3. ^ Levine, Ken (agosto de 1978). "Paquete gráfico estándar básico para el VGI 3400" . Gráficos por computadora ACM SIGGRAPH . 12 (3): 298–300. doi : 10.1145 / 965139.807405 .
  4. ^ a b "¿Es hora de cambiar el nombre de la GPU? | IEEE Computer Society" .
  5. ^ "NVIDIA lanza la primera unidad de procesamiento de gráficos del mundo: GeForce 256" . Nvidia. 31 de agosto de 1999. Archivado desde el original el 12 de abril de 2016 . Consultado el 28 de marzo de 2016 .
  6. ^ "Unidad de procesamiento de gráficos (GPU)" . Nvidia. 16 de diciembre de 2009. Archivado desde el original el 8 de abril de 2016 . Consultado el 29 de marzo de 2016 .
  7. ^ Pabst, Thomas (18 de julio de 2002). "ATi asume el liderazgo en tecnología 3D con Radeon 9700" . Hardware de Tom . Consultado el 29 de marzo de 2016 .
  8. ^ Hague, James (10 de septiembre de 2013). "¿Por qué existen consolas de juegos dedicadas?" . Programación en el siglo XXI . Archivado desde el original el 4 de mayo de 2015 . Consultado el 11 de noviembre de 2015 .
  9. ^ "mame / 8080bw.c en el maestro 路 mamedev / mame 路 GitHub" . GitHub . Archivado desde el original el 21 de noviembre de 2014.
  10. ^ "mame / mw8080bw.c en el maestro 路 mamedev / mame 路 GitHub" . GitHub . Archivado desde el original el 21 de noviembre de 2014.
  11. ^ "Arcade / SpaceInvaders - Arqueología informática" . computerarcheology.com . Archivado desde el original el 13 de septiembre de 2014.
  12. ^ "mame / galaxian.c en el maestro 路 mamedev / mame 路 GitHub" . GitHub . Archivado desde el original el 21 de noviembre de 2014.
  13. ^ "mame / galaxian.c en el maestro 路 mamedev / mame 路 GitHub" . GitHub . Archivado desde el original el 21 de noviembre de 2014.
  14. ^ "MAME - src / mame / drivers / galdrvr.c" . archive.org . Archivado desde el original el 3 de enero de 2014.
  15. ^ Springmann, Alessondra. "Desmontaje de Atari 2600: ¿Qué hay dentro de tu vieja consola?" . The Washington Post . Archivado desde el original el 14 de julio de 2015 . Consultado el 14 de julio de 2015 .
  16. ^ "¿Qué son los chips 6502, ANTIC, CTIA / GTIA, POKEY y FREDDIE?" . Atari8.com . Archivado desde el original el 5 de marzo de 2016.
  17. ^ Wiegers, Karl E. (abril de 1984). "Interrupciones de la lista de visualización de Atari" . ¡Calcular! (47): 161. Archivado desde el original el 4 de marzo de 2016.
  18. ^ Wiegers, Karl E. (diciembre de 1985). "Atari Fine Scrolling" . ¡Calcular! (67): 110. Archivado desde el original el 16 de febrero de 2006.
  19. ^ F. Robert A. Hopgood; Roger J. Hubbold; David A. Duce, eds. (1986). Avances en gráficos por computadora II . Saltador. pag. 169. ISBN 9783540169109. Quizás el más conocido sea el NEC 7220.
  20. ^ Fichas gráficas famosas: Controlador de pantalla gráfica NEC µPD7220 ( IEEE Computer Society )
  21. ^ Acertijo, Sean. "Información Blitter" . Archivado desde el original el 22 de diciembre de 2015.
  22. ^ Wolf, Mark JP (junio de 2012). Before the Crash: Early Video Game History . Prensa de la Universidad Estatal de Wayne. pag. 185. ISBN 978-0814337226.
  23. ^ Historia de la GPU: Hitachi ARTC HD63484. El segundo procesador de gráficos. ( Sociedad de Informática IEEE )
  24. ^ "Chips de gráficos famosos: TI TMS34010 y VRAM. El primer chip de procesador gráfico programable | IEEE Computer Society" .
  25. ^ "Copia archivada" . Archivado desde el original el 3 de septiembre de 2014 . Consultado el 12 de septiembre de 2014 .Mantenimiento de CS1: copia archivada como título ( enlace )
  26. ^ "museo ~ Sharp X68000" . Old-computers.com. Archivado desde el original el 19 de febrero de 2015 . Consultado el 28 de enero de 2015 .
  27. ^ "Hardcore Gaming 101: Computadoras japonesas retro: última frontera del juego" . hardcoregaming101.net . Archivado desde el original el 13 de enero de 2011.
  28. ^ "Sistema 16 - Hardware Namco System 21 (Namco)" . system16.com . Archivado desde el original el 18 de mayo de 2015.
  29. ^ "Sistema 16 - Hardware del sistema de aire Taito (Taito)" . system16.com . Archivado desde el original el 16 de marzo de 2015.
  30. ^ Brownstein, Mark (14 de noviembre de 1988). "NEC Forms Video Standards Group" . InfoWorld . 10 (46). pag. 3. ISSN 0199-6649 . Consultado el 27 de mayo de 2016 . 
  31. ^ "Placas de video S3" . InfoWorld . 14 (20): 62. 18 de mayo de 1992. Archivado desde el original el 22 de noviembre de 2017 . Consultado el 13 de julio de 2015 .
  32. ^ "Qué significan los números" . Revista de PC . 12 : 128.23 de febrero de 1993. Archivado desde el original el 11 de abril de 2017 . Consultado el 29 de marzo de 2016 .
  33. ^ Cantante, Graham. "La historia del procesador gráfico moderno" . Techspot. Archivado desde el original el 29 de marzo de 2016 . Consultado el 29 de marzo de 2016 .
  34. ^ "Sistema 16 - Hardware del simulador de Namco Magic Edge Hornet (Namco)" . system16.com . Archivado desde el original el 12 de septiembre de 2014.
  35. ^ "MAME - src / mame / video / model2.c" . archive.org . Archivado desde el original el 4 de enero de 2013.
  36. ^ "Sistema 16 - Hardware Sega Model 2 (Sega)" . system16.com . Archivado desde el original el 21 de diciembre de 2010.
  37. ^ "Copia archivada" (PDF) . Archivado (PDF) desde el original el 11 de octubre de 2016 . Consultado el 8 de agosto de 2016 . Mantenimiento de CS1: copia archivada como título ( enlace )
  38. ^ "Copia archivada" (PDF) . Archivado desde el original (PDF) el 6 de septiembre de 2014 . Consultado el 8 de agosto de 2016 . Mantenimiento de CS1: copia archivada como título ( enlace )
  39. ^ "Fujitsu desarrolla el primer procesador de geometría tridimensional del mundo" . fujitsu.com . Archivado desde el original el 12 de septiembre de 2014.
  40. ^ xenol. "La Nintendo 64 es uno de los mejores dispositivos de juego de todos los tiempos" . xenol . Archivado desde el original el 18 de noviembre de 2015.
  41. ^ "El chipset 3DPro / 2mp de Mitsubishi establece nuevos récords para el acelerador de gráficos 3D más rápido para sistemas Windows NT; 3DPro / 2mp toma el liderazgo en rendimiento de Viewperf; otras pruebas de referencia de alto nivel muestran claramente que el rendimiento de 3DPro supera a todos los competidores de Windows NT" .
  42. ^ Vlask. "VGA Legacy MKIII - Diamond Fire GL 4000 (Mitsubishi 3DPro / 2mp)" . Archivado desde el original el 18 de noviembre de 2015.
  43. ^ API 3dfx Glide
  44. ^ Søren Dreijer. "Bump Mapping Using CG (3rd Edition)" . Archivado desde el original el 18 de enero de 2010 . Consultado el 30 de mayo de 2007 .
  45. ^ Raina, Rajat; Madhavan, Anand; Ng, Andrew Y. (14 de junio de 2009). "Aprendizaje profundo no supervisado a gran escala utilizando procesadores gráficos". Actas de la 26a Conferencia Internacional Anual sobre Aprendizaje Automático - ICML '09 . Dl.acm.org. págs. 1–8. doi : 10.1145 / 1553374.1553486 . ISBN 9781605585161. S2CID  392458 .
  46. ^ " Operadores de álgebra lineal para la implementación de GPU de algoritmos numéricos ", Kruger y Westermann, Conf. Internacional. sobre gráficos por computadora y técnicas interactivas, 2005
  47. ^ "ABC-SysBio: cálculo bayesiano aproximado en Python con soporte de GPU", Liepe et al., Bioinformatics, (2010), 26: 1797-1799 "Copia archivada" . Archivado desde el original el 5 de noviembre de 2015 . Consultado el 15 de octubre de 2010 .Mantenimiento de CS1: copia archivada como título ( enlace )
  48. ^ " Una encuesta de métodos para analizar y mejorar la eficiencia energética de la GPU Archivado el 4 de septiembre de 2015 en la Wayback Machine ", Mittal et al., Encuestas de computación de ACM, 2014.
  49. ^ Sanders, Jason; Kandrot, Edward (19 de julio de 2010). CUDA por ejemplo: una introducción a la programación de GPU de uso general, documentos portátiles . Addison-Wesley Professional. ISBN 9780132180139. Archivado desde el original el 12 de abril de 2017.
  50. ^ "OpenCL - El estándar abierto para la programación paralela de sistemas heterogéneos" . khronos.org . Archivado desde el original el 9 de agosto de 2011.
  51. ^ Teglet, Traian. "NVIDIA Tegra dentro de cada vehículo Audi 2010" . Archivado desde el original el 4 de octubre de 2016 . Consultado el 3 de agosto de 2016 .
  52. ^ "La escuela está en sesión - el sistema sin conductor de Nvidia aprende mirando" . 2016-04-30. Archivado desde el original el 1 de mayo de 2016 . Consultado el 3 de agosto de 2016 .
  53. ^ "Serie AMD Radeon HD 6000M - ¡no la llames ATI!" . CNET . Archivado desde el original el 11 de octubre de 2016 . Consultado el 3 de agosto de 2016 .
  54. ^ "Revisión de Nvidia GeForce GTX 680 2GB" . Archivado desde el original el 11 de septiembre de 2016 . Consultado el 3 de agosto de 2016 .
  55. ^ "Xbox One vs PlayStation 4: ¿Qué consola de juegos es mejor? - ExtremeTech" . www.extremetech.com . Consultado el 13 de mayo de 2019 .
  56. ^ "Kepler TM GK110" (PDF) . NVIDIA Corporation. 2012. Archivado (PDF) desde el original el 11 de octubre de 2016 . Consultado el 3 de agosto de 2016 .
  57. ^ "Taiwan Semiconductor Manufacturing Company Limited" . www.tsmc.com . Archivado desde el original el 10 de agosto de 2016 . Consultado el 3 de agosto de 2016 .
  58. ^ "Construyendo una PC para HTC Vive" . 2016-06-16. Archivado desde el original el 29 de julio de 2016 . Consultado el 3 de agosto de 2016 .
  59. ^ "Vive | Vive Optimized PC" . www.htcvive.com . Archivado desde el original el 24 de febrero de 2016 . Consultado el 3 de agosto de 2016 .
  60. ^ "La monstruosa GPU Pascal de Nvidia está repleta de tecnología de vanguardia y 15 mil millones de transistores" . 5 de abril de 2016. Archivado desde el original el 31 de julio de 2016 . Consultado el 3 de agosto de 2016 .
  61. Sarkar, Samit (20 de agosto de 2018). "Reveladas las GPU Nvidia RTX 2070, RTX 2080, RTX 2080 Ti: especificaciones, precio, fecha de lanzamiento" . Polígono . Consultado el 11 de septiembre de 2019 .
  62. ^ "AMD RX 480, 470 y 460 Polaris GPU para ofrecer el" salto más revolucionario en rendimiento "hasta ahora" . 2016-01-16. Archivado desde el original el 1 de agosto de 2016 . Consultado el 3 de agosto de 2016 .
  63. ^ Comunicado de prensa de AMD: "AMD anuncia productos de liderazgo de próxima generación en Computex 2019 Keynote" .AMD.com. Consultado el 5 de octubre de 2019.
  64. ^ "AMD introducirá nuevas GPU RDNA de próxima generación en 2020, no una 'actualización' típica de Navi" . tomshardware.com . Hardware de Tom . 2020-01-29 . Consultado el 8 de febrero de 2020 .
  65. ^ Garreffa, Anthony (9 de septiembre de 2020). "AMD revelará las tarjetas gráficas Big Navi RDNA 2 de próxima generación el 28 de octubre" . TweakTown . Consultado el 9 de septiembre de 2020 .
  66. ^ Lyles, Taylor (9 de septiembre de 2020). "El próximo mes se darán a conocer las CPU Zen 3 de próxima generación de AMD y la GPU Radeon RX 6000 'Big Navi'" . The Verge . Consultado el 10 de septiembre de 2020 .
  67. ^ "AMD se burla de los números de rendimiento de la tarjeta Radeon RX 6000: ¿apunta a 3080?" . anandtech.com . AnandTech . 2020-10-08 . Consultado el 25 de octubre de 2020 .
  68. ^ "AMD anuncia las presentaciones de Ryzen" Zen 3 "y Radeon" RDNA2 "para octubre: comienza un nuevo viaje" . anandtech.com . AnandTech . 2020-09-09 . Consultado el 25 de octubre de 2020 .
  69. ^ Judd, Will (28 de octubre de 2020). "AMD presenta tres tarjetas gráficas Radeon 6000 con trazado de rayos y un rendimiento superior a RTX" . Eurogamer . Consultado el 28 de octubre de 2020 .
  70. Mujtaba, Hassan (30 de noviembre de 2020). "Los modelos personalizados AMD Radeon RX 6700 XT 'Navi 22 GPU' supuestamente aumentan hasta 2,95 GHz" . Wccftech . Consultado el 3 de diciembre de 2020 .
  71. ^ Tyson, Mark (3 de diciembre de 2020). "Conferencia magistral del CEO de AMD programada para CES 2020 el 12 de enero" . HEXUS . Consultado el 3 de diciembre de 2020 .
  72. ^ Cutress, Ian (12 de enero de 2021). "AMD lanzará gráficos de escritorio RDNA 2 de rango medio en el primer semestre de 2021" . AnandTech . Consultado el 4 de enero de 2021 .
  73. ^ Funk, Ben (12 de diciembre de 2020). "Sony PS5 obtiene un desmontaje completo detallando su RDNA 2 agallas y gloria" . Hardware caliente . Consultado el 3 de enero de 2021 .
  74. ^ Gartenberg, Chaim (18 de marzo de 2020). "Sony revela las especificaciones completas del hardware de la PS5" . The Verge . Consultado el 3 de enero de 2021 .
  75. ^ Smith, Ryan. "Microsoft lanza más especificaciones técnicas de Xbox Series X: Zen 2 + RDNA 2, 12 GPU TFLOP, HDMI 2.1 y un SSD personalizado" . www.anandtech.com . Consultado el 19 de marzo de 2020 .
  76. ^ Febrero de 2018, Paul Alcorn 28. "AMD en aumento: la cuota de mercado de CPU y GPU crece rápidamente" . Hardware de Tom .
  77. ^ "Productos" . Gráficos S3. Archivado desde el original el 11 de enero de 2014 . Consultado el 21 de enero de 2014 .
  78. ^ "Gráficos Matrox - Productos - Tarjetas gráficas" . Matrox.com. Archivado desde el original el 5 de febrero de 2014 . Consultado el 21 de enero de 2014 .
  79. ^ " Una encuesta de técnicas para optimizar el aprendizaje profundo en GPU ", Mittal et al., J. of Systems Architecture, 2019
  80. ^ "Ayúdame a elegir: tarjetas de video" . Dell . Archivado desde el original el 9 de septiembre de 2016 . Consultado el 17 de septiembre de 2016 .
  81. ^ Documentación sobre un controlador de dispositivo Linux para Nvidia Optimus
  82. ^ https://www.fudzilla.com/news/graphics/38134-crossfire-and-sli-market-is-just-300-000-units
  83. ^ "¿Está muerta la Multi-GPU?" . El 7 de enero de 2018.
  84. ^ "Nvidia SLI y AMD CrossFire están muertos, pero ¿deberíamos lamentar los juegos con múltiples GPU? | TechRadar" .
  85. ^ "Guía de transcodificación de NVIDIA FFmpeg" . 24 de julio de 2019.
  86. ^ https://documents.blackmagicdesign.com/ConfigGuides/DaVinci_Resolve_15_Mac_Configuration_Guide.pdf
  87. ^ "Sistema recomendado: sistemas recomendados para DaVinci Resolve" . Puget Systems .
  88. ^ "Codificación de hardware y renderizado acelerado por GPU" .
  89. ^ "Escalado de rendimiento de V-Ray Next Multi-GPU" .
  90. ^ "Preguntas frecuentes | Software de renderizado 3D acelerado por GPU | Redshift" .
  91. ^ "¡Ya está aquí la vista previa de OctaneRender 2020 ™!" .
  92. ^ "Exploración del rendimiento con Arnold Renderer GPU Beta de Autodesk" . 8 de abril de 2019.
  93. ^ "Procesamiento de GPU - Manual de Blender" .
  94. ^ "V-Ray para Nuke - Renderizado con trazado de rayos para compositores | Grupo del caos" .
  95. ^ "Requisitos del sistema | Nuke | Fundición" .
  96. ^ "¿Qué pasa con la compatibilidad con múltiples GPU? - Folding @ home" .
  97. ^ https://www.tomshardware.com/amp/picturestory/693-intel-graphics-evolution.html
  98. ^ "Descripción general de GA-890GPA-UD3H" . Archivado desde el original el 15 de abril de 2015 . Consultado el 15 de abril de 2015 .
  99. ^ Gary Key. "AnandTech - µATX Parte 2: Revisión de rendimiento de Intel G33" . anandtech.com . Archivado desde el original el 31 de mayo de 2008.
  100. ^ Tim Tscheblockov. "Xbit Labs: resumen de 7 chipsets de gráficos integrados contemporáneos para plataformas Socket 478 y Socket A" . Archivado desde el original el 26 de mayo de 2007 . Consultado el 3 de junio de 2007 .
  101. ^ Coelho, Rafael (18 de enero de 2016). "¿La memoria de doble canal hace una diferencia en el rendimiento de video integrado?" . Secretos de hardware . Consultado el 4 de enero de 2019 .
  102. ^ Bradley Sanford. "Soluciones gráficas integradas para aplicaciones con uso intensivo de gráficos" (PDF) . Archivado (PDF) desde el original el 28 de noviembre de 2007 . Consultado el 2 de septiembre de 2007 .
  103. ^ Bradley Sanford. "Soluciones gráficas integradas para aplicaciones con uso intensivo de gráficos" . Archivado desde el original el 7 de enero de 2012 . Consultado el 2 de septiembre de 2007 .
  104. ^ Darren Murph. "La Universidad de Stanford adapta Folding @ home a las GPU" . Archivado desde el original el 12 de octubre de 2007 . Consultado el 4 de octubre de 2007 .
  105. ^ Mike Houston. "Folding @ Home - GPGPU" . Archivado desde el original el 27 de octubre de 2007 . Consultado el 4 de octubre de 2007 .
  106. ^ "Lista Top500 - junio de 2012 | Sitios de supercomputadoras TOP500" . Top500.org. Archivado desde el original el 13 de enero de 2014 . Consultado el 21 de enero de 2014 .
  107. ^ John Nickolls. "Conferencia de Stanford: programación paralela escalable con CUDA en GPU Manycore" . Archivado desde el original el 11 de octubre de 2016.
  108. ^ S Harding y W Banzhaf. "Programación genética rápida en GPU" . Archivado desde el original el 9 de junio de 2008 . Consultado el 1 de mayo de 2008 .
  109. ^ W Langdon y W Banzhaf. "Un intérprete SIMD para programación genética en tarjetas gráficas GPU" . Archivado desde el original el 9 de junio de 2008 . Consultado el 1 de mayo de 2008 .
  110. ^ V. García y E. Debreuve y M. Barlaud. Búsqueda rápida del vecino más cercano k usando GPU . En Actas del taller CVPR sobre visión por computadora en GPU, Anchorage, Alaska, EE. UU., Junio ​​de 2008.
  111. ^ "Tensor Cores en NVIDIA Volta" . Nvidia . Nvidia . Consultado el 16 de agosto de 2018 .
  112. ^ Smith, Ryan. "NVIDIA Volta dio a conocer: GV100 GPU y Tesla V100 Accelerator Anunciado" . AnandTech . AnandTech . Consultado el 16 de agosto de 2018 .
  113. ^ Hill, Brandon (11 de agosto de 2017). "Arquitectura de GPU Navi 7nm de AMD para presentar circuitos de inteligencia artificial dedicados" . HotHardware . HotHardware. Archivado desde el original el 17 de agosto de 2018 . Consultado el 16 de agosto de 2018 .
  114. ^ "Lista de sistemas candidatos de eGPU" . Foros de Tech-Inferno .
  115. ^ Neil Mohr. "Cómo hacer un adaptador gráfico externo para computadora portátil" . TechRadar . Archivado desde el original el 26 de junio de 2017.
  116. ^ "Mejor tarjeta gráfica externa 2020 (EGPU) [La guía completa]" . 16 de marzo de 2020.
  117. ^ "Utilice un procesador de gráficos externo con su Mac" . Soporte de Apple . Consultado el 11 de diciembre de 2018 .
  118. ^ "Acelerador OMEN | Sitio oficial de HP®" . www8.hp.com . Consultado el 11 de diciembre de 2018 .
  119. ^ "Amplificador de gráficos Alienware | Dell Estados Unidos" . Dell . Consultado el 11 de diciembre de 2018 .
  120. ^ "Razer Core X - Thunderbolt ™ 3 eGPU" . Razer . Consultado el 11 de diciembre de 2018 .
  121. ^ Recuadro, ► Sugerencias (25 de noviembre de 2016). "Construir guías por usuarios" . eGPU.io . Consultado el 11 de diciembre de 2018 .
  122. ^ "El mercado de chips gráficos está mostrando algo de vida" . TG Diariamente. 20 de agosto de 2014. Archivado desde el original el 26 de agosto de 2014 . Consultado el 22 de agosto de 2014 .

Enlaces externos [ editar ]

  • NVIDIA: ¿Qué es la informática con GPU?
  • La serie de libros GPU Gems
  • - un historial de hardware de gráficos
  • [1]
  • Cómo funcionan las GPU
  • Visor de mayúsculas de GPU: utilidad de información de la tarjeta de video
  • Arquitectura OpenGPU-GPU (en chino)
  • Descripción general de las GPU ARM Mali
  • Revista de renderizado de GPU
  • Lista de jerarquía de GPU