NVLink es un enlace de comunicaciones de rango cercano de varios carriles en serie basado en cables desarrollado por Nvidia . A diferencia de PCI Express , un dispositivo puede constar de varios NVLinks y los dispositivos utilizan redes de malla para comunicarse en lugar de un concentrador central . El protocolo se anunció por primera vez en marzo de 2014 y utiliza una interconexión de señalización de alta velocidad (NVHS) patentada. [1]
![]() | |
Fabricante | Nvidia |
---|---|
Tipo | Multi- GPU y CPU |
Predecesor | Interfaz de enlace escalable |
Principio
NVLink es un protocolo de comunicaciones por cable para comunicaciones de semiconductores de rango cercano desarrollado por Nvidia que se puede utilizar para transferencias de códigos de control y datos en sistemas de procesadores entre CPU y GPU y únicamente entre GPU. NVLink especifica una conexión punto a punto con velocidades de datos de 20, 25 y 50 Gbit / s (v1.0 / v2.0 / v3.0 respectivamente) por par diferencial. Ocho pares diferenciales forman un "subenlace" y dos "subenlaces", uno para cada dirección, forman un "enlace". La velocidad de datos total de un subenlace es de 25 Gbit / sy la velocidad de datos total de un enlace es de 50 Gbit / s. Cada GPU V100 admite hasta seis enlaces. Por lo tanto, cada GPU es capaz de admitir hasta 300 Gbit / s en ancho de banda bidireccional total. [2] [3] Los productos NVLink introducidos hasta la fecha se centran en el espacio de aplicaciones de alto rendimiento. Anunciado el 14 de mayo de 2020, NVLink 3.0 aumenta la velocidad de datos por par diferencial de 25 Gbit / sa 50 Gbit / s mientras reduce a la mitad el número de pares por NVLink de 8 a 4. Con 12 enlaces para una GPU A100 basada en Ampere, esto trae el ancho de banda total a 600 GB / seg. [4]
Actuación
La siguiente tabla muestra una comparación de métricas básicas basada en especificaciones estándar:
Interconectar | Tasa de transferencia | Código de línea | Tasa de carga útil efectiva por carril por dirección | Longitud total máxima del carril (PCIe: incl. 5 "para PCB) | Realizado en diseño |
---|---|---|---|---|---|
PCIe 1.x | 2,5 GT / s | 8b / 10b | ~ 0,25 GB / s | 20 "= ~ 51 cm | |
PCIe 2.x | 5 GT / s | 8b / 10b | ~ 0,5 GB / s | 20 "= ~ 51 cm | |
PCIe 3.x | 8 GT / s | 128b / 130b | ~ 1 GB / s | 20 "= ~ 51 cm [5] | Pascal , Volta , Turing |
PCIe 4.0 | 16 GT / s | 128b / 130b | ~ 2 GB / s | 8−12 "= ~ 20−30 cm [5] | Volta en Xavier (8x, 4x, 1x), amperio , potencia 9 |
PCIe 5.0 | 32 GT / s [6] | 128b / 130b | ~ 4 GB / s | ||
PCIe 6.0 | 64 GT / s | 128b / 130b | ~ 8 GB / s | ||
NVLink 1.0 | 20 Gbit / s | ~ 2,5 GB / s | Pascal , Poder 8+ | ||
NVLink 2.0 | 25 Gbit / s | ~ 3,125 GB / s | Volta , NVSwitch para Volta Power 9 | ||
NVLink 3.0 | 50 Gbit / s | ~ 6,25 GB / s | Amperio , NVSwitch para amperio | ||
NVLink 4.0 | ?? Gbit / s | ~?. ?? GB / s | Nvidia Grace Datacenter / Server CPU, microarquitectura de GPU Nvidia de próxima generación |
La siguiente tabla muestra una comparación de los parámetros de bus relevantes para semiconductores del mundo real que ofrecen NVLink como una de sus opciones:
Semiconductor | Variante de entrega a bordo / autobús | Interconectar | Tasa de tecnología de transmisión (por carril) | Carriles por sub-link (out + en) | Velocidad de datos de subenlace (por dirección de datos) | Recuento de subenlaces o unidades | Tasa de datos total (salida + entrada) | Carriles totales (fuera + dentro) | Tasa de datos total (salida + entrada) |
---|---|---|---|---|---|---|---|---|---|
Nvidia GP100 | P100 SXM [7] , P100 PCI-E [8] | PCIe 3.0 | GT / s | 816 + 16 Ⓑ | 128 Gbit / s = 16 GByte / s | 1 | [9] | 16 + 16 GByte / s32 Ⓒ | 32 GByte / s |
Nvidia GV100 | V100 SXM2 [10] , V100 PCI-E [11] | PCIe 3.0 | GT / s | 816 + 16 Ⓑ | 128 Gbit / s = 16 GByte / s | 1 | 16 + 16 GByte / s | 32 Ⓒ | 32 GByte / s |
Nvidia TU104 | GeForce RTX 2080 , Quadro RTX 5000 | PCIe 3.0 | GT / s | 816 + 16 Ⓑ | 128 Gbit / s = 16 GByte / s | 1 | 16 + 16 GByte / s | 32 Ⓒ | 32 GByte / s |
Nvidia TU102 | GeForce RTX 2080 Ti, Quadro RTX 6000/8000 | PCIe 3.0 | GT / s | 816 + 16 Ⓑ | 128 Gbit / s = 16 GByte / s | 1 | 16 + 16 GByte / s | 32 Ⓒ | 32 GByte / s |
Nvidia Xavier [12] | (genérico) | PCIe 4.0 Ⓓ 2 unidades: x8 (dual) 1 unidad: x4 (dual) 3 unidades: x1 [13] [14] | 16 GT / s | 8 + 8 Ⓑ 4 + 4 Ⓑ 1 + 1 | 128 Gbit / s = 16 GByte / s 64 Gbit / s = 8 GByte / s 16 Gbit / s = 2 GByte / s | Ⓓ 2 1 3 | Ⓓ 32 + 32 GByte / s 8 + 8 GByte / s 6 + 6 GByte / s | 40 Ⓑ | 80 GByte / s |
IBM Power9 [15] | (genérico) | PCIe 4.0 | 16 GT / s | 16 + 16 Ⓑ | 256 Gbit / s = 32 GByte / s | 3 | 96 + 96 GByte / s | 96 | 192 GByte / s |
Nvidia GA100 [16] [17] Nvidia GA102 [18] | Amperio A100 | PCIe 4.0 | 16 GT / s | 16 + 16 Ⓑ | 256 Gbit / s = 32 GByte / s | 1 | 32 + 32 GByte / s | 32 Ⓒ | 64 GByte / s |
Nvidia GP100 | P100 SXM, (no disponible con P100 PCI-E) [19] | NVLink 1.0 | 20 GT / s | 8 + 8 Ⓐ | 160 Gbit / s = 20 GByte / s | 4 | 80 + 80 GByte / s | 64 | 160 GByte / s |
Nvidia Xavier | (genérico) | NVLink 1.0 [12] | 20 GT / s [12] | 8 + 8 Ⓐ | 160 Gbit / s = 20 GByte / s [20] | ||||
IBM Power8 + | (genérico) | NVLink 1.0 | 20 GT / s | 8 + 8 Ⓐ | 160 Gbit / s = 20 GByte / s | 4 | 80 + 80 GByte / s | 64 | 160 GByte / s |
Nvidia GV100 | V100 SXM2 [21] (no disponible con V100 PCI-E) | NVLink 2.0 | 25 GT / s | 8 + 8 Ⓐ | 200 Gbit / s = 25 GByte / s | 6 [22] | 150 + 150 GByte / s | 96 | 300 GByte / s |
IBM Power9 [23] | (genérico) | NVLink 2.0 (puertos BlueLink) | 25 GT / s | 8 + 8 Ⓐ | 200 Gbit / s = 25 GByte / s | 6 | 150 + 150 GByte / s | 96 | 300 GByte / s |
NVSwitch para Volta [24] | (genérico) (conmutador 18x18 totalmente conectado) | NVLink 2.0 | 25 GT / s | 8 + 8 Ⓐ | 200 Gbit / s = 25 GByte / s | 2 * 8 + 2 = 18 | 450 + 450 GByte / s | 288 | 900 GByte / s |
Nvidia TU104 | GeForce RTX 2080 , Quadro RTX 5000 [25] | NVLink 2.0 | 25 GT / s | 8 + 8 Ⓐ | 200 Gbit / s = 25 GByte / s | 1 | 25 + 25 GByte / s | dieciséis | 50 GByte / s |
Nvidia TU102 | GeForce RTX 2080 Ti, Quadro RTX 6000/8000 [25] | NVLink 2.0 | 25 GT / s | 8 + 8 Ⓐ | 200 Gbit / s = 25 GByte / s | 2 | 50 + 50 GByte / s | 32 | 100 GByte / s |
Nvidia GA100 [16] [17] | Amperio A100 | NVLink 3.0 | 50 GT / s | 4 + 4 Ⓐ | 200 Gbit / s = 25 GByte / s | 12 [26] | 300 + 300 GByte / s | 96 | 600 GByte / s |
Nvidia GA102 [27] | GeForce RTX 3090 Quadro RTX A6000 | NVLink 3.0 | 28,125 GT / s | 4 + 4 Ⓐ | 112,5 Gbit / s = 14,0625 GByte / s | 4 | 56,25 + 56,25 GByte / s | dieciséis | 112,5 GByte / s |
NVSwitch para amperio [28] | (genérico) (conmutador 18x18 totalmente conectado) | NVLink 3.0 | 50 GT / s | 8 + 8 Ⓐ | 400 Gbit / s = 50 GByte / s | 2 * 8 + 2 = 18 | 900 + 900 GByte / s | 288 | 1800 GByte / s |
Nota : las columnas de velocidad de datos se redondearon aproximándose a la velocidad de transmisión, consulte el párrafo sobre rendimiento en el mundo real
- Ⓐ : valor de la muestra; La agrupación de subenlaces NVLink debería ser posible
- Ⓑ : valor de la muestra; otras fracciones para el uso del carril PCIe deberían ser posibles
- Ⓒ : un solo carril PCIe (no! 16) transfiere datos a través de un par diferencial
- Ⓓ : se pueden aplicar varias limitaciones de combinaciones finalmente posibles debido al diseño de la placa y al cambio de pines del chip
- dual : la unidad de interfaz se puede configurar como un concentrador raíz o un punto final
- genérico : semiconductor desnudo sin restricciones específicas de diseño de placa aplicadas
El rendimiento en el mundo real podría determinarse aplicando diferentes impuestos de encapsulación y tasa de uso. Aquellos provienen de varias fuentes:
- Código de línea 128b / 130b (consulte, por ejemplo , transmisión de datos PCI Express para las versiones 3.0 y superiores)
- Caracteres de control de enlaces
- Encabezado de transacción
- Capacidades de almacenamiento en búfer (depende del dispositivo)
- Uso de DMA en el lado de la computadora (depende de otro software, generalmente insignificante en los puntos de referencia)
Estas limitaciones físicas suelen reducir la velocidad de datos entre el 90 y el 95% de la velocidad de transferencia. Los puntos de referencia de NVLink muestran una tasa de transferencia alcanzable de aproximadamente 35,3 Gbit / s (host a dispositivo) para una conexión NVLink de 40 Gbit / s (enlace ascendente de 2 sub-carriles) hacia una GPU P100 en un sistema que es impulsado por un conjunto de CPU IBM Power8 . [29]
Uso con placas enchufables
Para las diversas versiones de tarjetas enchufables (existe una pequeña cantidad de tarjetas GPU gráficas profesionales y de juegos de alta gama con esta característica) que exponen conectores adicionales para unirlos en un grupo NVLink, una cantidad similar de tarjetas gráficas relativamente compactas y ligeramente variables. , Existen enchufes de interconexión basados en PCB. Normalmente, solo las placas del mismo tipo se acoplarán entre sí debido a su diseño físico y lógico. Para algunas configuraciones, es necesario aplicar dos enchufes idénticos para lograr la velocidad de datos completa. A partir de ahora, el enchufe típico tiene forma de U con un conector de borde de rejilla fina en cada uno de los trazos finales de la forma de espaldas al espectador. El ancho del enchufe determina qué tan lejos deben colocarse las tarjetas enchufables a la placa principal del sistema informático anfitrión; la distancia para la colocación de la tarjeta se determina comúnmente por el enchufe correspondiente (los anchos de enchufe disponibles conocidos son 3 a 5 ranuras y también depende del tipo de placa). [30] [31] La interconexión a menudo se conoce como SLI (Interfaz de enlace escalable) de 2004 por su diseño estructural y apariencia, incluso si el diseño moderno basado en NVLink es de una naturaleza técnica bastante diferente con diferentes características en sus niveles básicos en comparación con el diseño anterior. Los dispositivos del mundo real notificados son: [32]
- Quadro GP100 (un par de tarjetas utilizarán hasta 2 puentes; [33] la configuración realiza 2 o 4 conexiones NVLink con hasta 160 GB / s [34] ; esto podría parecerse a NVLink 1.0 con 20 GT / s)
- Quadro GV100 (un par de tarjetas necesitarán hasta 2 puentes y obtendrán hasta 200 GB / s [30] ; esto podría parecerse a NVLink 2.0 con 25 GT / sy 4 enlaces)
- GeForce RTX 2080 basada en TU104 (con un solo puente "GeForce RTX NVLink-Bridge" [35] )
- GeForce RTX 2080 Ti basada en TU102 (con un solo puente "GeForce RTX NVLink-Bridge" [31] )
- Quadro RTX 5000 [36] basado en TU104 [37] (con un solo puente "NVLink" de hasta 50 GB / s [38] ; esto podría parecerse a NVLink 2.0 con 25 GT / sy 1 enlace)
- Quadro RTX 6000 [36] basado en TU102 [37] (con un solo puente "NVLink HB" hasta 100 GB / s [38] ; esto podría parecerse a NVLink 2.0 con 25 GT / sy 2 enlaces)
- Quadro RTX 8000 [36] basado en TU102 [39] (con un solo puente "NVLink HB" hasta 100 GB / s [38] ; esto podría parecerse a NVLink 2.0 con 25 GT / sy 2 enlaces)
Programación y software de servicio
Para las líneas de productos Tesla, Quadro y Grid, NVML-API (API de biblioteca de administración de Nvidia) ofrece un conjunto de funciones para controlar mediante programación algunos aspectos de las interconexiones NVLink en sistemas Windows y Linux, como la evaluación de componentes y las versiones junto con el estado / error. consultas y seguimiento del rendimiento. [40] Además, con la provisión de la biblioteca NCCL (Biblioteca de Comunicaciones Colectivas de Nvidia), los desarrolladores en el espacio público estarán habilitados para realizar, por ejemplo, implementaciones poderosas para la inteligencia artificial y temas de computación similares sobre NVLink. [41] La página "Configuración 3D" »" Configurar SLI, Surround, PhysX "en el panel de control de Nvidia y la aplicación de muestra CUDA " simpleP2P "utilizan dichas API para realizar sus servicios con respecto a sus funciones NVLink. En la plataforma Linux, la aplicación de línea de comandos con el subcomando "nvidia-smi nvlink" proporciona un conjunto similar de información y control avanzados. [32]
Historia
El 5 de abril de 2016, Nvidia anunció que NVLink se implementaría en la GPU GP100 basada en microarquitectura Pascal, como se utiliza, por ejemplo, en los productos Nvidia Tesla P100. [42] Con la introducción de la base de computadora de alto rendimiento DGX-1, fue posible tener hasta ocho módulos P100 en un sistema de bastidor único conectado a hasta dos CPU host. La placa portadora (...) permite una placa dedicada para enrutar las conexiones NVLink: cada P100 requiere 800 pines, 400 para alimentación PCIe + y otros 400 para NVLinks, lo que suma casi 1600 trazas de placa solo para NVLinks (. ..). [43] Cada CPU tiene conexión directa a 4 unidades de P100 a través de PCIe y cada P100 tiene un NVLink cada uno a los otros 3 P100 en el mismo grupo de CPU más un NVLink más a un P100 en el otro grupo de CPU. Cada NVLink (interfaz de enlace) ofrece un aumento bidireccional de 20 GB / seg. 20 GB / seg. Hacia abajo, con 4 enlaces por GPU GP100, para un ancho de banda agregado de 80 GB / seg. Hacia arriba y otros 80 GB / seg. Hacia abajo. [44] NVLink admite el enrutamiento de modo que en el diseño DGX-1 para cada P100, un total de 4 de los otros 7 P100 son accesibles directamente y los 3 restantes son accesibles con un solo salto. De acuerdo con las representaciones en las publicaciones basadas en blogs de Nvidia, a partir de 2014 NVLink permite agrupar enlaces individuales para un mayor rendimiento punto a punto, de modo que, por ejemplo, un diseño con dos P100 y todos los enlaces establecidos entre las dos unidades permitirían el ancho de banda completo de NVLink de 80 GB. / s entre ellos. [45]
En GTC2017, Nvidia presentó su generación Volta de GPU e indicó la integración de una versión revisada 2.0 de NVLink que permitiría velocidades de datos de E / S totales de 300 GB / s para un solo chip para este diseño, y anunció además la opción de pre - pedidos con una promesa de entrega para el tercer trimestre de 2017 de las computadoras de alto rendimiento DGX-1 y DGX-Station que estarán equipadas con módulos GPU de tipo V100 y tendrán NVLink 2.0 realizado en red (dos grupos de cuatro módulos V100 con inter (conectividad de grupo) o una forma completamente interconectada de un grupo de cuatro módulos V100.
En 2017-2018, IBM y Nvidia entregaron las supercomputadoras Summit y Sierra para el Departamento de Energía de EE. UU. [46], que combinan la familia de CPU POWER9 de IBM y la arquitectura Volta de Nvidia , utilizando NVLink 2.0 para las interconexiones CPU-GPU y GPU-GPU e InfiniBand. EDR para las interconexiones del sistema. [47]
En 2020, Nvidia anunció que ya no agregarán nuevos perfiles de controlador SLI en la serie RTX 2000 y anteriores a partir del 1 de enero de 2021. [48]
Ver también
- Interconexión Intel QuickPath
- HyperTransport
- Interfaz de paso de mensajes
- INK (sistema operativo)
- Nodo de cálculo Linux
Referencias
- ^ Nvidia NVLINK 2.0 llega a los servidores de IBM el próximo año por Jon Worrel en fudzilla.com el 24 de agosto de 2016
- ^ "NVIDIA DGX-1 con arquitectura del sistema Tesla V100" (PDF) .
- ^ "¿Qué es NVLink?" . Nvidia. 2014-11-14.
- ^ Ryan Smith (14 de mayo de 2020). "NVIDIA Ampere Unleashed: NVIDIA anuncia nueva arquitectura de GPU, GPU A100 y acelerador" . AnandTech.
- ^ a b "PCIe - PCI Express (1.1 / 2.0 / 3.0 / 4.0 / 5.0)" . www.elektronik-kompendium.de .
- ^ Enero de 2019, Paul Alcorn 17. "PCIe 5.0 está listo para el horario de máxima audiencia" . Hardware de Tom .
- ^ en línea, heise. "NVIDIA Tesla P100 [SXM2], 16GB HBM2 (NVTP100-SXM) | heise online Preisvergleich / Deutschland" . geizhals.de .
- ^ en línea, heise. "PNY Tesla P100 [PCIe], 16GB HBM2 (TCSP100M-16GB-PB / NVTP100-16) ab € 4990,00 (2020) | heise online Preisvergleich / Deutschland" . geizhals.de .
- ^ NVLink lleva la aceleración de GPU al siguiente nivel por Timothy Prickett Morgan en nextplatform.com el 4 de mayo de 2016
- ^ "Especificaciones de NVIDIA Tesla V100 SXM2 16 GB" . TechPowerUp .
- ^ en línea, heise. "PNY Quadro GV100, 32GB HBM2, 4x DP (VCQGV100-PB) ab € 10199,00 (2020) | heise online Preisvergleich / Deutschland" . geizhals.de .
- ^ a b c Tegra Xavier - Nvidia en wikichip.org
- ^ GUÍA DE ADAPTACIÓN Y ACTUALIZACIÓN DE LA PLATAFORMA JETSON AGX XAVIER "Características del controlador PCIe Tegra194" en la página 14; almacenado en arrow.com
- ^ ¿Cómo habilitar la ranura PCIe x2 con Xavier? en devtalk.nvidia.com
- ^ Presentación del seminario web POWER9 de IBM para Power Systems VUG por Jeff Stuecheli el 26 de enero de 2017
- ^ a b Morgan, Timothy Prickett (14 de mayo de 2020). "Nvidia unifica el cómputo de IA con" Ampere "GPU" . La próxima plataforma .
- ^ a b "Ficha de datos" (PDF) . www.nvidia.com . Consultado el 15 de septiembre de 2020 .
- ^ https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/ampere/pdf/NVIDIA-ampere-GA102-GPU-Architecture-Whitepaper-V1.pdf
- ^ Todos a bordo del bus PCIe para el gruñido de la supercomputadora Tesla P100 de Nvidia por Chris Williams en theregister.co.uk el 20 de junio de 2016
- ^ Hicok, Gary (13 de noviembre de 2018). "NVIDIA Xavier logra un hito para la conducción autónoma segura | Blog de NVIDIA" . El blog oficial de NVIDIA .
- ^ en línea, heise. "Nvidia Tesla V100: PCIe-Steckkarte con Volta-Grafikchip und 16 GByte Speicher angekündigt" . heise en línea .
- ^ GV100 Blockdiagramm en "GTC17: NVIDIA präsentiert die nächste GPU-Architektur Volta - Tesla V100 mit 5.120 Shadereinheiten und 16 GB HBM2" por Andreas Schilling en hardwareluxx.de el 10 de mayo de 2017
- ^ Chip de GPU NVIDIA Volta GV100 para supercomputadora Summit dos veces más rápido que Pascal P100 - Se especula que alcanzará 9.5 TFLOPs FP64 Compute por Hassan Mujtaba en wccftech.com el 20 de diciembre de 2016
- ^ "Descripción técnica" (PDF) . images.nvidia.com . Consultado el 15 de septiembre de 2020 .
- ^ a b Angelini, Chris (14 de septiembre de 2018). "Arquitectura Turing de Nvidia explorada: dentro de la GeForce RTX 2080" . Hardware de Tom . pag. 7 . Consultado el 28 de febrero de 2019 .
TU102 y TU104 son las primeras GPU de escritorio de Nvidia con la interconexión NVLink en lugar de una interfaz de entrada / salida múltiple (MIO) para compatibilidad con SLI. El primero pone a disposición dos enlaces x8, mientras que el segundo está limitado a uno. Cada enlace facilita hasta 50 GB / s de ancho de banda bidireccional. Entonces, GeForce RTX 2080 Ti es capaz de hasta 100 GB / s entre tarjetas y RTX 2080 puede hacer la mitad de eso.
- ^ https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/53450-a100-pcie-nvidia-ga100-gpu-kommt-auch-als-pci-express-variante.html
- ^ https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/ampere/pdf/NVIDIA-ampere-GA102-GPU-Architecture-Whitepaper-V1.pdf
- ^ "NVLINK Y NVSWITCH" . www.nvidia.com . Consultado el 7 de febrero de 2021 .
- ^ Comparación de NVLink vs PCI-E con GPU NVIDIA Tesla P100 en servidores OpenPOWER por Eliot Eshelman en microway.com el 26 de enero de 2017
- ^ a b "NVIDIA Quadro NVLink Grafikprozessor-Zusammenschaltung en Hochgeschwindigkeit" . NVIDIA .
- ^ a b "Grafik neu erfunden: NVIDIA GeForce RTX 2080 Ti-Grafikkarte" . NVIDIA .
- ^ a b "NVLink en NVIDIA GeForce RTX 2080 y 2080 Ti en Windows 10" . Puget Systems .
- ^ [1] [ enlace muerto ]
- ^ Schilling, Andreas. "NVIDIA präsentiert Quadro GP100 mit GP100-GPU y 16 GB HBM2" . Hardwareluxx .
- ^ "Tarjeta gráfica NVIDIA GeForce RTX 2080 Founders Edition" . NVIDIA .
- ^ a b c "Tarjetas gráficas NVIDIA Quadro para estaciones de trabajo de diseño profesional" . NVIDIA .
- ^ a b "NVIDIA Quadro RTX 6000 y RTX 5000 Ready für Pre-Order" . 1 de octubre de 2018.
- ^ a b c "NVLink | pny.com" . www.pny.com .
- ^ "Especificaciones de NVIDIA Quadro RTX 8000" . TechPowerUp .
- ^ "Métodos NvLink" . docs.nvidia.com .
- ^ "Biblioteca de comunicaciones colectivas de NVIDIA (NCCL)" . Desarrollador NVIDIA . 10 de mayo de 2017.
- ^ "Inside Pascal: la plataforma informática más nueva de NVIDIA" . 2016-04-05.
- ^ Anandtech.com
- ^ NVIDIA presenta el servidor HPC DGX-1: 8 Teslas, 3U, segundo trimestre de 2016 por anandtech.com en abril de 2016
- ^ Cómo NVLink permitirá una computación multi-GPU más rápida y sencilla por Mark Harris el 14 de noviembre de 2014
- ^ "Documento técnico: Supercomputadoras Summit y Sierra" (PDF) . 2014-11-01.
- ^ "Nvidia Volta, contratos de IBM POWER9 Land para nuevas supercomputadoras del gobierno de Estados Unidos" . AnandTech . 2014-11-17.
- ^ "RIP: Nvidia clava el último clavo en el ataúd de SLI, no hay nuevos perfiles después de 2020" . PC_World . 2020-09-18.