Las series GeForce 3 (NV20) es la tercera generación de Nvidia 's GeForce gráficos unidades de procesamiento (GPU). Introducido en febrero de 2001, [1] avanzó la arquitectura GeForce agregando sombreadores de vértices y píxeles programables, anti-aliasing multimuestra y mejoró la eficiencia general del proceso de renderizado.
Fecha de lanzamiento | 27 de febrero de 2001 |
---|---|
Nombre clave | NV20 |
Arquitectura | Kelvin |
Modelos |
|
Tarjetas | |
Rango medio | GeForce 3, Ti 200 |
Gama alta | GeForce 3, Ti 500 |
Soporte API | |
Direct3D | Direct3D 8.0 Vertex Shader 1.1 Pixel Shader 1.1 |
OpenGL | OpenGL 1.3 |
Historia | |
Predecesor | Serie GeForce 2 |
Sucesor | Serie GeForce 4 |
La GeForce 3 se dio a conocer durante el 2001 Macworld Conference & Expo / Tokio 2001 en Makuhari Messe y demostraciones en tiempo real con alimentación de Pixar junior de la lámpara y la id Software 's Doom 3 . Apple anunciaría más tarde los derechos de lanzamiento para su nueva línea de computadoras.
La familia GeForce 3 comprende 3 modelos de consumo: GeForce 3 , GeForce 3 Ti200 y GeForce 3 Ti500 . Se vendió como Quadro DCC una versión profesional separada, con un conjunto de funciones adaptadas para el diseño asistido por computadora . Un derivado de GeForce 3, conocido como NV2A , se usa en la consola de juegos Microsoft Xbox .
Arquitectura
Introducida tres meses después de que NVIDIA adquiriera 3dfx y se comercializara como nFinite FX Engine , la GeForce 3 fue la primera tarjeta 3D compatible con Microsoft Direct3D 8.0. Su arquitectura de sombreado programable permitió a las aplicaciones ejecutar programas de efectos visuales personalizados en el lenguaje Microsoft Shader 1.1. Se cree que el hardware T&L de función fija de GeForce 2 todavía estaba incluido en el chip para su uso con aplicaciones Direct3D 7.0, ya que el sombreador de vértice único no era lo suficientemente rápido para emularlo todavía. [2] Con respecto al rendimiento puro de píxeles y texel, la GeForce 3 tiene cuatro canales de píxeles, cada uno de los cuales puede muestrear dos texturas por reloj. Esta es la misma configuración que GeForce 2, excluyendo la línea GeForce 2 MX más lenta.
Para aprovechar mejor el rendimiento de la memoria disponible, la GeForce 3 tiene un subsistema de memoria denominado Arquitectura de memoria Lightspeed (LMA). Este se compone de varios mecanismos que reducen el sobregiro, conservan el ancho de banda de la memoria comprimiendo el búfer z (búfer de profundidad) y administran mejor la interacción con la DRAM.
Otros cambios arquitectónicos incluyen soporte EMBM [3] [4] (introducido por primera vez por Matrox en 1999) y mejoras en la funcionalidad anti-aliasing . Los chips GeForce anteriores solo podían realizar anti-aliasing supermuestreado (SSAA), un proceso exigente que procesa la imagen en un tamaño grande internamente y luego la reduce a la resolución de salida final. GeForce 3 agrega métodos anti-aliasing de muestreo múltiple (MSAA) y anti-aliasing Quincunx , los cuales funcionan significativamente mejor que el anti-aliasing de supermuestreo a expensas de la calidad. Con el muestreo múltiple, las unidades de salida de render supermuestrean solo los búferes Z y los búferes de esténcil, y al usar esa información se obtienen los mayores detalles geométricos necesarios para determinar si un píxel cubre más de un objeto poligonal. Esto evita que el sombreador de píxeles / fragmentos tenga que representar varios fragmentos para píxeles donde el mismo objeto cubre todos los mismos subpíxeles en un píxel. Este método falla con mapas de textura que tienen transparencia variable (por ejemplo, un mapa de textura que representa una valla de tela metálica). El anti-aliasing Quincunx es un filtro de desenfoque que desplaza la imagen renderizada medio píxel hacia arriba y medio píxel hacia la izquierda para crear subpíxeles que luego se promedian juntos en un patrón de cruz diagonal, destruyendo ambos bordes irregulares pero también algunos en general detalle de la imagen. Finalmente, las unidades de muestreo de textura de GeForce 3 se actualizaron para admitir el filtrado anisotrópico de 8 toques , en comparación con el límite anterior de 2 toques con GeForce 2. Con el filtrado anisotrópico de 8 toques habilitado, las texturas distantes pueden ser notablemente más nítidas.
Actuación
La GPU GeForce 3 (NV20) tiene el mismo rendimiento teórico de píxeles y texel por reloj que la GeForce 2 (NV15). GeForce 2 Ultra se registra un 25% más rápido que la GeForce 3 original y un 43% más rápido que la Ti200; esto significa que en instancias seleccionadas, como los puntos de referencia Direct3D 7 T&L, la GeForce 2 Ultra y, a veces, incluso la GTS pueden superar a la GeForce 3 y la Ti200, porque las GPU más nuevas usan la misma unidad T&L de función fija, pero tienen una frecuencia menor. [5] La GeForce 2 Ultra también tiene un considerable ancho de banda de memoria bruta disponible, solo igualado por la GeForce 3 Ti500. Sin embargo, cuando se compara el rendimiento anti-aliasing, la GeForce 3 es claramente superior debido a su compatibilidad con MSAA y la eficiencia de la gestión del ancho de banda de memoria / velocidad de relleno.
Al comparar las capacidades de sombreado con la Radeon 8500, los revisores notaron una precisión superior con la tarjeta ATi. [6]
Posicionamiento del producto
NVIDIA actualizó la línea en octubre de 2001 con el lanzamiento de GeForce 3 Ti200 y Ti500. Esto coincidió con los lanzamientos de ATI de Radeon 8500 y Radeon 7500 . La Ti500 tiene relojes de memoria y núcleo más altos (núcleo de 240 MHz / 250 MHz de RAM) que la GeForce 3 original (200 MHz / 230 MHz) y generalmente coincide con la Radeon 8500. La Ti200 fue la versión GeForce3 más lenta y de menor precio. Tiene una frecuencia más baja (175 MHz / 200 MHz) pero supera a la Radeon 7500 en velocidad y conjunto de funciones además de la implementación de doble monitor.
La GeForce3 original solo se lanzó en configuraciones de 64 MiB, mientras que las Ti200 y Ti500 también se lanzaron como versiones de 128 MiB.
Especificaciones
Soporte discontinuado
Nvidia ha dejado de admitir controladores para la serie GeForce 3.
Los conductores finales incluyen
- Windows 9x y Windows Me: 81.98 lanzado el 21 de diciembre de 2005; Descargar ;
- Windows 2000, Windows XP y Media Center Edition de 32 bits: 93.71 lanzado el 2 de noviembre de 2006; Descarga .
(A pesar de las afirmaciones en la documentación de que 94.24 es compatible con la serie Geforce 3, no es así)
- Los controladores de Windows 2000 / XP pueden instalarse en versiones posteriores de Windows, como Windows 7. Sin embargo, no son compatibles con los efectos "Aero" de Windows 7.
- (Lista de productos compatibles también en esta página)
Archivo de controladores de Windows 95/98 / Me Archivo de controladores de
Windows XP / 2000
Sucesor
La serie GeForce 4 (no MX), presentada en abril de 2002, fue una revisión de la arquitectura GeForce 3. La variante económica, denominada GeForce 4 MX , estaba más cerca en términos de diseño a la GeForce 2.
Ver también
Referencias
- ^ https://www.anandtech.com/show/802
- ^ https://paroj.github.io/gltut/History%20Radeon8500.html
- ^ http://ixbtlabs.com/articles/digest3d/0402/itogi-video-gf3.html
- ^ https://www.nvidia.com/object/geforce3_faq.html
- ^ "Procesador de gráficos GeForce3 de NVIDIA" . techreport.com . Consultado el 25 de junio de 2017 .
- ^ "Radeon 8500 de ATI: fuera de lo común" . techreport.com . Consultado el 25 de junio de 2017 .
enlaces externos
- Nvidia: GeForce3: la GPU de efectos infinitos
- Controladores ForceWare 81.98, versión final del controlador Windows 9x / ME
- Controladores ForceWare 93.71, versión final del controlador de Windows XP
- Anandtech: Nvidia GeForce3
- Anandtech: Línea de productos de otoño de Nvidia: GeForce3 Titanium
- techPowerUp! Base de datos de GPU