La División de Supercomputación Avanzada (NAS) de la NASA está ubicada en el Centro de Investigación Ames de la NASA , Moffett Field en el corazón de Silicon Valley en Mountain View , California . Ha sido el principal recurso de supercomputación, modelado y simulación para las misiones de la NASA en aerodinámica, exploración espacial, estudios de patrones climáticos y corrientes oceánicas, y diseño y desarrollo de transbordadores espaciales y aviones durante casi cuarenta años.
![]() | |
Descripción general de la agencia | |
---|---|
Formado | mil novecientos ochenta y dos |
Agencias precedentes |
|
Sede | Centro de Investigación Ames de la NASA , Moffett Field , California 37 ° 25′16 ″ N 122 ° 03′53 ″ W / 37.42111 ° N 122.06472 ° W |
Ejecutivo de agencia |
|
Departamento de padres | Dirección de Tecnología de Exploración del Centro de Investigación Ames |
Agencia matriz | Administración Nacional Aeronáutica y Espacial - NASA) |
Sitio web | www |
Sistemas de supercomputación actuales | |
Pléyades | Supercluster SGI / HPE ICE X |
Aitken [1] | Sistema HPE E-Cell |
Electra [2] | Sistema SGI / HPE ICE X y HPE E-Cell |
Esfuerzo | Sistema de memoria compartida SGI UV |
Merope [3] | Supercúmulo SGI Altix |
La instalación actualmente alberga el petaescala Pléyades , Aitken y Electra superordenadores , así como la terascale Endeavour superordenador. Los sistemas se basan en la arquitectura SGI y HPE con procesadores Intel . El edificio principal también alberga sistemas de almacenamiento de cinta de archivo y disco con una capacidad de más de un exabyte de datos, el sistema de visualización de hipermuro y una de las estructuras de red InfiniBand más grandes del mundo. [4] La División NAS es parte de la Dirección de Tecnología de Exploración de la NASA y opera el Proyecto de Capacidad de Computación de Alto Nivel (HECC) de la NASA. [5]
Historia
Establecimiento
A mediados de la década de 1970, un grupo de ingenieros aeroespaciales del Centro de Investigación Ames comenzó a estudiar la posibilidad de transferir la investigación y el desarrollo aeroespaciales de las costosas y lentas pruebas en túnel de viento al diseño e ingeniería basados en simulación utilizando modelos de dinámica de fluidos computacional (CFD) en supercomputadoras. más potentes que los disponibles comercialmente en ese momento. Este esfuerzo se denominó más tarde Proyecto Numerical Aerodynamic Simulator (NAS) y la primera computadora se instaló en la Central Computing Facility en Ames Research Center en 1984.
La construcción de una instalación de supercomputación de última generación tuvo lugar el 14 de marzo de 1985 para construir un edificio donde los expertos en CFD, científicos informáticos, especialistas en visualización e ingenieros de redes y almacenamiento pudieran estar bajo un mismo techo en un entorno colaborativo. En 1986, NAS se transformó en una división completa de la NASA y en 1987, el personal y el equipo de NAS, incluida una segunda supercomputadora, una Cray-2 llamada Navier, se trasladaron a la nueva instalación, que se inauguró el 9 de marzo de 1987. [ 6]
En 1995, NAS cambió su nombre a División de Simulación Aeroespacial Numérica, y en 2001 al nombre que tiene hoy.
Innovaciones líderes en la industria
NAS ha sido uno de los principales innovadores en el mundo de la supercomputación, desarrollando muchas herramientas y procesos que se utilizaron ampliamente en la supercomputación comercial. Algunos de estos primeros incluyen: [7]
- Se instaló la primera supercomputadora basada en UNIX de Cray [8]
- Se implementó un modelo cliente / servidor que vincula las supercomputadoras y las estaciones de trabajo para distribuir la computación y la visualización.
- Desarrollé e implementé una red de área amplia (WAN) de alta velocidad que conecta recursos de supercomputación a usuarios remotos (AEROnet)
- Co-desarrolló el primer método de la NASA para la distribución dinámica de cargas de producción a través de recursos de supercomputación en ubicaciones geográficamente distantes (NASA Metacenter)
- Implementación de redes TCP / IP en un entorno de supercomputación
- Desarrolló un sistema de cola por lotes para supercomputadoras (NQS)
- Desarrolló un sistema de almacenamiento masivo jerárquico basado en UNIX (NAStore)
- Desarrolló conjuntamente (con SGI) las primeras supercomputadoras de 256, 512 y 1024 procesadores de imagen de sistema único IRIX
- Desarrolló conjuntamente (con SGI) las primeras supercomputadoras de 512 y 1024 procesadores de imagen de un solo sistema basadas en Linux
- Un entorno de memoria compartida de 2048 procesadores
![](http://wikiimg.tojsiabtv.com/wikipedia/commons/thumb/e/e4/SSLV_ascent.jpg/440px-SSLV_ascent.jpg)
Desarrollo de software
NAS desarrolla y adapta software para "complementar y mejorar el trabajo realizado en sus supercomputadoras, incluido software para soporte de sistemas, sistemas de monitoreo, seguridad y visualización científica", y a menudo proporciona este software a sus usuarios a través del Acuerdo de código abierto de la NASA ( NOSA). [9]
Algunos de los desarrollos de software importantes de NAS incluyen:
- NAS Parallel Benchmarks (NPB) se desarrolló para evaluar supercomputadoras altamente paralelas e imitar las características de las aplicaciones CFD a gran escala.
- Portable Batch System (PBS) fue el primer software de cola por lotes para sistemas paralelos y distribuidos. Fue lanzado comercialmente en 1998 y todavía se usa ampliamente en la industria.
- PLOT3D fue creado en 1982 y es un programa de gráficos por computadora que todavía se usa hoy en día para visualizar las cuadrículas y soluciones de conjuntos de datos CFD estructurados. El equipo de PLOT3D recibió el cuarto premio más grande otorgado por el Programa de la Ley Espacial de la NASA por el desarrollo de su software, que revolucionó la visualización científica y el análisis de soluciones CFD 3D. [6]
- FAST (Flow Analysis Software Toolkit) es un entorno de software basado en PLOT3D y utilizado para analizar datos de simulaciones numéricas que, aunque adaptadas a la visualización CFD, se pueden utilizar para visualizar casi cualquier dato escalar y vectorial . Fue galardonado con el Premio al Software del Año de la NASA en 1995. [10]
- INS2D e INS3D son códigos desarrollados por ingenieros de NAS para resolver ecuaciones incompresibles de Navier-Stokes en coordenadas generalizadas bidimensionales y tridimensionales, respectivamente, para flujo de estado estable y variable en el tiempo. En 1994, INS3D ganó el premio al software del año de la NASA. [6]
- Cart3D es un paquete de análisis de alta fidelidad para diseño aerodinámico que permite a los usuarios realizar simulaciones CFD automatizadas en formularios complejos. Todavía se utiliza en la NASA y otras agencias gubernamentales para probar diseños conceptuales y preliminares de aeronaves y naves espaciales. [11] El equipo de Cart3D ganó el premio al Software del Año de la NASA en 2002.
- OVERFLOW (solucionador de flujo de cuadrícula desbordado) es un paquete de software desarrollado para simular el flujo de fluido alrededor de cuerpos sólidos utilizando ecuaciones CFD de Navier-Stokes promediadas por Reynolds. Fue el primer código CFD de la NASA de propósito general para sistemas de cuadrícula desbordados (Quimera) y fue lanzado fuera de la NASA en 1992.
- Chimera Grid Tools (CGT) es un paquete de software que contiene una variedad de herramientas para el enfoque de cuadrícula desbordada de Chimera para resolver problemas CFD de generación de cuadrículas de superficie y volumen; así como manipulación, suavizado y proyección de cuadrículas.
- HiMAP Un proceso de análisis multidisciplinario (fluidos, estructuras, controles) paralelo de tres niveles (intra / interdisciplinar, multicase) [12] , [13]
Historia de la supercomputación
Desde su construcción en 1987, la Instalación de Supercomputación Avanzada de la NASA ha alojado y operado algunas de las supercomputadoras más poderosas del mundo. Muchas de estas computadoras incluyen sistemas de banco de pruebas construidos para probar nuevas configuraciones de arquitectura, hardware o redes que podrían utilizarse a mayor escala. [6] [8] El rendimiento máximo se muestra en operaciones de punto flotante por segundo (FLOPS) .
Nombre del computador | Arquitectura | Máximo rendimiento | Numero de CPU | Fecha de instalación |
---|---|---|---|---|
Cray XMP-12 | 210,53 megaflops | 1 | 1984 | |
Navier | Cray 2 | 1,95 gigaflops | 4 | 1985 |
Arrojar | Convexo 3820 | 1,9 gigaflops | 8 | 1987 |
Pierre | Máquinas de pensar CM2 | 14,34 gigaflops | 16 000 | 1987 |
43 gigaflops | 48.000 | 1991 | ||
Stokes | Cray 2 | 1,95 gigaflops | 4 | 1988 |
Gaitero | CDC / ETA-10Q | 840 megaflops | 4 | 1988 |
Reynolds | Cray Y-MP | 2,54 gigaflops | 8 | 1988 |
2,67 gigaflops | 88 | 1988 | ||
Lagrange | Intel iPSC / 860 | 7.88 gigaflops | 128 | 1990 |
Gama | Intel iPSC / 860 | 7,68 gigaflops | 128 | 1990 |
von Karman | Convexo 3240 | 200 megaflops | 4 | 1991 |
Boltzmann | Máquinas de pensar CM5 | 16,38 gigaflops | 128 | 1993 |
Sigma | Intel Paragon | 15.60 gigaflops | 208 | 1993 |
von Neumann | Cray C90 | 15,36 gigaflops | dieciséis | 1993 |
Águila | Cray C90 | 7,68 gigaflops | 8 | 1993 |
Gracia | Intel Paragon | 15,6 gigaflops | 209 | 1993 |
Babbage | IBM SP-2 | 34,05 gigaflops | 128 | 1994 |
42,56 gigaflops | 160 | 1994 | ||
da Vinci | Desafío SGI Power | dieciséis | 1994 | |
SGI Power Challenge XL | 11,52 gigaflops | 32 | 1995 | |
Newton | Cray J90 | 7,2 gigaflops | 36 | 1996 |
Cerdito | Origen SGI 2000/250 MHz | 4 gigaflops | 8 | 1997 |
Turing | Origen SGI 2000/195 MHz | 9,36 gigaflops | 24 | 1997 |
25 gigaflops | 64 | 1997 | ||
Fermi | Origen SGI 2000/195 MHz | 3,12 gigaflops | 8 | 1997 |
Tolva | Origen SGI 2000/250 MHz | 32 gigaflops | 64 | 1997 |
Evelyn | Origen SGI 2000/250 MHz | 4 gigaflops | 8 | 1997 |
Steger | Origen SGI 2000/250 MHz | 64 gigaflops | 128 | 1997 |
128 gigaflops | 256 | 1998 | ||
Lomax | Origen SGI 2800/300 MHz | 307,2 gigaflops | 512 | 1999 |
409,6 gigaflops | 512 | 2000 | ||
Lou | Origen SGI 2000/250 MHz | 4,68 gigaflops | 12 | 1999 |
Ariel | Origen SGI 2000/250 MHz | 4 gigaflops | 8 | 2000 |
Sebastián | Origen SGI 2000/250 MHz | 4 gigaflops | 8 | 2000 |
SN1-512 | Origen SGI 3000/400 MHz | 409,6 gigaflops | 512 | 2001 |
Brillante | Cray SVe1 / 500 MHz | 64 gigaflops | 32 | 2001 |
Chapman | Origen SGI 3800/400 MHz | 819,2 gigaflops | 1.024 | 2001 |
1,23 teraflops | 1.024 | 2002 | ||
Lomax II | Origen SGI 3800/400 MHz | 409,6 gigaflops | 512 | 2002 |
Kalpana [14] | SGI Altix 3000 [15] | 2,66 teraflops | 512 | 2003 |
Cray X1 [16] | 204,8 gigaflops | 2004 | ||
Columbia | SGI Altix 3000 [17] | 63 teraflops | 10,240 | 2004 |
SGI Altix 4700 | 10,296 | 2006 | ||
85,8 teraflops [18] | 13,824 | 2007 | ||
Schirra | IBM POWER5 + [19] | 4,8 teraflops | 640 | 2007 |
RT Jones | SGI ICE 8200 , procesadores Intel Xeon "Harpertown" | 43,5 teraflops | 4.096 | 2007 |
Pléyades | SGI ICE 8200, procesadores Intel Xeon "Harpertown" [20] | 487 teraflops | 51.200 | 2008 |
544 teraflops [21] | 56,320 | 2009 | ||
SGI ICE 8200, Intel Xeon "Harpertown" / "Nehalem" Procesadores [22] | 773 teraflops | 81,920 | 2010 | |
SGI ICE 8200/8400, Intel Xeon "Harpertown" / "Nehalem" / "Westmere" Procesadores [23] | 1.09 petaflops | 111,104 | 2011 | |
SGI ICE 8200/8400-X, Intel Xeon "Harpertown" / / "Nehalem" / "Westmere" / "Sandy Bridge" procesadores [24] | 1,24 petaflops | 125,980 | 2012 | |
SGI ICE 8200/8400-X, Intel Xeon "Nehalem" / / "Westmere" / "Sandy Bridge" / "Ivy Bridge" procesadores [25] | 2,87 petaflops | 162,496 | 2013 | |
3,59 petaflops | 184,800 | 2014 | ||
SGI ICE 8400 / x, Intel Xeon "Westmere" / "Sandy Bridge" / "Ivy Bridge" / "Haswell" Procesadores [26] | 4,49 petaflops | 198.432 | 2014 | |
5,35 petaflops [27] | 210,336 | 2015 | ||
SGI ICE X, Intel Xeon / "Ivy Bridge" / "Haswell" / "Sandy Bridge" "Broadwell" Procesadores [28] | 7.25 petaflops | 246,048 | 2016 | |
Esfuerzo | SGI UV 2000 , procesadores Intel Xeon "Sandy Bridge" [29] | 32 teraflops | 1,536 | 2013 |
Merope | SGI ICE 8200, procesadores Intel Xeon "Harpertown" [25] | 61 teraflops | 5.120 | 2013 |
SGI ICE 8400, procesadores Intel Xeon "Nehalem" / "Westmere" [26] | 141 teraflops | 1,152 | 2014 | |
Electra | SGI ICE X, procesadores Intel Xeon "Broadwell" [30] | 1,9 petaflops | 1,152 | 2016 |
SGI ICE X / HPE SGI 8600 E-Cell, Intel Xeon / "Broadwell" "Skylake" Procesadores [31] | 4.79 petaflops | 2.304 | 2017 | |
8,32 petaflops [32] | 3.456 | 2018 | ||
Aitken | Procesadores HPE SGI 8600 E-Cell, Intel Xeon "Cascade Lake" [33] | 3,69 petaflops | 1,150 | 2019 |
Nombre del computador | Arquitectura | Máximo rendimiento | Numero de CPU | Fecha de instalación |
Recursos de almacenamiento
Almacenamiento de disco
En 1987, NAS se asoció con la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) y la Universidad de California, Berkeley en el proyecto Redundant Array of Inexpensive Disks (RAID), que buscaba crear una tecnología de almacenamiento que combinara varios componentes de la unidad de disco en una unidad. Completado en 1992, el proyecto RAID dio lugar a la tecnología de almacenamiento de datos distribuidos que se utiliza en la actualidad. [6]
La instalación NAS actualmente alberga almacenamiento masivo en disco en un clúster DMF paralelo SGI con software de alta disponibilidad que consta de cuatro sistemas frontales de 32 procesadores, que están conectados a las supercomputadoras y al sistema de almacenamiento en cinta de archivo. El sistema tiene 192 GB de memoria por front-end [34] y 7,6 petabytes (PB) de caché de disco. [4] Los datos almacenados en disco se migran regularmente a los sistemas de almacenamiento de archivos de cinta en la instalación para liberar espacio para otros proyectos de usuarios que se ejecutan en las supercomputadoras.
Sistemas de archivo y almacenamiento
En 1987, NAS desarrolló el primer sistema de almacenamiento masivo jerárquico basado en UNIX, llamado NAStore. Contenía dos robots de cinta de cartucho StorageTek 4400, cada uno con una capacidad de almacenamiento de aproximadamente 1,1 terabytes, lo que reducía el tiempo de recuperación de la cinta de 4 minutos a 15 segundos. [6]
Con la instalación de la supercomputadora Pleiades en 2008, los sistemas StorageTek que NAS había estado usando durante 20 años no pudieron satisfacer las necesidades de la mayor cantidad de usuarios y tamaños de archivo cada vez mayores de los conjuntos de datos de cada proyecto . [35] En 2009, NAS introdujo los sistemas de cinta robóticos Spectra Logic T950 que aumentaron la capacidad máxima en la instalación a 16 petabytes de espacio disponible para que los usuarios archiven sus datos de las supercomputadoras. [36] En marzo de 2019, la instalación NAS aumentó la capacidad total de almacenamiento de archivos de las bibliotecas de cintas Spectra Logic a 1.048 petabytes (o 1 exabyte) con una compresión del 35%. [34] La instalación de migración de datos (DMF) de SGI y OpenVault gestionan la migración de datos de disco a cinta y la desmigracion de cinta a disco para la instalación de NAS.
A marzo de 2019, hay más de 110 petabytes de datos únicos almacenados en el sistema de almacenamiento de archivos NAS. [34]
Sistemas de visualización de datos
En 1984, NAS compró 25 terminales gráficos SGI IRIS 1000, el comienzo de su larga asociación con la empresa con sede en Silicon Valley, que tuvo un impacto significativo en el posprocesamiento y visualización de los resultados de CFD ejecutados en las supercomputadoras de la instalación. [6] La visualización se convirtió en un proceso clave en el análisis de los datos de simulación ejecutados en las supercomputadoras, permitiendo a los ingenieros y científicos ver sus resultados espacialmente y de maneras que permitieron una mayor comprensión de las fuerzas CFD que actúan en sus diseños.
El hipermuro
En 2002, los expertos en visualización de NAS desarrollaron un sistema de visualización llamado "hipermuro" que incluía 49 paneles LCD conectados que permitían a los científicos ver conjuntos de datos complejos en una gran variedad de pantallas dinámicas de siete por siete. Cada pantalla tenía su propio poder de procesamiento, lo que le permitía mostrar, procesar y compartir conjuntos de datos para que una sola imagen pudiera mostrarse en todas las pantallas o configurarse para que los datos pudieran mostrarse en "celdas" como una hoja de cálculo visual gigante. [37]
La segunda generación "hyperwall-2" fue desarrollada en 2008 por NAS en asociación con Colfax International y está compuesta por 128 pantallas LCD dispuestas en una cuadrícula de 8x16 de 23 pies de ancho por 10 pies de alto. Es capaz de generar un cuarto de billón de píxeles , lo que lo convierte en el sistema de visualización científica de mayor resolución del mundo. [38] Contiene 128 nodos, cada uno con dos procesadores AMD Opteron ( Barcelona ) de cuatro núcleos y una unidad de procesamiento de gráficos (GPU) Nvidia GeForce 480 GTX para una potencia de procesamiento máxima dedicada de 128 teraflops en todo el sistema, 100 veces más potente que el hipermuro original. [39] El hyperwall-2 está conectado directamente al sistema de archivos de la supercomputadora Pleiades a través de una red InfiniBand, lo que permite que el sistema lea datos directamente desde el sistema de archivos sin necesidad de copiar archivos en la memoria del hyperwall-2.
En 2014, el hipermuro se actualizó con nuevo hardware: 128 procesadores Intel Xeon "Ivy Bridge" y GPU NVIDIA Geforce 780 Ti. La actualización aumentó la potencia máxima de procesamiento del sistema de 9 teraflops a 57 teraflops, y ahora tiene casi 400 gigabytes de memoria gráfica. [40]
Visualización concurrente
Una característica importante de la tecnología de hipermuro desarrollada en NAS es que permite la "visualización simultánea" de datos, lo que permite a los científicos e ingenieros analizar e interpretar datos mientras los cálculos se ejecutan en las supercomputadoras. Esto no solo muestra el estado actual del cálculo para el monitoreo, la dirección y la terminación del tiempo de ejecución, sino que también "permite una visualización de mayor resolución temporal en comparación con el posprocesamiento porque los requisitos de E / S y espacio de almacenamiento se obvian en gran medida ... [y ] puede mostrar características en una simulación que de otro modo no serían visibles ". [41]
El equipo de visualización de NAS desarrolló una canalización concurrente configurable para usar con un modelo de pronóstico masivamente paralelo ejecutado en la supercomputadora Columbia en 2005 para ayudar a predecir la temporada de huracanes en el Atlántico para el Centro Nacional de Huracanes . Debido a los plazos para presentar cada uno de los pronósticos, era importante que el proceso de visualización no obstaculizara significativamente la simulación o hiciera que fallara.
Referencias
- ^ "Página de inicio de la supercomputadora Aitken" . NAS.
- ^ "Página de inicio de Electra Supercomputer" . NAS.
- ^ "Página de inicio de Merope Supercomputer" . NAS.
- ^ a b "División de supercomputación avanzada de la NASA: informática avanzada" (PDF) . NAS. 2019.
- ^ "Página de inicio de NAS - Acerca de la división NAS" . NAS.
- ^ a b c d e f g "Folleto del 25 aniversario de la División de supercomputación avanzada de la NASA (PDF)" (PDF) . NAS. Archivado desde el original (PDF) en 2013-03-02.
- ^ "Página de inicio de NAS: historia de la división" . NAS.
- ^ a b "Historia de la computadora de alto rendimiento NAS". Puntos de cuadrícula : 1A – 12A. Primavera de 2002.
- ^ "Software NAS y conjuntos de datos" . NAS.
- ^ "Kit de herramientas de software de análisis de flujo de la NASA" . NASA.
- ^ "Página de inicio de Cart3D de la NASA" .
- ^ https://www.nasa.gov/centers/ames/news/releases/2002/02_76AR.html
- ^ https://www.nas.nasa.gov/assets/pdf/staff/Guruswamy_G_Development_and_Applications_of_a_Large_Scale_Fluids_Structures_Simulation_Process_on_Clusters.pdf
- ^ "NASA para nombrar supercomputadora después de astronauta de Columbia" . NAS. Mayo de 2005.
- ^ "NASA Ames instala la primera supercomputadora con procesador Alitx 512 del mundo" . NAS. Noviembre de 2003.
- ^ "El nuevo sistema Cray X1 llega a NAS" . NAS. Abril de 2004.
- ^ "La NASA presenta su superordenador más nuevo y más potente" . NASA. Octubre de 2004.
- ^ "Página de inicio de Columbia Supercomputer Legacy" . NASA.
- ^ "La NASA selecciona a IBM para aplicaciones de supercomputación de próxima generación" . NASA. Junio de 2007.
- ^ "La supercomputadora de la NASA se encuentra entre las más rápidas del mundo - noviembre de 2008" . NASA. Noviembre de 2008.
- ^ " La integración 'en vivo' de Pleiades Rack ahorra 2 millones de horas" . NAS. Febrero de 2010.
- ^ "La supercomputadora de la NASA duplica la capacidad, aumenta la eficiencia" . NASA. Junio de 2010.
- ^ "La supercomputadora Pléyades de la NASA se encuentra entre las más rápidas del mundo" . NASA. Junio de 2011.
- ^ "La supercomputadora Pléyades obtiene un poco más de entusiasmo" . NASA. Junio 2012.
- ^ a b "Superordenador de las Pléyades de la NASA actualizado, nodos de Harpertown reutilizados" . NAS. Agosto 2013.
- ^ a b "Superordenador de las Pléyades de la NASA actualizado, obtiene un impulso de Petaflops" . NAS. Octubre de 2014.
- ^ "El rendimiento de la supercomputadora Pleiades salta a 5,35 Petaflops con la última expansión" . NAS. Enero de 2015.
- ^ "Aumento del rendimiento máximo de la supercomputadora Pleiades, triplicado la capacidad de almacenamiento a largo plazo" . NAS. Julio de 2016.
- ^ "Página de inicio de recursos de supercomputadora Endeavour" . NAS.
- ^ "NASA Ames inicia la instalación de supercomputación modular Pathfinding" . NAS. Febrero de 2017.
- ^ "Recientemente ampliado, la primera supercomputadora modular de la NASA ocupa el puesto 15 en los EE. UU. En la lista TOP500" . NAS. Noviembre de 2017.
- ^ "Supercomputadora Electra de la NASA se eleva al puesto 12 en los Estados Unidos en la lista TOP500" . NAS. Noviembre de 2018.
- ^ "División de supercomputación avanzada de la NASA: supercomputación modular" (PDF) . NAS. 2019.
- ^ a b c "Página de inicio de recursos del sistema de almacenamiento de archivos HECC" . NAS.
- ^ "Actualizaciones de almacenamiento, unidad de cinta y silo NAS - SC09" (PDF) . NAS. Noviembre de 2009.
- ^ "Instalación del nuevo sistema de archivo de datos NAS completada" . NAS. 2009.
- ^ "Mars Flyer debuta en Hyperwall" . NAS. Septiembre de 2003.
- ^ "La NASA desarrolla el sistema de visualización de mayor resolución del mundo" . NAS. Junio de 2008.
- ^ "Descripción general de los sistemas de visualización NAS" . NAS.
- ^ "Sistema de visualización de hiperpared NAS actualizado con nodos Ivy Bridge" . NAS. Octubre de 2014.
- ^ Ellsworth, David; Bryan Green; Chris Henze; Patrick Moran; Timothy Sandstrom (septiembre-octubre de 2006). "Visualización concurrente en un entorno de producción de supercomputación" (PDF) . Transacciones IEEE sobre visualización y gráficos por computadora . 12 (5).
enlaces externos
Recursos avanzados de supercomputación de la NASA
- Página de inicio de la División de Supercomputación Avanzada (NAS) de la NASA
- Página de inicio de NAS Computing Environment
- Página de inicio de la supercomputadora NAS Pleiades
- Página de inicio de la supercomputadora NAS Aitken
- Página de inicio de la supercomputadora NAS Electra
- Página de inicio de NAS Archive and Storage Systems
- Página de inicio de NAS hyperwall-2
Otros recursos en línea
- Sitio web oficial de la NASA
- Página de inicio del programa de computación de gama alta de la NASA
- Página de inicio del proyecto de capacidad informática de gama alta de la NASA
- Sitio web oficial TOP500