El Centro Nacional de Ciencias Computacionales ( NCCS ) es un Centro de Computación de Liderazgo del Departamento de Energía de los Estados Unidos (DOE) que alberga el Centro de Computación de Liderazgo de Oak Ridge (OLCF), un Centro de Usuarios de la Oficina de Ciencias del DOE encargado de ayudar a los investigadores a resolver problemas científicos desafiantes de interés global con una combinación de recursos líderes en computación de alto rendimiento (HPC) y experiencia internacional en computación científica. [1]
El NCCS proporciona recursos para el cálculo y la simulación en campos como la astrofísica, la ciencia de los materiales y la investigación climática para usuarios del gobierno, el mundo académico y la industria que tienen muchos de los mayores problemas de computación en la ciencia. [2]
La supercomputadora insignia de la OLCF , la IBM AC922 Summit , está respaldada por herramientas avanzadas de análisis y gestión de datos. El centro albergó el sistema Cray XK7 Titan , una de las herramientas científicas más poderosas de su tiempo, desde 2012 hasta su retiro en agosto de 2019. El mismo año, comenzó la construcción de Frontier , que debutará como el primer sistema de exaescala de la OLCF en 2021. [3]
Historia
El 9 de diciembre de 1991, el Congreso firmó la Ley de Computación de Alto Rendimiento (HPCA) de 1991, creada por el Senador Al Gore . HPCA propuso una infraestructura de información nacional para construir redes de comunicaciones y bases de datos y también pidió propuestas para construir nuevas instalaciones informáticas de alto rendimiento al servicio de la ciencia. [4]
El 24 de mayo de 1992, ORNL recibió un centro de investigación en computación de alto rendimiento llamado Centro de Ciencias Computacionales, o CCS, como parte de HPCA. [5] ORNL también recibió un procesador de 66, serie # 1 Intel Paragon XP / S 5 para el desarrollo de código el mismo año. El sistema tuvo un rendimiento máximo de 5 gigaflops (5 mil millones de operaciones de punto flotante por segundo).
El Laboratorio Nacional de Oak Ridge (ORNL) se unió a otros tres laboratorios nacionales y siete universidades para presentar la propuesta de Asociación en Ciencias Computacionales (PICS) al Departamento de Energía de EE. UU. Como parte de la Iniciativa de Comunicaciones y Computación de Alto Rendimiento. [6] [7]
Con la Ley de Revitalización de la Computación de Alto Nivel de 2004, CCS recibió la tarea de llevar a cabo el Proyecto de Instalación de Computación de Liderazgo (LCF) en ORNL con el objetivo de desarrollar e instalar una supercomputadora con velocidad de petaflops para fines de 2008. [8] El centro cambió oficialmente su nombre de Centro de Ciencias Computacionales a NCCS el mismo año.
El 9 de diciembre de 2019, Georgia Tourassi, quien anteriormente se desempeñó como directora del Instituto de Ciencias de Datos de Salud de ORNL y como líder de grupo del Grupo de Ciencias Biomédicas, Ingeniería y Computación de ORNL, fue nombrada directora del NCCS, sucediendo a James Hack. [9]
Sistemas anteriores [10]
Paragones de Intel
La creación de CCS en 1992 marcó el comienzo de una serie de computadoras Intel Paragon , que incluyen:
- Intel Paragon XP / S 5 (1992): Intel Paragon XP / S 5 proporcionó 128 nodos de cómputo GP dispuestos en una malla rectangular de 16 filas por 8 columnas que consta de un grupo de 8 por 8 de nodos de 16 MB y un grupo de 8 por 8 de 32 MB nodos. También estaban disponibles cuatro nodos de cómputo de 128 MB MP en una malla de 2 filas por 2 columnas. Además, estaba el nodo de arranque MP de 128 MB, cuatro nodos de servicio GP de 32 MB y seis nodos de E / S , cinco de los cuales estaban conectados a discos RAID de 4.8 GB y el sexto a un disco RAID de 16 GB. Esto proporcionó un total de 40 GB de espacio en disco del sistema. [11]
- Intel Paragon XP / S 35 (1992): El Intel Paragon XP / S 35 proporcionó 512 procesadores de cómputo dispuestos en una malla rectangular de 16 filas por 32 columnas. Además, había cinco nodos de servicio y 27 nodos de E / S, cada uno conectado a un disco RAID de 4,8 GB. Esto proporcionó un total de 130 GB de espacio en disco del sistema. Cada uno de los cinco nodos de servicio y los 512 nodos de cómputo tenían 32 MB de memoria. [12]
- Intel Paragon XP / S 150 (1995): La computadora más rápida del mundo en el momento de su entrega a ORNL, [13] la Intel Paragon XP / S 150 proporcionó 1.024 nodos dispuestos en una malla rectangular de 16 filas por 64 columnas. Estos eran nodos MP, lo que significaba que había dos procesadores de cómputo por nodo. La mayoría de los nodos tenían 64 MB, pero 64 de los nodos tenían 128 MB. Además, había cinco nodos de servicio y 127 nodos de E / S (119 nodos de E / S normales y 4 nodos de E / S SCSI-16 de alto rendimiento) cada uno conectado a un disco RAID de 4,8 GB. Esto proporcionó un total de 610 GB de espacio en disco del sistema. [14]
Eagle (2000-2005) [15]
Eagle era un IBM RS / 6000 SP de 184 nodos operado por la División de Ciencias de la Computación y Matemáticas de ORNL. Tenía 176 nodos "delgados" Winterhawk-II, cada uno con cuatro procesadores Power3- II de 375 MHz y 2 GB de memoria. Eagle también tenía ocho nodos “anchos” Winterhawk-II, cada uno con dos procesadores Power3-II de 375 MHz y 2 GB de memoria, para usar como servidores de sistemas de archivos y otras tareas de infraestructura. La potencia computacional estimada de Eagle fue superior a 1 teraflop en la partición de cálculo.
Falcon (2000) [16]
Falcon era un Compaq AlphaServer SC de 64 nodos operado por CCS y adquirido como parte de un proyecto de evaluación inicial. Tenía cuatro procesadores Alpha EV67 de 667 MHz con 2 GB de memoria por nodo y 2 TB de disco de canal de fibra conectados, lo que resultaba en una potencia computacional estimada de 342 gigaflops.
Cheetah [17] (2001-2008) [18]
Cheetah era un sistema IBM pSeries de 4.5 TF operado por CCS. La partición informática de Cheetah incluía 27 nodos p690, cada uno con treinta y dos procesadores Power4 de 1,3 GHz . Las particiones de inicio de sesión y E / S juntas incluían 8 nodos p655, cada uno con cuatro procesadores Power4 de 1,7 GHz. Todos los nodos estaban conectados a través de la interconexión de Federación de IBM.
La jerarquía de memoria de Power4 constaba de tres niveles de caché. El primer y segundo nivel estaban en el chip Power4 (dos procesadores por chip). La caché de instrucciones de nivel 1 era de 128 KB (64 KB por procesador) y la caché de datos era de 64 KB (32 KB por procesador). La caché de nivel 2 se compartía 1,5 MB entre los dos procesadores. La caché de nivel 3 era de 32 MB y estaba fuera de chip. Había 16 chips por nodo o 32 procesadores.
La mayoría de los nodos informáticos de Cheetah tenían 32 GB de memoria. Cinco tenían 64 GB de memoria y dos tenían 128 GB de memoria. Algunos de los nodos de Cheetah tenían aproximadamente 160 GB de espacio en disco local que se podía usar como espacio temporal temporal.
En junio de 2002, Cheetah se clasificó como la octava computadora más rápida del mundo, según TOP500 , la lista semestral de las mejores supercomputadoras del mundo. [19]
Ram (2003-2007) [20]
Ram era una supercomputadora SGI Altix proporcionada como sistema de soporte para el NCCS.
Ram se instaló en 2003 y se utilizó como un sistema de apoyo previo y posterior al procesamiento para los proyectos asignados al NCCS hasta 2007.
Ram tenía 256 procesadores Intel Itanium2 funcionando a 1,5 GHz, cada uno con 6 MB de caché L3, 256K de caché L2 y 32K de caché L1. Ram tenía 8 GB de memoria por procesador para un total de 2 TB de memoria compartida. Por el contrario, la primera supercomputadora de ORNL, la Cray XMP instalada en 1985, tenía una millonésima parte de la memoria de la SGI Altix.
Phoenix (OLCF-1) (2003-2008) [21]
Phoenix era un Cray X1E proporcionado como sistema principal en NCCS.
El X1 original se instaló en 2003 y pasó por varias actualizaciones, llegando a su configuración final en 2005. Desde octubre de 2005 hasta 2008, proporcionó casi 17 millones de horas de procesador. El sistema respaldó más de 40 grandes proyectos en áreas de investigación que incluyen clima, combustión, física de altas energías, fusión, química, informática, ciencia de materiales y astrofísica.
En su configuración final, Phoenix tenía 1.024 procesadores vectoriales multitransmisión (MSP). Cada MSP tenía 2 MB de caché y una tasa de cálculo máxima de 18 gigaflops. Cuatro MSP formaron un nodo con 8 GB de memoria compartida. El ancho de banda de la memoria era muy alto, aproximadamente la mitad del ancho de banda de la caché. La interconexión funcionó como una extensión del sistema de memoria, ofreciendo a cada nodo acceso directo a la memoria en otros nodos con alto ancho de banda y baja latencia.
Jaguar (OLCF-2) (2005-2012) [22]
Jaguar comenzó como un Cray XT3 de 25 teraflopen 2005. Más tarde, se actualizó a un XT4 que contenía 7.832 nodos de cómputo, cada uno con un procesador AMD Opteron 1354 decuatro núcleosque funcionaba a 2,1 GHz, 8 GB de memoria DDR2-800 (algunos nodos usó memoria DDR2-667) y un enrutador SeaStar2. La partición resultante contenía 31 328 núcleos de procesamiento, más de 62 TB de memoria, más de 600 TB de espacio en disco y un rendimiento máximo de 263 teraflops (263 billones de operaciones de punto flotante por segundo).
En 2008, Jaguar se actualizó a un Cray XT5 y se convirtió en el primer sistema en ejecutar una aplicación científica a un petaflop sostenido. En el momento de su transformación final en Titán en 2012, [23] Jaguar contenía casi 300.000 núcleos de procesamiento y tenía un pico de rendimiento teórico de 3,3 petaflops. Jaguar tenía 224,256 núcleos de procesador AMD Opteron basados en x86 y funcionaba con una versión de Linux llamada Cray Linux Environment .
Desde noviembre de 2009 hasta noviembre de 2010, Jaguar fue la computadora más poderosa del mundo.
Halcón (2006-2008) [24]
Hawk era un Linux de 64 nodos de clúster dedicada a la visualización de gama alta.
Hawk se instaló en 2006 y se usó como el grupo de visualización principal del Centro hasta mayo de 2008, cuando fue reemplazado por un sistema de 512 núcleos llamado Lens. [25]
Cada nodo contenía dos procesadores Opteron de un solo núcleo y 2 GB de memoria. El clúster se conectó mediante una red Quadrics Elan3, que proporcionaba comunicación de alto ancho de banda y baja latencia. El clúster estaba poblado con dos tipos de tarjetas gráficas NVIDIA conectadas con AGP8x: 5900 y QuadroFX 3000G. Los nodos con tarjetas 3000G se conectaron directamente al EVEREST PowerWall y se reservaron para el uso de PowerWall.
Ewok (2006-2011) [26]
Ewok era un clúster InfiniBand basado en Intel que ejecutaba Linux. El sistema se proporcionó como un recurso integral para los usuarios del centro. Se utilizó para la automatización del flujo de trabajo para trabajos que se ejecutan desde la supercomputadora Jaguar y para análisis de datos avanzados. El sistema contenía 81 nodos. Cada nodo contenía dos procesadores Pentium IV de 3,4 GHz, una unidad de procesamiento central (CPU) Intel Xeon de 3,4 GHz y 6 GB de memoria. Un nodo adicional contenía 4 procesadores AMD de doble núcleo y 64 GB de memoria. El sistema se configuró con un sistema de archivos Lustre de 13 TB para espacio temporal.
Eugene (2008-2011) [27]
Eugene era un IBM Blue Gene / P System de 27 teraflop operado por NCCS. Proporcionó aproximadamente 45 millones de horas de procesador al año para el personal de ORNL y para la promoción de colaboraciones de investigación entre ORNL y sus socios universitarios principales.
El sistema constaba de 2.048 procesadores IBM de cuatro núcleos 450d PowerPC de 850Mhz y 2 GB de memoria por cada nodo. Eugene tenía 64 nodos de E / S; cada trabajo enviado debía utilizar al menos un nodo de E / S. Esto significa que cada trabajo consumió un mínimo de 32 nodos por ejecución.
Eugene fue oficialmente dado de baja en octubre de 2011. Sin embargo, el 13 de diciembre del mismo año, una parte del hardware de Eugene fue donado a Argonne Leadership Computing Facility (ALCF) en Argonne National Laboratory . [28]
Eos (2013-2019)
Eos era un clúster Cray XC30 de 736 nodos con un total de 47,104 TB de memoria. Su procesador fue el Intel Xeon E5-2670 . Contaba con 16 nodos de servicio de E / S y 2 nodos de inicio de sesión externos. Sus nodos de cómputo estaban organizados en blades. Cada hoja contenía 4 nodos. Cada nodo tenía 2 sockets con 8 núcleos físicos cada uno. La tecnología HyperThreading (HT) de Intel permitió que cada núcleo físico funcionara como 2 núcleos lógicos para que cada nodo pudiera funcionar como si tuviera 32 núcleos. En total, la partición de cómputo Eos contenía 11,776 núcleos de procesador tradicionales (23,552 núcleos lógicos con tecnología HT habilitada). [29]
Eos proporcionó un espacio para portabilidad de herramientas y aplicaciones, trabajos a pequeña escala para preparar ejecuciones de capacidad en Titan, así como generación, verificación y optimización de software. [30]
Titán (OLCF-3) (2012-2019)
Titan era un sistema Cray XK7 de arquitectura híbrida con un rendimiento máximo teórico superior a 27.000 billones de cálculos por segundo (27 petaflops). Contenía tanto CPU avanzadas AMD Opteron de 16 núcleos como unidades de procesamiento de gráficos (GPU) NVIDIA Kepler. Esta combinación permitió a Titan alcanzar 10 veces la velocidad y 5 veces la eficiencia energética de su predecesora, la supercomputadora Jaguar, mientras usaba solo modestamente más energía y ocupaba el mismo espacio físico. [31]
Titan presentó 18,688 nodos de cómputo, una memoria total del sistema de 710 TB y la red Gemini de alto rendimiento de Cray. Sus 299.008 núcleos de CPU guiaron simulaciones y las GPU adjuntas manejaron cientos de cálculos simultáneamente. El sistema proporcionó una reducción del tiempo de solución, una mayor complejidad de los modelos y un mayor realismo en las simulaciones. [32] En noviembre de 2012, Titan recibió la posición número 1 en la lista de supercomputadoras TOP500. [33]
Después de 7 años de servicio, Titan fue dado de baja en agosto de 2019 para dejar espacio para la supercomputadora Frontier. [34]
Sistemas actuales
Araña
El sistema de archivos Lustre de todo el centro de OLCF , llamado Spider , es el sistema de archivos de trabajo operativo para la mayoría de los recursos computacionales de OLCF. Como sistema de rendimiento extremadamente alto, Spider tiene más de 20.000 clientes, proporciona 32 PB de espacio en disco y puede mover datos a más de 1 TB / s. Spider comprende dos sistemas de archivos, Atlas1 y Atlas2, con el fin de proporcionar alta disponibilidad y equilibrio de carga en múltiples servidores de metadatos para un mayor rendimiento. [35]
HPSS
HPSS , el recurso de almacenamiento masivo de archivos de ORNL, consta de componentes de almacenamiento en cinta y disco, servidores Linux y software de sistema de almacenamiento de alto rendimiento (HPSS). El almacenamiento en cinta lo proporcionan las bibliotecas de cintas robóticas StorageTek SL8500, cada una de las cuales puede contener hasta 10,000 cartuchos. [36] Cada biblioteca tiene 24 unidades T10K-A , 60 unidades T10K-B, 36 unidades T10K-C y 72 unidades T10K-D. [37]
EVEREST
EVEREST (Entorno de visualización exploratoria para la investigación en ciencia y tecnología) es un lugar a gran escala para la exploración y el análisis de datos. EVEREST mide 30 pies de largo por 8 pies de alto, y su característica principal es un PowerWall de 27 proyectores con un recuento total de píxeles de 35 millones de píxeles. Los proyectores están dispuestos en una matriz de 9 × 3, cada uno de los cuales proporciona 3500 lúmenes para una pantalla muy brillante.
Con 11.520 por 3.072 píxeles, la pared ofrece una enorme cantidad de detalles visuales. El muro está integrado con el resto del centro de cómputo, creando una ruta de datos de gran ancho de banda entre la computación de alto rendimiento a gran escala y la visualización de datos a gran escala.
EVEREST está controlado por un clúster de 14 nodos. Cada nodo contiene cuatro procesadores AMD Opteron de doble núcleo. Estos 14 nodos tienen tarjetas gráficas NVIDIA QuadroFX 3000G conectadas a los proyectores, lo que proporciona una capacidad de visualización de muy alto rendimiento. El laboratorio de visualización actúa como una instalación experimental para el desarrollo de futuras capacidades de visualización . Alberga una pantalla LCD en mosaico de 12 paneles, nodos de clúster de prueba, dispositivos de interacción y equipos de video.
ñandú
Rhea es un clúster de Linux de tipo básico de 521 nodos. Rhea proporciona un conducto para el descubrimiento científico a gran escala mediante el procesamiento previo y posterior de los datos de simulación generados en la supercomputadora Titan. Cada uno de los primeros 512 nodos de Rhea contiene dos procesadores Intel Xeon de 8 núcleos a 2.0 GHz con tecnología HT de Intel y 128 GB de memoria principal. Rhea también tiene nueve nodos de GPU de gran memoria. Cada uno de estos nodos tiene 1 TB de memoria principal y dos GPU NVIDIA K80 con dos procesadores Intel Xeon de 14 núcleos a 2.30 GHz con tecnología HT. Rhea está conectado al sistema de archivos Lustre de alto rendimiento de OLCF, Atlas. [38]
Wombat
Wombat es un clúster de un solo rack de HPE basado en la arquitectura ARM de 64 bits en lugar de la arquitectura tradicional basada en x86. Este sistema está disponible para respaldar proyectos de investigación en ciencias de la computación destinados a explorar la arquitectura ARM.
El clúster de Wombat tiene 16 nodos de cómputo, cuatro de los cuales tienen dos aceleradores AMD GPU conectados (ocho GPU en total en el sistema). Cada nodo de cómputo tiene dos procesadores Cavium ThunderX2 de 28 núcleos, 256 GB de RAM (16 DIMM DDR4) y un SSD de 480 GB para almacenamiento local del nodo. Los nodos están conectados con EDR InfiniBand (~ 100 Gbit / s). [39]
Cumbre (OLCF-4)
El IBM AC922 Summit , o OLCF-4 , es el superordenador insignia de 200 petaflop de ORNL. Summit se lanzó originalmente en junio de 2018 y, a partir de la lista TOP500 de noviembre de 2019, es la computadora más rápida del mundo con un rendimiento Linpack de alto rendimiento (HPL) de 148,6 petaflops. [40] Summit es también la primera computadora en alcanzar un rendimiento de exaescala , logrando un rendimiento máximo de 1,88 exaops a través de una combinación de operaciones de punto flotante de precisión simple y media . [41]
Al igual que su predecesor Titan, Summit hace uso de una arquitectura híbrida que integra sus 9.216 CPU Power9 y 27.648 GPU NVIDIA Volta V100 utilizando NVLink de NVIDIA. [42] Summit cuenta con 4.608 nodos (casi una cuarta parte de los 18.688 nodos de Titan), cada uno con 512 GB de memoria de acceso aleatorio dinámico síncrono de velocidad de datos doble 4 (DDR4) y 96 GB de memoria de alto ancho de banda (HBM2) por nodo, con un capacidad de almacenamiento total de 250 petabytes. [43]
Frontera (OLCF-5)
Programado para entrega en 2021 con acceso de usuario disponible el año siguiente, Frontier será el primer sistema de exaescala sustentable de ORNL, lo que significa que será capaz de realizar un quintillón — mil millones de billones — de operaciones por segundo. El sistema estará compuesto por más de 100 gabinetes Cray Shasta con un rendimiento máximo anticipado de alrededor de 1,5 exaflops. [44]
Áreas de investigación
- Biología : con los recursos de supercomputación de OLCF, los investigadores pueden utilizar el conocimiento de la escala molecular para desarrollar nuevos fármacos y terapias médicas, estudiar sistemas biológicos complejos y modelar la regulación de genes. [45]
- Química : las supercomputadoras como Summit pueden explorar las complejidades de la materia a nivel atómico, lo que permite descubrimientos de los primeros principios y modelos moleculares detallados. [46]
- Ciencias de la computación : los investigadores están desarrollando las herramientas necesarias para evaluar una variedad de sistemas de supercomputación, con el objetivo de descubrir la mejor manera de usar cada uno, cómo encontrar la mejor opción para cualquier aplicación dada y cómo adaptar las aplicaciones para obtener el mejor rendimiento. [47]
- Ciencias de la Tierra : la computación de alto rendimiento permite el cálculo a gran escala de sistemas ambientales y geográficos complejos, y los investigadores del NCCS utilizan esta información para comprender mejor los cambios en el clima de la Tierra provocados por el calentamiento global. [48]
- Ingeniería : los recursos de OLCF como Summit se están utilizando para aplicaciones de ingeniería, como simulaciones de turbinas de gas y motores de combustión. [49]
- Fusión : comprender el comportamiento de los plasmas de fusión y simular varios aspectos del dispositivo brinda a los investigadores una idea de la construcción de ITER , un prototipo de planta de energía de fusión. [50]
- Ciencia de los materiales : la investigación sobre la ciencia de los materiales en ORNL ha tenido como objetivo mejorar varias áreas de la vida moderna, desde la generación y transmisión de energía hasta el transporte y la producción de computadoras y dispositivos de almacenamiento más rápidos, más pequeños y más versátiles. [51]
- Energía nuclear : el desarrollo de nuevos reactores nucleares que emplean ciclos de combustible avanzados y se adhieren a las limitaciones modernas de seguridad y no proliferación requiere modelos y simulaciones complejas. [52] A menudo, la complejidad de estas simulaciones requiere el uso de supercomputadoras que puedan garantizar la precisión de los modelos. [53]
- Física : los físicos utilizan la potencia informática de alto rendimiento de NCCS para revelar la naturaleza fundamental de la materia, incluido el comportamiento de los quarks, electrones y otras partículas fundamentales que forman los átomos. [54]
Referencias
- ^ "Resumen" . Instalación de Computación de Liderazgo de Oak Ridge . Consultado el 11 de marzo de 2020 .
- ^ "Resumen" . Instalación de Computación de Liderazgo de Oak Ridge . Consultado el 11 de marzo de 2020 .
- ^ "Frontera" . www.olcf.ornl.gov . Consultado el 11 de marzo de 2020 .
- ^ "Resumen" . Instalación de Computación de Liderazgo de Oak Ridge . Consultado el 11 de marzo de 2020 .
- ^ "Mayo de 2007" . web.ornl.gov . Consultado el 11 de marzo de 2020 .
- ^ Huray, Paul G. (24 de febrero de 1999). "Asociación en Ciencias Computacionales" . Biblioteca digital UNT . Consultado el 11 de marzo de 2020 .
- ^ "Mayo de 2007" . web.ornl.gov . Consultado el 11 de marzo de 2020 .
- ^ Biggert, Judy (30 de noviembre de 2004). "HR4516 - 108º Congreso (2003-2004): Ley de revitalización de la informática de alta gama del Departamento de energía de 2004" . www.congress.gov . Consultado el 11 de marzo de 2020 .
- ^ "Tourassi nombrado director del Centro Nacional de Ciencias Computacionales ORNL" . WYSH AM 1380 . 2019-12-23 . Consultado el 22 de junio de 2020 .
- ^ "Centro Nacional de Ciencias Computacionales» Sistemas desmantelados " . 2012-09-13. Archivado desde el original el 13 de septiembre de 2012 . Consultado el 11 de marzo de 2020 .
- ^ "Descripción del hardware XP / S 5" . 1997-01-21. Archivado desde el original el 21 de enero de 1997 . Consultado el 11 de marzo de 2020 .
- ^ "Instalación de computación de liderazgo de Oak Ridge" . www.tiki-toki.com . Consultado el 11 de marzo de 2020 .
- ^ "Instalación de computación de liderazgo de Oak Ridge" . www.tiki-toki.com . Consultado el 11 de marzo de 2020 .
- ^ "Descripción de hardware de Intel Paragon XP / S 150" . Archivado desde el original el 28 de abril de 1999.
- ^ "CCS: IBM SP (Eagle)" . 2006-06-22. Archivado desde el original el 22 de junio de 2006 . Consultado el 11 de marzo de 2020 .
- ^ "Recursos ORNL CCS" . 2000-12-10. Archivado desde el original el 10 de diciembre de 2000 . Consultado el 11 de marzo de 2020 .
- ^ "CCS: IBM pSeries Cluster (Cheetah)" . 2005-03-04. Archivado desde el original el 4 de marzo de 2005 . Consultado el 11 de marzo de 2020 .
- ^ "Diciembre de 2007" . web.ornl.gov . Consultado el 11 de marzo de 2020 .
- ^ "The Oak Ridger Online - Característica: Negocios - Octava computadora más rápida 'Cheetah' 21/06/02" . www.csm.ornl.gov . Consultado el 11 de marzo de 2020 .
- ^ "Centro Nacional de Ciencias Computacionales» Sistemas desmantelados " . 2012-09-13. Archivado desde el original el 13 de septiembre de 2012 . Consultado el 11 de marzo de 2020 .
- ^ "Centro Nacional de Ciencias Computacionales» Sistemas desmantelados " . 2012-09-13. Archivado desde el original el 13 de septiembre de 2012 . Consultado el 11 de marzo de 2020 .
- ^ "Centro Nacional de Ciencias Computacionales» Sistemas desmantelados " . 2012-09-13. Archivado desde el original el 13 de septiembre de 2012 . Consultado el 11 de marzo de 2020 .
- ^ Hace, • 7 años. "Jaguar ido pero no olvidado" . Instalación de Computación de Liderazgo de Oak Ridge . Consultado el 11 de marzo de 2020 .
- ^ "Centro Nacional de Ciencias Computacionales» Sistemas desmantelados " . 2012-09-13. Archivado desde el original el 13 de septiembre de 2012 . Consultado el 11 de marzo de 2020 .
- ^ "Lente | Centro Nacional de Ciencias Computacionales" . 2009-12-21. Archivado desde el original el 21 de diciembre de 2009 . Consultado el 11 de marzo de 2020 .
- ^ "Centro Nacional de Ciencias Computacionales» Sistemas desmantelados " . 2012-09-13. Archivado desde el original el 13 de septiembre de 2012 . Consultado el 11 de marzo de 2020 .
- ^ "Sistemas dados de baja" . Archivado desde el original el 13 de septiembre de 2012.
- ^ Hace, • 8 años. "La instalación de computación de Oak Ridge dona el sistema Eugene a Argonne" . Instalación de Computación de Liderazgo de Oak Ridge . Consultado el 11 de marzo de 2020 .
- ^ "Eos" . Instalación de Computación de Liderazgo de Oak Ridge . Consultado el 11 de marzo de 2020 .
- ^ "Eos" . Instalación de Computación de Liderazgo de Oak Ridge . Consultado el 11 de marzo de 2020 .
- ^ "Titán" . Instalación de Computación de Liderazgo de Oak Ridge . Consultado el 11 de marzo de 2020 .
- ^ "Titán" . Instalación de Computación de Liderazgo de Oak Ridge . Consultado el 11 de marzo de 2020 .
- ^ "Titán: Laboratorio Nacional Oak Ridge | Sitios de supercomputadoras TOP500" . www.top500.org . Consultado el 11 de marzo de 2020 .
- ^ "Adiós, Titán" . Instalación de Computación de Liderazgo de Oak Ridge . Consultado el 11 de marzo de 2020 .
- ^ "Araña" . Instalación de Computación de Liderazgo de Oak Ridge . Consultado el 11 de marzo de 2020 .
- ^ "HPSS" . Instalación de Computación de Liderazgo de Oak Ridge . Consultado el 11 de marzo de 2020 .
- ^ "HPSS" . Instalación de Computación de Liderazgo de Oak Ridge . Consultado el 11 de marzo de 2020 .
- ^ "Rea" . Instalación de Computación de Liderazgo de Oak Ridge . Consultado el 11 de marzo de 2020 .
- ^ "Wombat" . Instalación de Computación de Liderazgo de Oak Ridge . Consultado el 11 de marzo de 2020 .
- ^ "Noviembre de 2019 | Sitios de supercomputadoras TOP500" . www.top500.org . Consultado el 11 de marzo de 2020 .
- ^ "El código de genómica supera Exaops en el superordenador Summit" . Instalación de Computación de Liderazgo de Oak Ridge . Consultado el 11 de marzo de 2020 .
- ^ Supercomputadoras Summit y Sierra: Una mirada al interior de los nuevos sistemas pre-exaescala del Departamento de Energía de EE. UU . (PDF) . Teratec (Informe).
- ^ "Cumbre: en cifras" (PDF) .
- ^ "Frontera" . www.olcf.ornl.gov . Consultado el 11 de marzo de 2020 .
- ^ "Biología" . Instalación de Computación de Liderazgo de Oak Ridge . Consultado el 11 de marzo de 2020 .
- ^ "Química" . Instalación de Computación de Liderazgo de Oak Ridge . Consultado el 11 de marzo de 2020 .
- ^ "Ciencias de la Computación" . Instalación de Computación de Liderazgo de Oak Ridge . Consultado el 11 de marzo de 2020 .
- ^ "Ciencias de la Tierra" . Instalación de Computación de Liderazgo de Oak Ridge . Consultado el 11 de marzo de 2020 .
- ^ "Ingeniería" . Instalación de Computación de Liderazgo de Oak Ridge . Consultado el 11 de marzo de 2020 .
- ^ "Acelerando hacia el futuro de la fusión" . Instalación de Computación de Liderazgo de Oak Ridge . Consultado el 11 de marzo de 2020 .
- ^ "Ciencia de los materiales" . Instalación de Computación de Liderazgo de Oak Ridge . Consultado el 11 de marzo de 2020 .
- ^ "Energía nuclear" . Instalación de Computación de Liderazgo de Oak Ridge . Consultado el 11 de marzo de 2020 .
- ^ "Química predictiva de sistemas realistas para energía nuclear avanzada" . Instalación de Computación de Liderazgo de Oak Ridge . Consultado el 11 de marzo de 2020 .
- ^ "Física" . Instalación de Computación de Liderazgo de Oak Ridge . Consultado el 11 de marzo de 2020 .
enlaces externos
- Medios relacionados con Oak Ridge Leadership Computing Facility en Wikimedia Commons
- El sitio de Oak Ridge Leadership Computing Facility
- El sitio web del Laboratorio Nacional de Oak Ridge