De Wikipedia, la enciclopedia libre
  (Redirigido desde la informática de alto rendimiento )
Saltar a navegación Saltar a búsqueda

La supercomputadora IBM Blue Gene / P "Intrepid" en el Laboratorio Nacional de Argonne ejecuta 164.000 núcleos de procesador utilizando aire acondicionado normal del centro de datos, agrupados en 40 racks / gabinetes conectados por una red toroidal tridimensional de alta velocidad. [1] [2]
FLOPS por la supercomputadora más grande a lo largo del tiempo

Una supercomputadora es una computadora con un alto nivel de rendimiento en comparación con una computadora de uso general. El rendimiento de una supercomputadora se mide comúnmente en operaciones de punto flotante por segundo ( FLOPS ) en lugar de millones de instrucciones por segundo (MIPS). Desde 2017, hay supercomputadoras que pueden realizar más de 10 17 FLOPS (cien cuatrillones de FLOPS, 100 petaFLOPS o 100 PFLOPS). [3] Desde noviembre de 2017, las 500 supercomputadoras más rápidas del mundo ejecutan sistemas operativos basados ​​en Linux . [4] Se están realizando investigaciones adicionales enEstados Unidos , la Unión Europea , Taiwán , Japón y China para construir supercomputadoras de exaescala más rápidas, más potentes y tecnológicamente superiores . [5]

Las supercomputadoras desempeñan un papel importante en el campo de la ciencia computacional y se utilizan para una amplia gama de tareas computacionalmente intensivas en varios campos, incluida la mecánica cuántica , la previsión meteorológica , la investigación climática , la exploración de petróleo y gas , el modelado molecular (cálculo de estructuras y propiedades de compuestos químicos, macromoléculas biológicas , polímeros y cristales) y simulaciones físicas (como simulaciones de los primeros momentos del universo, aerodinámica de aviones y naves espaciales , detonación de armas nucleares y fusión nuclear). Han sido fundamentales en el campo del criptoanálisis . [6]

Las supercomputadoras se introdujeron en la década de 1960, y durante varias décadas las más rápidas fueron fabricadas por Seymour Cray en Control Data Corporation (CDC), Cray Research y las empresas posteriores que llevan su nombre o monograma. Las primeras máquinas de este tipo eran diseños convencionales altamente afinados que funcionaban más rápido que sus contemporáneos de uso más general. A lo largo de la década, se agregaron cantidades crecientes de paralelismo , con uno a cuatro procesadores típicos. En la década de 1970, los procesadores vectoriales que operan en grandes conjuntos de datos llegaron a dominar. Un ejemplo notable es el Cray-1 de gran éxitode 1976. Las computadoras vectoriales siguieron siendo el diseño dominante en la década de 1990. Desde entonces hasta hoy, las supercomputadoras masivamente paralelas con decenas de miles de procesadores estándar se convirtieron en la norma. [7] [8]

Estados Unidos ha sido durante mucho tiempo el líder en el campo de las supercomputadoras, primero a través del dominio casi ininterrumpido de Cray en el campo, y luego a través de una variedad de empresas de tecnología. Japón hizo grandes avances en el campo en las décadas de 1980 y 1990, y China se volvió cada vez más activa en el campo. En junio de 2020, la supercomputadora más rápida en la lista de supercomputadoras TOP500 es Fugaku , en Japón, con una puntuación de referencia LINPACK de 415 PFLOPS, seguida de Summit , con alrededor de 266,7 PFLOPS. [9] Estados Unidos tiene cuatro de los 10 primeros; China e Italia tienen dos cada uno, Suiza tiene uno. [9] En junio de 2018, todas las supercomputadoras combinadas de la lista superaron la marca de 1 exaFLOPS .[10]

Historia [ editar ]

Una placa de circuito del IBM 7030
El CDC 6600. Detrás de la consola del sistema hay dos de los "brazos" del gabinete en forma de signo más con las cubiertas abiertas. Cada brazo de la máquina tenía hasta cuatro estantes de este tipo. A la derecha está el sistema de enfriamiento.
Un Cray-1 conservado en el Deutsches Museum

En 1960, UNIVAC construyó la Computadora de Investigación Atómica de Livermore (LARC), hoy considerada una de las primeras supercomputadoras, para el Centro de Investigación y Desarrollo de la Marina de los Estados Unidos. Todavía utilizaba memoria de tambor de alta velocidad , en lugar de la tecnología de unidad de disco emergente . [11] Además, entre las primeras supercomputadoras se encontraba la IBM 7030 Stretch . El IBM 7030 fue construido por IBM para el Laboratorio Nacional de Los Alamos , que en 1955 había solicitado una computadora 100 veces más rápida que cualquier computadora existente. El IBM 7030 utilizó transistores , memoria de núcleo magnético, canalizacióninstrucciones, datos precargados a través de un controlador de memoria e incluyen unidades de disco de acceso aleatorio pioneras. El IBM 7030 se completó en 1961 y, a pesar de no cumplir con el desafío de un aumento de cien veces en rendimiento, fue comprado por el Laboratorio Nacional de Los Alamos. Los clientes de Inglaterra y Francia también compraron la computadora, y se convirtió en la base de la IBM 7950 Harvest , una supercomputadora construida para el criptoanálisis . [12]

El tercer proyecto pionero de supercomputadoras a principios de la década de 1960 fue el Atlas de la Universidad de Manchester , construido por un equipo dirigido por Tom Kilburn . Diseñó el Atlas para tener espacio de memoria para hasta un millón de palabras de 48 bits, pero debido a que el almacenamiento magnético con tal capacidad era inasequible, la memoria central real del Atlas era de solo 16.000 palabras, con un tambor que proporcionaba memoria para otras 96.000 palabras. palabras. El sistema operativo Atlas intercambia datos en forma de páginas entre el núcleo magnético y el tambor. El sistema operativo Atlas también introdujo el tiempo compartido en la supercomputación, de modo que se pudiera ejecutar más de un programa en la supercomputadora al mismo tiempo. [13]Atlas fue una empresa conjunta entre Ferranti y la Universidad de Manchester y fue diseñado para operar a velocidades de procesamiento cercanas a un microsegundo por instrucción, aproximadamente un millón de instrucciones por segundo. [14]

El CDC 6600 , diseñado por Seymour Cray , se terminó en 1964 y marcó la transición de los transistores de germanio a silicio . Los transistores de silicio podían funcionar más rápido y el problema del sobrecalentamiento se resolvió introduciendo la refrigeración en el diseño de la supercomputadora. [15] Así, la CDC6600 se convirtió en la computadora más rápida del mundo. Dado que el 6600 superó a todas las demás computadoras contemporáneas en aproximadamente 10 veces, se le denominó supercomputadora y definió el mercado de la supercomputación, cuando se vendieron cien computadoras a $ 8 millones cada una. [16] [17] [18] [19]

Cray dejó los CDC en 1972 para formar su propia empresa, Cray Research . [17] Cuatro años después de dejar los CDC, Cray entregó el Cray-1 de 80 MHz en 1976, que se convirtió en uno de los superordenadores más exitosos de la historia. [20] [21] El Cray-2 fue lanzado en 1985. Tenía ocho unidades centrales de procesamiento (CPU), refrigeración líquida y el líquido refrigerante de la electrónica, fluorinert, se bombeaba a través de la arquitectura de la supercomputadora . Funcionó a 1,9 gigaFLOPS y fue el segundo más rápido del mundo después de la supercomputadora M-13 en Moscú. [22]

Diseños masivamente paralelos [ editar ]

Un gabinete del Blue Gene / L masivamente paralelo , que muestra los blades apilados , cada uno con muchos procesadores.

La única computadora que desafió seriamente el desempeño del Cray-1 en la década de 1970 fue el ILLIAC IV . Esta máquina fue el primer ejemplo realizado de un verdadero paralelismo masivocomputadora, en la que muchos procesadores trabajaron juntos para resolver diferentes partes de un solo problema mayor. En contraste con los sistemas vectoriales, que fueron diseñados para ejecutar un solo flujo de datos lo más rápido posible, en este concepto, la computadora en cambio alimenta partes separadas de los datos a procesadores completamente diferentes y luego recombina los resultados. El diseño del ILLIAC se finalizó en 1966 con 256 procesadores y ofrece una velocidad de hasta 1 GFLOPS, en comparación con el pico de 250 MFLOPS del Cray-1 de la década de 1970. Sin embargo, los problemas de desarrollo llevaron a que solo se construyeran 64 procesadores, y el sistema nunca podría funcionar más rápido que unos 200 MFLOPS mientras era mucho más grande y más complejo que el Cray. Otro problema era que escribir software para el sistema era difícil y obtener el máximo rendimiento era una cuestión de gran esfuerzo.

Pero se consideró que el éxito parcial de ILLIAC IV señalaba el camino hacia el futuro de la supercomputación. Cray argumentó en contra de esto, célebremente bromeando que "si estuvieras arando un campo, ¿cuál preferirías usar? ¿Dos bueyes fuertes o 1024 gallinas?" [23] Pero a principios de la década de 1980, varios equipos estaban trabajando en diseños paralelos con miles de procesadores, en particular la Connection Machine (CM) que se desarrolló a partir de una investigación en el MIT . El CM-1 utilizó hasta 65.536 microprocesadores personalizados simplificados conectados entre sí en una red para compartir datos. Siguieron varias versiones actualizadas; la supercomputadora CM-5 es una computadora de procesamiento paralelo masivo capaz de muchos miles de millones de operaciones aritméticas por segundo.[24]

En 1982, la Universidad de Osaka 's Links-1 sistema de gráficos de ordenador utiliza un masivamente paralelo arquitectura de procesamiento, con 514 microprocesadores , incluyendo 257 Zilog Z8001 procesadores de control y 257 iAPX 86/20 procesadores de punto flotante . Se utilizó principalmente para renderizar gráficos de computadora 3D realistas . [25] El VPP500 de Fujitsu de 1992 es inusual ya que, para lograr velocidades más altas, sus procesadores utilizaron GaAs , un material normalmente reservado para aplicaciones de microondas debido a su toxicidad. [26] Fujitsu 's túnel de viento numéricaLa supercomputadora utilizó 166 procesadores vectoriales para obtener el primer puesto en 1994 con una velocidad máxima de 1,7  gigaFLOPS (GFLOPS) por procesador. [27] [28] El Hitachi SR2201 obtuvo un rendimiento máximo de 600 GFLOPS en 1996 mediante el uso de 2048 procesadores conectados a través de una red de barras cruzadas tridimensional rápida . [29] [30] [31] El Intel Paragon podía tener de 1000 a 4000 procesadores Intel i860 en varias configuraciones y fue clasificado como el más rápido del mundo en 1993. El Paragon era un MIMDmáquina que conecta procesadores a través de una malla bidimensional de alta velocidad, lo que permite que los procesos se ejecuten en nodos separados, comunicándose a través de la interfaz de paso de mensajes . [32]

El desarrollo de software siguió siendo un problema, pero la serie CM provocó una investigación considerable sobre este tema. Muchas empresas, incluidas Evans & Sutherland ES-1 , MasPar , nCUBE , Intel iPSC y Goodyear MPP, realizaron diseños similares con hardware personalizado . Pero a mediados de la década de 1990, el rendimiento de la CPU de uso general había mejorado tanto que se podía construir una supercomputadora usándolos como unidades de procesamiento individuales, en lugar de usar chips personalizados. A comienzos del siglo XXI, los diseños con decenas de miles de CPU básicas eran la norma, y ​​las máquinas posteriores agregaron unidades gráficas a la mezcla. [7] [8]

La parte de CPU de TOP500
Diagrama de una interconexión de toro tridimensional utilizada por sistemas como Blue Gene, Cray XT3, etc.

Los sistemas con una gran cantidad de procesadores generalmente toman uno de dos caminos. En el enfoque de computación en cuadrícula , la potencia de procesamiento de muchas computadoras, organizadas como dominios administrativos distribuidos y diversos, se usa de manera oportunista siempre que una computadora está disponible [33] y en otro enfoque, muchos procesadores se usan cerca unos de otros, por ejemplo, en un clúster de computadoras . En tal sistema centralizado masivamente paralelo , la velocidad y flexibilidad de la interconexión se vuelve muy importante y las supercomputadoras modernas han utilizado varios enfoques que van desde sistemas Infiniband mejorados hasta interconexiones toroidales tridimensionales . [34] [35]El uso de procesadores de múltiples núcleos combinados con la centralización es una dirección emergente, por ejemplo, como en el sistema Cyclops64 . [36] [37]

A medida que el precio, el rendimiento y la eficiencia energética de los procesadores gráficos de propósito general (GPGPU) han mejorado, [38] varias supercomputadoras petaFLOPS como Tianhe-I y Nebulae han comenzado a confiar en ellos. [39] Sin embargo, otros sistemas, como la computadora K, continúan utilizando procesadores convencionales, como los diseños basados ​​en SPARC y la aplicabilidad general de las GPGPU.en aplicaciones de computación de alto rendimiento de propósito general ha sido objeto de debate, ya que si bien una GPGPU puede ajustarse para obtener una buena puntuación en puntos de referencia específicos, su aplicabilidad general a los algoritmos cotidianos puede ser limitada a menos que se invierta un esfuerzo significativo para ajustar la aplicación a eso. [40] [41] Sin embargo, las GPU están ganando terreno y en 2012 la supercomputadora Jaguar se transformó en Titan mediante la adaptación de las CPU con GPU. [42] [43] [44]

Las computadoras de alto rendimiento tienen un ciclo de vida esperado de aproximadamente tres años antes de requerir una actualización. [45] La supercomputadora Gyoukou es única porque utiliza un diseño masivamente paralelo y enfriamiento por inmersión en líquido .

Supercomputadoras de propósito especial [ editar ]

Se han diseñado varios sistemas "para fines especiales", dedicados a un solo problema. Esto permite el uso de chips FPGA especialmente programados o incluso ASIC personalizados , lo que permite mejores relaciones precio / rendimiento al sacrificar la generalidad. Ejemplos de supercomputadoras de propósito especial incluyen Belle , [46] Deep Blue , [47] e Hydra , [48] para jugar al ajedrez , Gravity Pipe para astrofísica, [49] MDGRAPE-3 para el cálculo de la estructura de proteínas, dinámica molecular [50] y Deep Crack , [51] por romper elDES cifrado .

Uso de energía y gestión del calor [ editar ]

La supercomputadora Summit era, en noviembre de 2018, la supercomputadora más rápida del mundo. [52] Con una eficiencia energética medida de 14,668 GFlops / vatio, también es el tercer lugar con mayor eficiencia energética del mundo. [53]

A lo largo de las décadas, la gestión de la densidad del calor ha seguido siendo un tema clave para la mayoría de las supercomputadoras centralizadas. [54] [55] [56] La gran cantidad de calor generada por un sistema también puede tener otros efectos, por ejemplo, reducir la vida útil de otros componentes del sistema. [57] Ha habido diversos enfoques para la gestión del calor, desde el bombeo de Fluorinert a través del sistema, hasta un sistema híbrido de refrigeración por aire líquido o refrigeración por aire con temperaturas normales de aire acondicionado . [58] [59] Una supercomputadora típica consume grandes cantidades de energía eléctrica, casi toda la cual se convierte en calor, lo que requiere enfriamiento. Por ejemplo, Tianhe-1Aconsume 4,04  megavatios (MW) de electricidad. [60] El costo de alimentar y enfriar el sistema puede ser significativo, por ejemplo, 4 MW a $ 0.10 / kWh son $ 400 la hora o alrededor de $ 3.5 millones por año.

Una hoja IBM HS20

La gestión del calor es un problema importante en los dispositivos electrónicos complejos y afecta a los sistemas informáticos potentes de diversas formas. [61] La potencia de diseño térmico y los problemas de disipación de potencia de la CPU en la supercomputación superan a los de las tecnologías tradicionales de enfriamiento de computadoras . Los premios de supercomputación a la informática ecológica reflejan este problema. [62] [63] [64]

El empaquetado de miles de procesadores juntos genera inevitablemente cantidades significativas de densidad de calor que deben tratarse. El Cray 2 se enfrió con líquido y usó una "cascada de enfriamiento" Fluorinert que fue forzada a través de los módulos bajo presión. [58] Sin embargo, el enfoque de enfriamiento líquido sumergido no fue práctico para los sistemas de gabinetes múltiples basados ​​en procesadores estándar, y en el Sistema X se desarrolló un sistema de enfriamiento especial que combinaba aire acondicionado con enfriamiento líquido en conjunto con el Liebert. empresa . [59]

En el sistema Blue Gene , IBM utilizó deliberadamente procesadores de baja potencia para lidiar con la densidad de calor. [65] El IBM Power 775 , lanzado en 2011, tiene elementos compactos que requieren refrigeración por agua. [66] El sistema IBM Aquasar utiliza refrigeración por agua caliente para lograr la eficiencia energética, y el agua también se utiliza para calentar edificios. [67] [68]

La eficiencia energética de los sistemas informáticos se mide generalmente en términos de " FLOPS por vatio ". En 2008, Roadrunner por IBM opera a 3,76  MFLOPS / W . [69] [70] En noviembre de 2010, Blue Gene / Q alcanzó 1.684 MFLOPS / W [71] [72] y en junio de 2011 los 2 primeros lugares en la lista Green 500 fueron ocupados por máquinas Blue Gene en Nueva York (una logrando 2097 MFLOPS / W) con el grupo DEGIMA en Nagasaki en tercer lugar con 1375 MFLOPS / W. [73]

Debido a que los cables de cobre pueden transferir energía a una supercomputadora con densidades de potencia mucho más altas que el aire forzado o los refrigerantes en circulación pueden eliminar el calor residual , [74] la capacidad de los sistemas de refrigeración para eliminar el calor residual es un factor limitante. [75] [76] A partir de 2015 , muchas supercomputadoras existentes tienen más capacidad de infraestructura que la demanda máxima real de la máquina; los diseñadores generalmente diseñan de manera conservadora la infraestructura de energía y enfriamiento para manejar más que la potencia eléctrica máxima teórica consumida por la supercomputadora. Los diseños para las futuras supercomputadoras tienen energía limitada: la potencia del diseño térmicode la supercomputadora en su conjunto, la cantidad que puede manejar la infraestructura de energía y enfriamiento es algo mayor que el consumo de energía normal esperado, pero menor que el consumo de energía pico teórico del hardware electrónico. [77]

Gestión de software y sistemas [ editar ]

Sistemas operativos [ editar ]

Desde finales del siglo XX, los sistemas operativos de supercomputadoras han sufrido importantes transformaciones, basadas en los cambios en la arquitectura de las supercomputadoras . [78] Si bien los primeros sistemas operativos se adaptaron a la medida de cada superordenador para ganar velocidad, la tendencia ha sido alejarse de los sistemas operativos internos a la adaptación de software genérico como Linux . [79]

Dado que las supercomputadoras modernas masivamente paralelas generalmente separan los cálculos de otros servicios mediante el uso de múltiples tipos de nodos , generalmente ejecutan diferentes sistemas operativos en diferentes nodos, por ejemplo, usando un kernel liviano pequeño y eficiente como CNK o CNL en nodos de cómputo, pero un sistema más grande como como derivado de Linux en servidores y nodos de E / S. [80] [81] [82]

Mientras que en un sistema informático multiusuario tradicional la programación de trabajos es, en efecto, un problema de asignación de tareas para el procesamiento y los recursos periféricos, en un sistema masivamente paralelo, el sistema de administración de trabajos necesita administrar la asignación de recursos computacionales y de comunicación, así como lidiar con elegancia con las inevitables fallas de hardware cuando hay decenas de miles de procesadores presentes. [83]

Aunque la mayoría de las supercomputadoras modernas usan un sistema operativo basado en Linux , cada fabricante tiene su propio derivado específico de Linux y no existe un estándar de la industria, en parte debido al hecho de que las diferencias en las arquitecturas de hardware requieren cambios para optimizar el sistema operativo para cada diseño de hardware. . [78] [84]

Herramientas de software y transmisión de mensajes [ editar ]

Vista gran angular del correlador ALMA [85]

Las arquitecturas paralelas de las supercomputadoras a menudo imponen el uso de técnicas de programación especiales para aprovechar su velocidad. Las herramientas de software para el procesamiento distribuido incluyen API estándar como MPI y PVM , VTL y software de código abierto como Beowulf .

En el escenario más común, se utilizan entornos como PVM y MPI para clústeres débilmente conectados y OpenMP para máquinas de memoria compartida estrechamente coordinadas. Se requiere un esfuerzo significativo para optimizar un algoritmo para las características de interconexión de la máquina en la que se ejecutará; el objetivo es evitar que cualquiera de las CPU pierda tiempo esperando datos de otros nodos. Las GPGPU tienen cientos de núcleos de procesador y se programan utilizando modelos de programación como CUDA u OpenCL .

Además, es bastante difícil depurar y probar programas paralelos. Es necesario utilizar técnicas especiales para probar y depurar dichas aplicaciones.

Supercomputación distribuida [ editar ]

Enfoques oportunistas [ editar ]

Ejemplo de arquitectura de un sistema de computación en red que conecta muchas computadoras personales a través de Internet

La supercomputación oportunista es una forma de computación en red en la que una "computadora súper virtual" de muchas máquinas de computación voluntarias poco acopladas realiza tareas de computación muy grandes. La computación en cuadrícula se ha aplicado a una serie de problemas embarazosamente paralelos a gran escala que requieren escalas de rendimiento de supercomputación. Sin embargo, los enfoques básicos de la computación en red y en la nube que se basan en la computación voluntaria no pueden manejar las tareas tradicionales de supercomputación, como las simulaciones dinámicas de fluidos. [86]

El sistema de computación en red más rápido es el proyecto de computación distribuida Folding @ home (F @ h). F @ h reportó 2.5 exaFLOPS de potencia de procesamiento x86 en abril de 2020 . De esto, más de 100 PFLOPS son aportados por clientes que se ejecutan en varias GPU y el resto de varios sistemas de CPU. [87]

La plataforma Berkeley Open Infrastructure for Network Computing (BOINC) alberga varios proyectos de computación distribuida. A febrero de 2017 , BOINC registró una potencia de procesamiento de más de 166 petaFLOPS a través de más de 762 mil Computadoras (Hosts) activas en la red. [88]

En octubre de 2016 , la búsqueda distribuida de Mersenne Prime de Great Internet Mersenne Prime Search (GIMPS) logró aproximadamente 0.313 PFLOPS a través de más de 1.3 millones de computadoras. [89] El servidor PrimeNet de Internet es compatible con el enfoque de computación en cuadrícula de GIMPS, uno de los proyectos de computación en cuadrícula más tempranos y exitosos [ cita requerida ] , desde 1997.

Enfoques cuasi-oportunistas [ editar ]

La supercomputación cuasi-oportunista es una forma de computación distribuida mediante la cual la "computadora súper virtual" de muchas computadoras en red dispersas geográficamente realiza tareas de computación que exigen una enorme potencia de procesamiento. [90] La supercomputación cuasi-oportunista tiene como objetivo proporcionar una calidad de servicio más alta que la computación en cuadrícula oportunista.logrando un mayor control sobre la asignación de tareas a los recursos distribuidos y el uso de inteligencia sobre la disponibilidad y confiabilidad de los sistemas individuales dentro de la red de supercomputación. Sin embargo, la ejecución distribuida cuasi-oportunista del exigente software de computación paralela en redes debe lograrse mediante la implementación de acuerdos de asignación de redes, subsistemas de co-asignación, mecanismos de asignación con reconocimiento de topología de comunicación, bibliotecas de paso de mensajes tolerantes a fallas y preacondicionamiento de datos. [90]

Nubes informáticas de alto rendimiento [ editar ]

La computación en la nube con sus recientes y rápidas expansiones y desarrollo ha llamado la atención de los usuarios y desarrolladores de computación de alto rendimiento (HPC) en los últimos años. La computación en la nube intenta proporcionar HPC como servicio exactamente como otras formas de servicios disponibles en la nube, como software como servicio , plataforma como servicio e infraestructura como servicio . Los usuarios de HPC pueden beneficiarse de la nube en diferentes ángulos, como la escalabilidad, los recursos bajo demanda, rápidos y económicos. Por otro lado, las aplicaciones de HPC en movimiento también presentan una serie de desafíos. Buenos ejemplos de tales desafíos son la virtualizaciónsobrecarga en la nube, tenencia múltiple de recursos y problemas de latencia de la red. Actualmente se están realizando muchas investigaciones para superar estos desafíos y hacer que la HPC en la nube sea una posibilidad más realista. [91] [92] [93] [94]

En 2016, Penguin Computing , R-HPC, Amazon Web Services , Univa , Silicon Graphics International , Sabalcore y Gomput comenzaron a ofrecer computación en la nube HPC . La nube Penguin On Demand (POD) es un modelo informático básico para ejecutar código, pero a cada usuario se le asigna un nodo de inicio de sesión virtualizado . Los nodos de computación POD están conectados a través de redes Ethernet de 10 Gbit / s no virtualizadas o QDR InfiniBand . La conectividad del usuario al centro de datos POD varía de 50 Mbit / sa 1 Gbit / s. [95] Citando EC2 Elastic Compute Cloud de Amazon, Penguin Computing sostiene que la virtualizaciónde nodos de cómputo no es adecuado para HPC. Penguin Computing también ha criticado que las nubes HPC pueden haber asignado nodos informáticos a clientes que están muy separados, lo que provoca una latencia que afecta el rendimiento de algunas aplicaciones HPC. [96]

Medición del desempeño [ editar ]

Capacidad versus capacidad [ editar ]

Las supercomputadoras generalmente apuntan al máximo en computación de capacidad en lugar de computación de capacidad. Por lo general, se considera que la computación de capacidad utiliza la máxima potencia de computación para resolver un solo gran problema en el menor tiempo posible. A menudo, un sistema de capacidad es capaz de resolver un problema de un tamaño o complejidad que ninguna otra computadora puede, por ejemplo, una aplicación de simulación meteorológica muy compleja . [97]

Por el contrario, se suele pensar que la computación de capacidad utiliza una potencia de cálculo eficiente y rentable para resolver algunos problemas algo grandes o muchos problemas pequeños. [97] Las arquitecturas que se prestan a dar soporte a muchos usuarios para las tareas diarias rutinarias pueden tener mucha capacidad, pero normalmente no se consideran supercomputadoras, dado que no resuelven un solo problema muy complejo. [97]

Métricas de rendimiento [ editar ]

Velocidades superiores de supercomputadora: velocidad de escala logs durante 60 años

En general, se mide la velocidad de superordenadores y punto de referencia en FLOPS ( "operaciones de punto flotante por segundo"), y no en términos de MIPS ( "millones de instrucciones por segundo), como es el caso de los ordenadores de propósito general. [98 ] Estas medidas se usan comúnmente con un prefijo SI como tera- , combinado en la abreviatura "TFLOPS" (10 12 FLOPS, pronunciado teraflops ), o peta- , combinado en la taquigrafía "PFLOPS" (10 15 FLOPS, pronunciado petaflops . ) " Petascale "Las supercomputadoras pueden procesar un billón (10 15) (1000 billones) FLOPS. Exascale es un rendimiento informático en el rango exaFLOPS (EFLOPS). Un EFLOPS es un quintillón (10 18 ) FLOPS (un millón de TFLOPS).

Ningún número puede reflejar el rendimiento general de un sistema informático, sin embargo, el objetivo de la prueba de rendimiento de Linpack es aproximar la rapidez con la que la computadora resuelve problemas numéricos y se usa ampliamente en la industria. [99] La medición de FLOPS se cotiza en función del rendimiento de punto flotante teórico de un procesador (derivado de las especificaciones del procesador del fabricante y se muestra como "Rpeak" en las listas TOP500), que generalmente es inalcanzable cuando se ejecutan cargas de trabajo reales, o el rendimiento alcanzable , derivado de los puntos de referencia de LINPACK y mostrado como "Rmax" en la lista TOP500. [100] El índice de referencia LINPACK normalmente realiza la descomposición LU de una matriz grande. [101]El rendimiento de LINPACK da alguna indicación del rendimiento para algunos problemas del mundo real, pero no necesariamente coincide con los requisitos de procesamiento de muchas otras cargas de trabajo de supercomputadoras, que, por ejemplo, pueden requerir más ancho de banda de memoria, o pueden requerir un mejor rendimiento de cómputo entero, o pueden necesitar un Sistema de E / S de alto rendimiento para lograr altos niveles de rendimiento. [99]

La lista TOP500 [ editar ]

Las 20 mejores supercomputadoras del mundo (junio de 2014)

Desde 1993, las supercomputadoras más rápidas se han clasificado en la lista TOP500 según sus resultados de referencia LINPACK . La lista no pretende ser imparcial o definitiva, pero es una definición actual ampliamente citada de la supercomputadora "más rápida" disponible en un momento dado.

Esta es una lista reciente de las computadoras que aparecieron en la parte superior de la lista TOP500, [102] y la "Velocidad máxima" se da como la calificación "Rmax". En 2018, Lenovo se convirtió en el proveedor más grande del mundo de supercomputadoras TOP500 con 117 unidades producidas. [103]

Aplicaciones [ editar ]

Las etapas de la aplicación de supercomputadoras se pueden resumir en la siguiente tabla:

La computadora IBM Blue Gene / P se ha utilizado para simular una cantidad de neuronas artificiales equivalente a aproximadamente el uno por ciento de la corteza cerebral humana, que contiene 1.600 millones de neuronas con aproximadamente 9 billones de conexiones. El mismo grupo de investigación también logró utilizar una supercomputadora para simular una serie de neuronas artificiales equivalentes a la totalidad del cerebro de una rata. [111]

La previsión meteorológica de hoy en día también se basa en supercomputadoras. La Administración Nacional Oceánica y Atmosférica utiliza supercomputadoras para procesar cientos de millones de observaciones para ayudar a que los pronósticos meteorológicos sean más precisos. [112]

En 2011, los desafíos y las dificultades para superar los límites de la supercomputación fueron subrayados por el abandono por parte de IBM del proyecto de petaescala Blue Waters . [113]

El Programa de Computación y Simulación Avanzada utiliza actualmente supercomputadoras para mantener y simular el arsenal nuclear de los Estados Unidos. [114]

A principios de 2020, COVID-19 estaba al frente y al centro del mundo. Las supercomputadoras utilizaron diferentes simulaciones para encontrar compuestos que potencialmente podrían detener la propagación. Estas computadoras funcionan durante decenas de horas utilizando varias CPU en paralelo para modelar diferentes procesos. [115] [116] [117]

Desarrollo y tendencias [ editar ]

Distribución de supercomputadoras TOP500 entre diferentes países, en noviembre de 2015

En la década de 2010, China, Estados Unidos, la Unión Europea y otros compitieron por ser los primeros en crear una supercomputadora de 1 exaFLOP (10 18 o un quintillón de FLOPS). [118] Erik P. DeBenedictis de Sandia National Laboratories ha teorizado que se requiere una computadora zettaFLOPS (10 21 o un sextillón de FLOPS) para lograr un modelo meteorológico completo , que podría cubrir un período de tiempo de dos semanas con precisión. [119] [120] [121] Estos sistemas podrían construirse alrededor de 2030. [122]

Muchas simulaciones de Monte Carlo utilizan el mismo algoritmo para procesar un conjunto de datos generado aleatoriamente; en particular, las ecuaciones integro-diferenciales que describen los procesos de transporte físico , las trayectorias aleatorias , las colisiones y las deposiciones de energía y momento de neutrones, fotones, iones, electrones, etc.El siguiente paso para los microprocesadores puede ser la tercera dimensión ; y especializándose en Monte Carlo, las muchas capas podrían ser idénticas, simplificando el proceso de diseño y fabricación. [123]

El costo de operar supercomputadoras de alto rendimiento ha aumentado, principalmente debido al aumento del consumo de energía. A mediados de la década de 1990, una de las 10 mejores supercomputadoras requería en el rango de 100 kilovatios, en 2010 las 10 mejores supercomputadoras requerían entre 1 y 2 megavatios. [124] Un estudio de 2010 encargado por DARPA identificó el consumo de energía como el desafío más generalizado para lograr la computación a exaescala . [125] En ese momento, un megavatio por año en consumo de energía costaba alrededor de 1 millón de dólares. Se construyeron instalaciones de supercomputación para eliminar de manera eficiente la creciente cantidad de calor producido por las modernas unidades centrales de procesamiento de múltiples núcleos.. Según el consumo de energía de la lista Green 500 de supercomputadoras entre 2007 y 2011, una supercomputadora con 1 exaflops en 2011 habría requerido cerca de 500 megavatios. Los sistemas operativos se desarrollaron para que el hardware existente ahorrara energía siempre que fuera posible. [126] Los núcleos de CPU que no estaban en uso durante la ejecución de una aplicación en paralelo se pusieron en estados de bajo consumo de energía, lo que produjo ahorros de energía para algunas aplicaciones de supercomputación. [127]

El costo creciente de operar supercomputadoras ha sido un factor determinante en una tendencia hacia la agrupación de recursos a través de una infraestructura distribuida de supercomputadoras. Los centros nacionales de supercomputación surgieron por primera vez en Estados Unidos, seguidos de Alemania y Japón. La Unión Europea lanzó la Asociación para la Computación Avanzada en Europa (PRACE) con el objetivo de crear una infraestructura de supercomputación paneuropea persistente con servicios para ayudar a los científicos de toda la Unión Europea a portar, escalar y optimizar aplicaciones de supercomputación. [124] Islandia construyó la primera supercomputadora del mundo con emisiones cero. Ubicado en el centro de datos de Thor en Reykjavík, Islandia, esta supercomputadora depende de fuentes completamente renovables para su energía en lugar de combustibles fósiles. El clima más frío también reduce la necesidad de refrigeración activa, lo que la convierte en una de las instalaciones más ecológicas del mundo de las computadoras. [128]

La financiación del hardware de supercomputadoras también se volvió cada vez más difícil. A mediados de la década de 1990, una de las 10 mejores supercomputadoras costaba unos 10 millones de euros, mientras que en 2010 las 10 mejores supercomputadoras requerían una inversión de entre 40 y 50 millones de euros. [124] En la década de 2000, los gobiernos nacionales pusieron en marcha diferentes estrategias para financiar las supercomputadoras. En el Reino Unido, el gobierno nacional financió completamente las supercomputadoras y la informática de alto rendimiento se puso bajo el control de una agencia de financiación nacional. Alemania desarrolló un modelo de financiamiento mixto, uniendo fondos estatales locales y fondos federales. [124]

En ficción [ editar ]

Muchos escritores de ciencia ficción han representado supercomputadoras en sus obras, tanto antes como después de la construcción histórica de tales computadoras. Gran parte de esta ficción trata de las relaciones de los humanos con las computadoras que construyen y de la posibilidad de que eventualmente se desarrolle un conflicto entre ellos. Ejemplos de supercomputadoras en la ficción incluyen HAL-9000 , Multivac , The Machine Stops , GLaDOS , The Evitable Conflict , Vulcan's Hammer , Colossus , WOPR y Deep Thought .

Ver también [ editar ]

  • Conferencia de supercomputación ACM / IEEE
  • ACM SIGHPC
  • Computación técnica de alto rendimiento
  • Computación en la jungla
  • Supercomputadora personal Nvidia Tesla
  • Computación paralela
  • Supercomputación en China
  • Supercomputación en Europa
  • Supercomputación en India
  • Supercomputación en Japón
  • Prueba de aplicaciones informáticas de alto rendimiento
  • Tecnologías de Ultra Network
  • Computación cuántica

Notas y referencias [ editar ]

  1. ^ "Anuncio del gen IBM Blue" . 03.ibm.com. 26 de junio de 2007 . Consultado el 9 de junio de 2012 .
  2. ^ "Intrepid" . Instalación de Computación de Liderazgo de Argonne . Laboratorio Nacional Argonne . Archivado desde el original el 7 de mayo de 2013 . Consultado el 26 de marzo de 2020 .
  3. ^ "La lista: junio de 2018" . Top 500 . Consultado el 25 de junio de 2018 .
  4. ^ "Familia de sistema operativo / Linux" . TOP500.org . Consultado el 30 de noviembre de 2017 .
  5. ^ Anderson, Mark (21 de junio de 2017). "La carrera global hacia la exaescala impulsará la supercomputación y la inteligencia artificial a las masas". Spectrum.IEEE.org . Consultado el 20 de enero de 2019.
  6. ^ Lemke, Tim (8 de mayo de 2013). "NSA rompe terreno en el centro de computación masiva" . Consultado el 11 de diciembre de 2013 .
  7. ↑ a b Hoffman, Allan R .; et al. (1990). Supercomputadoras: direcciones en tecnología y aplicaciones . Academias Nacionales. págs. 35–47. ISBN 978-0-309-04088-4.
  8. ^ a b Hill, Mark Donald; Jouppi, Norman Paul ; Sohi, Gurindar (1999). Lecturas en arquitectura informática . págs. 40–49. ISBN 978-1-55860-539-8.
  9. ^ a b "Japón captura la corona TOP500 con superordenador de brazo - sitio web TOP500" . www.top500.org .
  10. ^ "Desarrollo del rendimiento - Sitios de supercomputadoras TOP500" . www.top500.org .
  11. ^ Eric G. Swedin; David L. Ferro (2007). Computadoras: la historia de vida de una tecnología . Prensa JHU. pag. 57. ISBN 9780801887741.
  12. ^ Eric G. Swedin; David L. Ferro (2007). Computadoras: la historia de vida de una tecnología . Prensa JHU. pag. 56. ISBN 9780801887741.
  13. ^ Eric G. Swedin; David L. Ferro (2007). Computadoras: la historia de vida de una tecnología . Prensa JHU. pag. 58. ISBN 9780801887741.
  14. The Atlas , University of Manchester, archivado desde el original el 28 de julio de 2012 , consultado el 21 de septiembre de 2010
  15. ^ Los superhombres , Charles Murray, Wiley & Sons, 1997.
  16. ^ Paul E. Ceruzzi (2003). Una historia de la informática moderna . MIT Press. pag. 161 . ISBN 978-0-262-53203-7.
  17. ↑ a b Hannan, Caryn (2008). Diccionario biográfico de Wisconsin . Publicaciones de la historia del estado. págs. 83–84. ISBN 978-1-878592-63-7.
  18. ^ John Impagliazzo; John AN Lee (2004). Historia de la informática en la educación . Springer Science & Business Media. pag. 172 . ISBN 978-1-4020-8135-4.
  19. ^ Andrew RL Cayton; Richard Sisson; Chris Zacher (2006). El medio oeste estadounidense: una enciclopedia interpretativa . Prensa de la Universidad de Indiana. pag. 1489. ISBN 978-0-253-00349-2.
  20. ^ Lecturas en arquitectura de computadora por Mark Donald Hill, Norman Paul Jouppi, Gurindar Sohi 1999 ISBN 978-1-55860-539-8 página 41-48 
  21. ^ Hitos en informática y tecnología de la información por Edwin D. Reilly 2003 ISBN 1-57356-521-0 página 65 
  22. ^ "Mikhail A. Kartsev, M1, M4, M10, M13.Desarrollo de informática y tecnologías en Ucrania" . www.icfcst.kiev.ua .
  23. ^ "Cotizaciones de Seymour Cray" . BrainyQuote .
  24. ^ Steve Nelson (3 de octubre de 2014). "ComputerGK.com: Supercomputadoras" .
  25. ^ "LINKS-1 Computer Graphics System-Computer Museum" . museum.ipsj.or.jp .
  26. ^ "VPP500 (1992) - Fujitsu Global" .
  27. ^ "Informe anual de TOP500 1994" . Netlib.org. 1 de octubre de 1996 . Consultado el 9 de junio de 2012 .
  28. ^ N. Hirose y M. Fukuda (1997). Túnel de viento numérico (NWT) y CFD Research en el Laboratorio Aeroespacial Nacional . Actas de HPC-Asia '97. Páginas de la IEEE Computer Society. doi : 10.1109 / HPC.1997.592130 .
  29. ^ H. Fujii, Y. Yasuda, H. Akashi, Y. Inagami, M. Koga, O. Ishihara, M. Syazwan, H. Wada, T. Sumimoto, Arquitectura y rendimiento del sistema de procesador masivamente paralelo Hitachi SR2201 , Actas del 11º Simposio Internacional de Procesamiento Paralelo, abril de 1997, páginas 233–241.
  30. ^ Y. Iwasaki, El proyecto CP-PACS, Física nuclear B: Suplementos de actas, volumen 60, números 1-2, enero de 1998, páginas 246-254.
  31. ^ AJ van der Steen, Resumen de supercomputadoras recientes , publicación del NCF, Stichting Nationale Computer Faciliteiten, Países Bajos, enero de 1997.
  32. ^ Entrada / salida escalable: lograr el equilibrio del sistema por Daniel A. Reed 2003 ISBN 978-0-262-68142-1 página 182 
  33. ^ Prodan, Radu; Fahringer, Thomas (2007). Computación en cuadrícula: gestión de experimentos, integración de herramientas y flujos de trabajo científicos . págs.  1 –4. ISBN 978-3-540-69261-4.
  34. ^ Knight, Will: " IBM crea la computadora más poderosa del mundo ", servicio de noticias NewScientist.com , junio de 2007
  35. ^ NR Agida; et al. (2005). "Red de interconexión Blue Gene / L Torus | Revista de investigación y desarrollo de IBM" (PDF) . Red de interconexión Torus . pag. 265. Archivado desde el original (PDF) el 15 de agosto de 2011.
  36. ^ Niu, Yanwei; Hu, Ziang; Barner, Kenneth; Gao, Guang R. (2005). "Modelado de rendimiento y optimización del acceso a la memoria en la arquitectura de la computadora celular Cyclops64" (PDF) . Computación en red y en paralelo . Apuntes de conferencias en informática. 3779 . págs. 132-143. doi : 10.1007 / 11577188_18 . ISBN  978-3-540-29810-6.
  37. ^ Resultados de análisis y rendimiento de la centralidad de intermediación informática en IBM Cyclops64 por Guangming Tan, Vugranam C. Sreedhar y Guang R. Gao The Journal of Supercomputing Volume 56, Number 1, 1-24 de septiembre de 2011
  38. ^ Mittal et al., " Una encuesta de métodos para analizar y mejorar la eficiencia energética de la GPU ", Encuestas de computación de ACM, 2014.
  39. ^ Prickett, Timothy (31 de mayo de 2010). "Top 500 supers - The Dawning of the GPUs" . Theregister.co.uk.
  40. ^ " Una encuesta de técnicas de computación heterogénea CPU-GPU ", Encuestas de computación ACM, 2015
  41. ^ Hans Hacker; Trinitis de Carsten; Josef Weidendorfer; Matthias Brehm (2010). "Considerando GPGPU para centros HPC: ¿Vale la pena el esfuerzo?" . En Rainer Keller; David Kramer; Jan-Philipp Weiss (eds.). Afrontando el desafío multinúcleo: aspectos de los nuevos paradigmas y tecnologías en la computación paralela . Springer Science & Business Media. págs. 118-121. ISBN 978-3-642-16232-9.
  42. ^ Damon Poeter (11 de octubre de 2011). "El superordenador Titan de Cray para ORNL podría ser el más rápido del mundo" . Pcmag.com.
  43. ^ Feldman, Michael (11 de octubre de 2011). "Las GPU transformarán el Jaguar de ORNL en Titan 20-Petaflop" . Hpcwire.com.
  44. ^ Timothy Prickett Morgan (11 de octubre de 2011). "Oak Ridge cambia los puntos de Jaguar de CPU a GPU" . Theregister.co.uk.
  45. ^ "La supercomputadora NETL" . página 2.
  46. ^ Condon, JH y K.Thompson, " Belle Chess Hardware ", Avances en Computer Chess 3 (ed. MRBClarke), Pergamon Press, 1982.
  47. ^ Hsu, Feng-hsiung (2002). Detrás de Deep Blue: Construyendo la computadora que derrotó al Campeón Mundial de Ajedrez . Prensa de la Universidad de Princeton . ISBN 978-0-691-09065-8.
  48. ^ C. Donninger, U. Lorenz. La Hidra Monstruo del Ajedrez. Proc. de la 14a Conferencia Internacional sobre Lógica y Aplicaciones Programables en Campo (FPL), 2004, Amberes - Bélgica, LNCS 3203, págs. 927 - 932
  49. ^ J Makino y M. Taiji, Simulaciones científicas con computadoras de propósito especial: los sistemas GRAPE , Wiley. 1998.
  50. ^ Comunicado de prensa de RIKEN, finalización de un sistema informático de un petaFLOPS para la simulación de dinámica molecular
  51. ^ Fundación Frontera Electrónica (1998). Cracking DES: secretos de la investigación de cifrado, políticas de escuchas telefónicas y diseño de chips . Oreilly & Associates Inc. ISBN 978-1-56592-520-5.
  52. ^ Lohr, Steve (8 de junio de 2018). "Move Over, China: Estados Unidos es nuevamente el hogar de la supercomputadora más rápida del mundo" . New York Times . Consultado el 19 de julio de 2018 .
  53. ^ "Lista Green500 - noviembre de 2018" . TOP500 . Consultado el 19 de julio de 2018 .
  54. Xue-June Yang; Xiang-Ke Liao; et al. (2011). "La supercomputadora TianHe-1A: su hardware y software". Revista de Ciencias y Tecnología de la Computación . 26 (3): 344–351. doi : 10.1007 / s02011-011-1137-8 . S2CID 1389468 . 
  55. The Supermen: Story of Seymour Cray and the Technical Wizards Behind the Supercomputer por Charles J. Murray 1997, ISBN 0-471-04885-2 , páginas 133-135 
  56. ^ Dinámica de fluidos computacional paralela; Avances recientes y direcciones futuras editado por Rupak Biswas 2010 ISBN 1-60595-022-X página 401 
  57. ^ Avances en la investigación de supercomputación por Yongge Huáng 2008, ISBN 1-60456-186-6 , páginas 313-314 
  58. ^ a b Computación paralela para el procesamiento y control de señales en tiempo real por MO Tokhi, Mohammad Alamgir Hossain 2003, ISBN 978-1-85233-599-1 , páginas 201–202 
  59. ^ a b Ciencias de la computación - ICCS 2005: 5ª conferencia internacional editada por Vaidy S. Sunderam 2005, ISBN 3-540-26043-9 , páginas 60–67 
  60. ^ "Las GPU NVIDIA Tesla potencian la supercomputadora más rápida del mundo" (Comunicado de prensa). Nvidia. 29 de octubre de 2010.
  61. ^ Balandin, Alexander A. (octubre de 2009). "Mejor computación a través del enfriamiento de la CPU" . Spectrum.ieee.org.
  62. ^ "El 500 verde" . Green500.org.
  63. ^ "Lista verde 500 clasifica supercomputadoras" . iTnews Australia . Archivado desde el original el 22 de octubre de 2008.
  64. ^ Wu-chun Feng (2003). "Abogando por una supercomputación eficiente | Revista ACM Queue, volumen 1 número 7, 10 de enero de 2003 doi 10.1145 / 957717.957772" (PDF) . Cola . 1 (7): 54. doi : 10.1145 / 957717.957772 . S2CID 11283177 . Archivado desde el original (PDF) el 30 de marzo de 2012.  
  65. ^ "IBM descubre 20 petaflops BlueGene / Q super" . El registro . 22 de noviembre de 2010 . Consultado el 25 de noviembre de 2010 .
  66. ^ Prickett, Timothy (15 de julio de 2011). " El registro : supernodo IBM 'Blue Waters' llega a tierra en agosto" . Theregister.co.uk . Consultado el 9 de junio de 2012 .
  67. ^ "Superordenador IBM refrigerado por agua caliente entra en funcionamiento en ETH Zurich" . Sala de noticias de IBM . 2 de julio de 2010. Archivado desde el original el 10 de enero de 2011 . Consultado el 16 de marzo de 2020 .
  68. ^ Martin LaMonica (10 de mayo de 2010). "CNet 10 de mayo de 2010" . News.cnet.com . Consultado el 9 de junio de 2012 .
  69. ^ "Gobierno presenta la computadora más rápida del mundo" . CNN . Archivado desde el original el 10 de junio de 2008. Realización de 376 millones de cálculos por cada vatio de electricidad utilizado.
  70. ^ "IBM Roadrunner se lleva el oro en la carrera Petaflop" . Archivado desde el original el 17 de diciembre de 2008 . Consultado el 16 de marzo de 2020 .
  71. ^ "Lista de supercomputación Top500 revela tendencias informáticas" . IBM ... BlueGene / Q system ... estableciendo un récord en eficiencia energética con un valor de 1,680 MFLOPS / W, más del doble que el siguiente mejor sistema.
  72. ^ "IBM Research un claro ganador en Green 500" . 18 de noviembre de 2010.
  73. ^ "Lista verde 500" . Green500.org. Archivado desde el original el 3 de julio de 2011 . Consultado el 16 de marzo de 2020 .
  74. ^ Saed G. Younis. "Computación de energía asintóticamente cero usando lógica de recuperación de carga de nivel dividido" . 1994. página 14.
  75. ^ "Tema candente: el problema de enfriar supercomputadoras" Archivado el 18 de enero de 2015 en Wayback Machine .
  76. ^ Anand Lal Shimpi. "Dentro de la supercomputadora Titan: 299K AMD x86 Cores y 18.6K NVIDIA GPUs" . 2012.
  77. ^ Curtis Storlie; Joe Sexton; Scott Pakin; Michael Lang; Brian Reich; William Rust. "Modelado y predicción del consumo de energía de trabajos informáticos de alto rendimiento" . 2014.
  78. ^ a b Enciclopedia de computación paralela por David Padua 2011 ISBN 0-387-09765-1 páginas 426–429 
  79. ^ Conociendo máquinas: ensayos sobre el cambio técnico por Donald MacKenzie 1998 ISBN 0-262-63188-1 página 149-151 
  80. ^ Procesamiento paralelo Euro-Par 2004: X Conferencia Internacional Euro-Par 2004, por Marco Danelutto, Marco Vanneschi y Domenico Laforenza, ISBN 3-540-22924-8 , página 835 
  81. ^ Procesamiento paralelo Euro-Par 2006: 12ª Conferencia Internacional Euro-Par , 2006, por Wolfgang E. Nagel, Wolfgang V. Walter y Wolfgang Lehner ISBN 3-540-37783-2 página 
  82. ^ Una evaluación del Laboratorio Nacional Oak Ridge Cray XT3 por Sadaf R. Alam etal International Journal of High Performance Computing Applications Febrero de 2008 vol. 22 no. 1 52–80
  83. ^ Arquitectura de gestión de trabajos abiertos para la supercomputadora Blue Gene / L por Yariv Aridor et al. en Estrategias de programación de trabajos para procesamiento paralelo por Dror G. Feitelson 2005 ISBN 978-3-540-31024-2 páginas 95–101 
  84. ^ "Gráfico del sistema operativo Top500" . Top500.org. Archivado desde el original el 5 de marzo de 2012 . Consultado el 31 de octubre de 2010 .
  85. ^ "Vista gran angular del correlacionador ALMA" . Comunicado de prensa de ESO . Consultado el 13 de febrero de 2013 .
  86. ^ https://www.academia.edu/3991932/Chapter_03_Software_and_System_Management
  87. ^ Laboratorio Pande. "Estadísticas de clientes por SO" . Plegable en casa . Universidad de Stanford . Consultado el 10 de abril de 2020 .
  88. ^ "BOINC combinado" . BOINCstats . BOINC . Archivado desde el original el 19 de septiembre de 2010 . Consultado el 30 de octubre de 2016. Tenga en cuenta que este enlace proporcionará estadísticas actuales, no las de la última fecha de acceso.CS1 maint: postscript (link)
  89. ^ "Tecnología de computación distribuida de Internet PrimeNet Server para la gran búsqueda de Internet Mersenne Prime" . GIMPS . Consultado el 6 de junio de 2011 .
  90. ↑ a b Kravtsov, Valentin; Carmeli, David; Dubitzky, Werner; Orda, Ariel; Schuster, Assaf ; Yoshpa, Benny. "Supercomputación cuasi-oportunista en cuadrículas, documento de tema candente (2007)" . Simposio Internacional IEEE sobre Computación Distribuida de Alto Rendimiento . IEEE . Consultado el 4 de agosto de 2011 .
  91. Jamalian, S .; Rajaei, H. (1 de marzo de 2015). ASETS: un sistema de programación de tareas potenciado por SDN para HPCaaS en la nube . 2015 IEEE International Conference on Cloud Engineering . págs. 329–334. doi : 10.1109 / IC2E.2015.56 . ISBN 978-1-4799-8218-9. S2CID  10974077 .
  92. Jamalian, S .; Rajaei, H. (1 de junio de 2015). Programación de tareas de HPC con uso intensivo de datos con SDN para habilitar HPC como servicio . 2015 IEEE 8th International Conference on Cloud Computing . págs. 596–603. doi : 10.1109 / CLOUD.2015.85 . ISBN 978-1-4673-7287-9. S2CID  10141367 .
  93. ^ Gupta, A .; Milojicic, D. (1 de octubre de 2011). Evaluación de aplicaciones HPC en la nube . 2011 Sexta Cumbre Cirrus Abierta . págs. 22-26. CiteSeerX 10.1.1.294.3936 . doi : 10.1109 / OCS.2011.10 . ISBN  978-0-7695-4650-6. S2CID  9405724 .
  94. ^ Kim, H .; el-Khamra, Y .; Jha, S .; Parashar, M. (1 de diciembre de 2009). Un enfoque autónomo para el uso integrado de la red HPC y la nube . 2009 Quinta Conferencia Internacional IEEE sobre E-Ciencia . págs. 366–373. CiteSeerX 10.1.1.455.7000 . doi : 10.1109 / e-Science.2009.58 . ISBN  978-1-4244-5340-5. S2CID  11502126 .
  95. ^ Eadline, Douglas. "Mover HPC a la nube" . Revista Admin . Revista Admin . Consultado el 30 de marzo de 2019 .
  96. ^ Niccolai, James (11 de agosto de 2009). "Penguin pone la informática de alto rendimiento en la nube" . PCWorld . IDG Consumer y PyMEs . Consultado el 6 de junio de 2016 .
  97. ^ a b c El impacto potencial de la informática de alta gama en cuatro campos ilustrativos de la ciencia y la ingeniería por el Comité sobre el impacto potencial de la informática de gama alta en campos ilustrativos de la ciencia y la ingeniería y el Consejo Nacional de Investigación (28 de octubre de 2008) ISBN 0 -309-12485-9 página 9 
  98. ^ Xingfu Wu (1999). Evaluación del desempeño, predicción y visualización de sistemas paralelos . Springer Science & Business Media. págs. 114-117. ISBN 978-0-7923-8462-5.
  99. ↑ a b Dongarra, Jack J .; Luszczek, Piotr; Petitet, Antoine (2003), "The LINPACK Benchmark: past, present and future" (PDF) , Concurrencia y cálculo: práctica y experiencia , 15 (9): 803–820, doi : 10.1002 / cpe.728 , S2CID 1900724  
  100. ^ "Comprensión de las medidas de rendimiento del superordenador y capacidad del sistema de almacenamiento" . Universidad de Indiana . Consultado el 3 de diciembre de 2017 .
  101. ^ "Preguntas frecuentes" . TOP500.org . Consultado el 3 de diciembre de 2017 .
  102. ^ Folleto de Intel - 11/91. "Página de directorio de listas Top500. Resultado de cada lista desde junio de 1993" . Top500.org . Consultado el 31 de octubre de 2010 .
  103. ^ "Lenovo alcanza el estatus de mayor proveedor mundial de supercomputadoras TOP500" . Business Wire . 25 de junio de 2018.
  104. ^ "El sistema informático Cray-1" (PDF) . Cray Research, Inc . Consultado el 25 de mayo de 2011 .
  105. ^ Joshi, Rajani R. (9 de junio de 1998). "Un nuevo algoritmo heurístico para la optimización probabilística". Investigación de Computación y Operaciones . 24 (7): 687–697. doi : 10.1016 / S0305-0548 (96) 00056-1 .
  106. ^ "Resumen de SAMSY - Sistema modular de análisis de blindaje" . Agencia de Energía Nuclear de la OCDE, Issy-les-Moulineaux, Francia . Consultado el 25 de mayo de 2011 .
  107. ^ "Código fuente de EFF DES Cracker" . Cosic.esat.kuleuven.be . Consultado el 8 de julio de 2011 .
  108. ^ "Diplomacia de desarme: - Programa de simulación de pruebas y supercomputación DOE" . Acronym.org.uk. 22 de agosto de 2000 . Consultado el 8 de julio de 2011 .
  109. ^ "¡La inversión de China en supercomputación con GPU comienza a dar sus frutos a lo grande!" . Blogs.nvidia.com . Consultado el 8 de julio de 2011 .
  110. ^ Andrew, Scottie. "La supercomputadora más rápida del mundo identificó sustancias químicas que podrían detener la propagación del coronavirus, un paso crucial hacia un tratamiento" . CNN . Consultado el 12 de mayo de 2020 .
  111. ^ Kaku, Michio. Physics of the Future (Nueva York: Doubleday, 2011), 65.
  112. ^ "Supercomputadoras más rápidas que ayudan a los pronósticos meteorológicos" . News.nationalgeographic.com. 28 de octubre de 2010 . Consultado el 8 de julio de 2011 .
  113. ^ "Proyecto de supercomputadora IBM Drops 'Blue Waters'" . Tiempos de negocios internacionales . 9 de agosto de 2011 . Consultado el 14 de diciembre de 2018 .  - a través de  EBSCO (se requiere suscripción)
  114. ^ "Supercomputadoras" . Departamento de Energía de EE. UU . Consultado el 7 de marzo de 2017 .
  115. ^ "Las simulaciones de supercomputadora ayudan a avanzar en la investigación de reacciones electroquímicas" . ucsdnews.ucsd.edu . Consultado el 12 de mayo de 2020 .
  116. ^ "Cumbre de IBM: la supercomputadora que lucha contra el coronavirus" . Revista electrónica MedicalExpo . 16 de abril de 2020 . Consultado el 12 de mayo de 2020 .
  117. ^ "OSTP financiando la investigación de supercomputadoras para combatir COVID-19 - MeriTalk" . Consultado el 12 de mayo de 2020 .
  118. ^ "Proyecto de supercomputadora de 1,2 dólares de la UE a varias computadoras PetaFLOP 10-100 para 2020 y exaFLOP para 2022 | NextBigFuture.com" . NextBigFuture.com . 4 de febrero de 2018 . Consultado el 21 de mayo de 2018 .
  119. ^ DeBenedictis, Erik P. (2004). "El camino hacia la informática extrema" (PDF) . Zettaflops . Laboratorios Nacionales Sandia. Archivado desde el original (PDF) el 3 de agosto de 2007 . Consultado el 9 de septiembre de 2020 .
  120. ^ Cohen, Reuven (28 de noviembre de 2013). "¡La potencia informática global de Bitcoin ahora es 256 veces más rápida que las 500 supercomputadoras más importantes, combinadas!" . Forbes . Consultado el 1 de diciembre de 2017 .
  121. ^ DeBenedictis, Erik P. (2005). "Lógica reversible para supercomputación" . Actas de la 2ª conferencia sobre fronteras informáticas . págs. 391–402. ISBN 978-1-59593-019-4.
  122. ^ "FDI: Intel dice que la ley de Moore se mantiene hasta 2029" . Heise en línea . 4 de abril de 2008. Archivado desde el original el 8 de diciembre de 2013.
  123. ^ Solem, JC (1985). "MECA: Un concepto multiprocesador especializado en Montecarlo" . Actas del Laboratorio Nacional Conjunto de Los Álamos - Reunión del Comisariado de la Energía Atómica celebrada en el castillo de Cadarache, Provenza, Francia, del 22 al 26 de abril de 1985; Métodos y aplicaciones de Monte-Carlo en neutrónica, fotónica y física estadística, Alcouffe, R .; Dautray, R .; Forster, A .; Forster, G .; Mercier, B .; Eds. (Springer Verlag, Berlín) . Apuntes de clases de física. 240 : 184-195. Código bibliográfico : 1985LNP ... 240..184S . doi : 10.1007 / BFb0049047 . ISBN 978-3-540-16070-0.
  124. ^ a b c d Yiannis Cotronis; Anthony Danalis; Dimitris Nikolopoulos; Jack Dongarra (2011). Avances recientes en la interfaz de transmisión de mensajes: 18ª reunión del grupo europeo de usuarios de MPI, EuroMPI 2011, Santorini, Grecia, 18-21 de septiembre de 2011. Actas . Springer Science & Business Media. ISBN 9783642244483.
  125. ^ James H. Laros III; Kevin Pedretti; Suzanne M. Kelly; Wei Shu; Kurt Ferreira; John Van Dyke; Courtenay Vaughan (2012). Computación de alto rendimiento energéticamente eficiente: medición y ajuste . Springer Science & Business Media. pag. 1 . ISBN 9781447144922.
  126. ^ James H. Laros III; Kevin Pedretti; Suzanne M. Kelly; Wei Shu; Kurt Ferreira; John Van Dyke; Courtenay Vaughan (2012). Computación de alto rendimiento energéticamente eficiente: medición y ajuste . Springer Science & Business Media. pag. 2 . ISBN 9781447144922.
  127. ^ James H. Laros III; Kevin Pedretti; Suzanne M. Kelly; Wei Shu; Kurt Ferreira; John Van Dyke; Courtenay Vaughan (2012). Computación de alto rendimiento energéticamente eficiente: medición y ajuste . Springer Science & Business Media. pag. 3 . ISBN 9781447144922.
  128. ^ "Green Supercomputer Crunches Big Data in Iceland". intelfreepress.com. 21 May 2015. Archived from the original on 20 May 2015. Retrieved 18 May 2015.

External links[edit]

  • McDonnell, Marshall T. (2013) Supercomputer Design: An Initial Effort to Capture the Environmental, Economic, and Societal Impacts. Chemical and Biomolecular Engineering Publications and Other Works.