Los enfoques de la arquitectura de supercomputadoras han dado un giro espectacular desde que se introdujeron los primeros sistemas en la década de 1960. Las primeras arquitecturas de supercomputadoras iniciadas por Seymour Cray se basaron en diseños innovadores compactos y en el paralelismo local para lograr un rendimiento máximo computacional superior. [1] Sin embargo, con el tiempo, la demanda de una mayor potencia computacional marcó el comienzo de la era de los sistemas masivamente paralelos .
Mientras que las supercomputadoras de la década de 1970 usaban solo unos pocos procesadores , en la década de 1990 comenzaron a aparecer máquinas con miles de procesadores y, a fines del siglo XX, se crearon supercomputadoras masivamente paralelas con decenas de miles de procesadores "listos para usar". la norma. Las supercomputadoras del siglo XXI pueden utilizar más de 100.000 procesadores (algunos son unidades gráficas ) conectados mediante conexiones rápidas. [2] [3]
A lo largo de las décadas, la gestión de la densidad del calor ha seguido siendo un tema clave para la mayoría de las supercomputadoras centralizadas. [4] [5] [6] La gran cantidad de calor generado por un sistema también puede tener otros efectos, como la reducción de la vida útil de otros componentes del sistema. [7] Ha habido diversos enfoques para la gestión del calor, desde bombear Fluorinert a través del sistema, hasta un sistema híbrido de refrigeración por aire líquido o refrigeración por aire con temperaturas normales de aire acondicionado . [8] [9]
Los sistemas con una gran cantidad de procesadores generalmente toman uno de dos caminos: en un enfoque, por ejemplo, en la computación en cuadrícula, la potencia de procesamiento de una gran cantidad de computadoras en dominios administrativos distribuidos y diversos, se usa de manera oportunista siempre que hay una computadora disponible. [10] En otro enfoque, se utiliza una gran cantidad de procesadores muy próximos entre sí, por ejemplo, en un grupo de computadoras . En un sistema masivamente paralelo centralizado , la velocidad y la flexibilidad de la interconexión se vuelven muy importantes, y las supercomputadoras modernas han utilizado varios enfoques que van desde sistemas Infiniband mejorados hasta interconexiones toroidales tridimensionales . [11] [12]
Contexto y descripción general
Desde finales de la década de 1960, el crecimiento del poder y la proliferación de supercomputadoras ha sido espectacular, y las direcciones arquitectónicas subyacentes de estos sistemas han dado un giro significativo. Mientras que las primeras supercomputadoras dependían de una pequeña cantidad de procesadores estrechamente conectados que accedían a la memoria compartida , las supercomputadoras del siglo XXI utilizan más de 100.000 procesadores conectados por redes rápidas. [2] [3]
A lo largo de las décadas, la gestión de la densidad del calor ha seguido siendo un tema clave para la mayoría de las supercomputadoras centralizadas. [4] El lema "sacar el calor" de Seymour Cray fue fundamental para su filosofía de diseño y ha seguido siendo un tema clave en las arquitecturas de supercomputadoras, por ejemplo, en experimentos a gran escala como Blue Waters . [4] [5] [6] La gran cantidad de calor generado por un sistema también puede tener otros efectos, como la reducción de la vida útil de otros componentes del sistema. [7]
Ha habido diversos enfoques para el manejo del calor, por ejemplo , el Cray 2 bombeó Fluorinert a través del sistema, mientras que el Sistema X usó un sistema híbrido de enfriamiento de líquido-aire y el Blue Gene / P se enfría por aire con temperaturas normales de aire acondicionado . [8] [13] [14] El calor de la supercomputadora Aquasar se utiliza para calentar un campus universitario. [15] [16]
La densidad de calor generada por una supercomputadora depende directamente del tipo de procesador utilizado en el sistema, y los procesadores más potentes suelen generar más calor, dadas las tecnologías de semiconductores subyacentes similares . [7] Si bien las primeras supercomputadoras usaban unos pocos procesadores rápidos y compactos que aprovechaban el paralelismo local (p. Ej., Canalización y procesamiento vectorial ), con el tiempo el número de procesadores creció y los nodos de computación se pudieron colocar más lejos, p. Ej., En un grupo de computadoras , o podría estar geográficamente disperso en la computación en cuadrícula . [2] [17] A medida que aumenta el número de procesadores en una supercomputadora, la " tasa de fallas de componentes " comienza a convertirse en un problema grave. Si una supercomputadora usa miles de nodos, cada uno de los cuales puede fallar una vez al año en promedio, entonces el sistema experimentará varias fallas de nodos cada día. [9]
A medida que ha mejorado el precio / rendimiento de los procesadores gráficos de propósito general (GPGPU), varias supercomputadoras petaflop como Tianhe-I y Nebulae han comenzado a confiar en ellos. [18] Sin embargo, otros sistemas, como la computadora K, continúan utilizando procesadores convencionales, como diseños basados en SPARC , y la aplicabilidad general de las GPGPU en aplicaciones informáticas de alto rendimiento de propósito general ha sido objeto de debate, ya que si bien una GPGPU puede ser ajustado para obtener una buena puntuación en puntos de referencia específicos, su aplicabilidad general a los algoritmos cotidianos puede ser limitada a menos que se dedique un esfuerzo significativo a ajustar la aplicación. [19] Sin embargo, las GPU están ganando terreno y en 2012 la supercomputadora Jaguar se transformó en Titan al reemplazar las CPU por GPU. [20] [21] [22]
A medida que aumenta el número de procesadores independientes en una supercomputadora, la forma en que acceden a los datos en el sistema de archivos y la forma en que comparten y acceden a los recursos de almacenamiento secundarios se vuelve prominente. A lo largo de los años, se desarrollaron varios sistemas para la gestión de archivos distribuidos , por ejemplo , IBM General Parallel File System , BeeGFS , Parallel Virtual File System , Hadoop , etc. [23] [24] Varias supercomputadoras en la lista TOP100 como como el Tianhe-yo uso Linux 's sistema de archivos Lustre . [4]
Primeros sistemas con algunos procesadores
La serie de computadoras CDC 6600 fueron intentos muy tempranos de supercomputación y obtuvieron su ventaja sobre los sistemas existentes al relegar el trabajo a los dispositivos periféricos , liberando la CPU ( Unidad Central de Procesamiento ) para procesar datos reales. Con el compilador FORTRAN de Minnesota, el 6600 podría soportar 500 kiloflops en operaciones matemáticas estándar. [25]
Otras primeras supercomputadoras, como Cray 1 y Cray 2 que aparecieron después, usaban una pequeña cantidad de procesadores rápidos que funcionaban en armonía y estaban conectados de manera uniforme a la mayor cantidad de memoria compartida que se podía administrar en ese momento. [3]
Estas primeras arquitecturas introdujeron el procesamiento paralelo a nivel de procesador, con innovaciones como el procesamiento vectorial , en el que el procesador puede realizar varias operaciones durante un ciclo de reloj , en lugar de tener que esperar ciclos sucesivos.
Con el tiempo, a medida que aumentaba el número de procesadores, surgieron diferentes problemas arquitectónicos. Dos cuestiones que deben abordarse a medida que aumenta el número de procesadores son la distribución de la memoria y el procesamiento. En el enfoque de memoria distribuida, cada procesador se empaqueta físicamente cerca con algo de memoria local. La memoria asociada con otros procesadores está entonces "más alejada" en función del ancho de banda y los parámetros de latencia en el acceso a la memoria no uniforme .
En la década de 1960, la canalización se consideraba una innovación y, en la década de 1970, el uso de procesadores vectoriales estaba bien establecido. En la década de 1980, muchas supercomputadoras usaban procesadores vectoriales paralelos. [2]
El número relativamente pequeño de procesadores en los primeros sistemas les permitió usar fácilmente una arquitectura de memoria compartida , lo que permite a los procesadores acceder a un grupo común de memoria. En los primeros días, un enfoque común era el uso de acceso uniforme a memoria (UMA), en el que el tiempo de acceso a una ubicación de memoria era similar entre procesadores. El uso de acceso a memoria no uniforme (NUMA) permitió que un procesador acceda a su propia memoria local más rápido que otras ubicaciones de memoria, mientras que las arquitecturas de memoria de solo caché (COMA) permitieron que la memoria local de cada procesador se usara como caché, por lo tanto requiriendo coordinación a medida que cambiaban los valores de la memoria. [26]
A medida que aumenta el número de procesadores, la comunicación y sincronización eficientes entre procesadores en una supercomputadora se convierte en un desafío. Se pueden utilizar varios enfoques para lograr este objetivo. Por ejemplo, a principios de la década de 1980, en el sistema Cray X-MP , se utilizaron registros compartidos . En este enfoque, todos los procesadores tenían acceso a registros compartidos que no movían datos de un lado a otro, sino que solo se usaban para la comunicación y sincronización entre procesadores . Sin embargo, los desafíos inherentes a la administración de una gran cantidad de memoria compartida entre muchos procesadores dieron como resultado un cambio a arquitecturas más distribuidas . [27]
Paralelismo masivo centralizado
Durante la década de 1980, a medida que aumentaba la demanda de potencia informática, comenzó la tendencia a un número mucho mayor de procesadores, marcando el comienzo de la era de los sistemas masivamente paralelos , con memoria distribuida y sistemas de archivos distribuidos , dado que las arquitecturas de memoria compartida no podían escalar a una escala. gran cantidad de procesadores. [2] [28] Los enfoques híbridos como la memoria compartida distribuida también aparecieron después de los primeros sistemas. [29]
El enfoque de agrupación de ordenadores conecta varios nodos informáticos fácilmente disponibles (por ejemplo, ordenadores personales utilizados como servidores) a través de una red de área local rápida y privada . [30] Las actividades de los nodos informáticos están orquestadas por el "middleware de agrupación", una capa de software que se asienta sobre los nodos y permite a los usuarios tratar el grupo como, en general, una unidad informática cohesiva, por ejemplo, a través de un concepto de imagen de sistema único . [30]
La agrupación en clústeres de computadoras se basa en un enfoque de administración centralizada que hace que los nodos estén disponibles como servidores compartidos orquestados . Es distinto de otros enfoques, como el de igual a igual o la computación en cuadrícula, que también utilizan muchos nodos, pero con una naturaleza mucho más distribuida . [30] Para el siglo XXI, la lista semestral de las 500 supercomputadoras más rápidas de la organización TOP500 a menudo incluye muchos clústeres, por ejemplo, el más rápido del mundo en 2011, el equipo K con una memoria distribuida , arquitectura de clúster. [31] [32]
Cuando se utiliza un gran número de nodos informáticos locales semiindependientes (por ejemplo, en una arquitectura de clúster), la velocidad y la flexibilidad de la interconexión se vuelven muy importantes. Las supercomputadoras modernas han adoptado diferentes enfoques para abordar este problema, por ejemplo, Tianhe-1 utiliza una red patentada de alta velocidad basada en Infiniband QDR, mejorada con CPU FeiTeng-1000 . [4] Por otro lado, el sistema Blue Gene / L utiliza una interconexión de toro tridimensional con redes auxiliares para comunicaciones globales. [11] En este enfoque, cada nodo está conectado a sus seis vecinos más cercanos. El Cray T3E utilizó un toro similar . [12]
Los sistemas centralizados masivos a veces usan procesadores de propósito especial diseñados para una aplicación específica, y pueden usar chips de arreglos de puertas programables en campo (FPGA) para obtener rendimiento sacrificando la generalidad. Ejemplos de supercomputadoras para propósitos especiales incluyen Belle , [33] Deep Blue , [34] e Hydra , [35] para jugar al ajedrez , Gravity Pipe para astrofísica, [36] MDGRAPE-3 para el cálculo de la estructura de proteínas, dinámica molecular [37] y Deep Crack , [38] por romper el cifrado DES .
Paralelismo masivo distribuido
La computación en cuadrícula utiliza una gran cantidad de computadoras en dominios administrativos distribuidos y diversos. Es un enfoque oportunista que utiliza los recursos siempre que están disponibles. [10] Un ejemplo es BOINC, un sistema de cuadrícula oportunista basado en voluntarios . [39] Algunas aplicaciones BOINC han alcanzado niveles de múltiples petaflop mediante el uso de cerca de medio millón de computadoras conectadas a Internet, siempre que haya recursos voluntarios disponibles. [40] Sin embargo, este tipo de resultados a menudo no aparecen en las calificaciones TOP500 porque no ejecutan el índice de referencia Linpack de propósito general .
Aunque la computación en red ha tenido éxito en la ejecución de tareas paralelas, las aplicaciones de supercomputadoras exigentes, como las simulaciones meteorológicas o la dinámica de fluidos computacional, han permanecido fuera de su alcance, en parte debido a las barreras en la subasignación confiable de una gran cantidad de tareas, así como a la disponibilidad confiable. de recursos en un momento dado. [39] [41] [42]
En la supercomputación cuasi-oportunista, una gran cantidad de computadoras geográficamente dispersas están orquestadas con salvaguardas integradas . [43] El enfoque cuasi-oportunista va más allá de la computación voluntaria en sistemas altamente distribuidos como BOINC , o la computación en cuadrícula general en un sistema como Globus al permitir que el middleware proporcione un acceso casi perfecto a muchos clústeres de computación para que los programas existentes en idiomas como Fortran o C se pueden distribuir entre múltiples recursos informáticos. [43]
La supercomputación cuasi-oportunista tiene como objetivo proporcionar una calidad de servicio más alta que el intercambio oportunista de recursos . [44] El enfoque cuasi-oportunista permite la ejecución de aplicaciones exigentes dentro de las redes informáticas mediante el establecimiento de acuerdos de asignación de recursos en la red; y el paso de mensajes tolerantes a fallas para proteger de manera abstracta las fallas de los recursos subyacentes, manteniendo así cierto oportunismo, al tiempo que permite un mayor nivel de control. [10] [43] [45]
Tendencias arquitectónicas del siglo XXI
La arquitectura de supercomputadora IBM Blue Gene refrigerada por aire intercambia la velocidad del procesador por un bajo consumo de energía, de modo que se puede usar una mayor cantidad de procesadores a temperatura ambiente, mediante el uso de aire acondicionado normal. [14] [46] El sistema Blue Gene / P de segunda generación tiene procesadores con lógica de comunicación de nodo a nodo integrada. [47] Es energéticamente eficiente, logrando 371 MFLOPS / W . [48]
La computadora K es un procesador homogéneo refrigerado por agua , un sistema de memoria distribuida con una arquitectura de clúster . [32] [49] Utiliza más de 80.000 procesadores SPARC64 VIIIfx , cada uno con ocho núcleos , para un total de más de 700.000 núcleos, casi el doble que cualquier otro sistema. Comprende más de 800 gabinetes, cada uno con 96 nodos informáticos (cada uno con 16 GB de memoria) y 6 nodos de E / S. Aunque es más potente que los siguientes cinco sistemas de la lista TOP500 combinados, con 824,56 MFLOPS / W tiene la relación potencia / rendimiento más baja de todos los principales sistemas de supercomputadoras actuales. [50] [51] El sistema de seguimiento para la computadora K, llamado PRIMEHPC FX10, usa la misma interconexión toroidal de seis dimensiones, pero todavía solo un procesador por nodo. [52]
A diferencia de la computadora K, el sistema Tianhe-1A usa una arquitectura híbrida e integra CPU y GPU. [4] Utiliza más de 14.000 procesadores de propósito general Xeon y más de 7.000 unidades de procesamiento de gráficos de propósito general (GPGPU) Nvidia Tesla en aproximadamente 3.500 blades . [53] Tiene 112 gabinetes de computadora y 262 terabytes de memoria distribuida; Se implementan 2 petabytes de almacenamiento en disco a través de archivos agrupados de Lustre . [54] [55] [56] [4] Tianhe-1 utiliza una red de comunicación de alta velocidad patentada para conectar los procesadores. [4] La red de interconexión patentada se basó en Infiniband QDR, mejorada con CPU FeiTeng-1000 de fabricación china . [4] En el caso de la interconexión, el sistema es dos veces más rápido que Infiniband, pero más lento que algunas interconexiones en otras supercomputadoras. [57]
Los límites de enfoques específicos continúan siendo probados, ya que los límites se alcanzan a través de experimentos a gran escala, por ejemplo, en 2011 IBM terminó su participación en el proyecto Blue Waters petaflops en la Universidad de Illinois. [58] [59] La arquitectura de Blue Waters se basó en el procesador IBM POWER7 y tenía la intención de tener 200.000 núcleos con un petabyte de "memoria direccionable globalmente" y 10 petabytes de espacio en disco. [6] El objetivo de un petaflop sostenido llevó a opciones de diseño que optimizaran el rendimiento de un solo núcleo y, por lo tanto, un número menor de núcleos. Se esperaba entonces que la menor cantidad de núcleos ayudara al rendimiento en programas que no se escalaban bien a una gran cantidad de procesadores. [6] La gran arquitectura de memoria direccionable globalmente tenía como objetivo resolver problemas de dirección de memoria de manera eficiente, para el mismo tipo de programas. [6] Se esperaba que Blue Waters funcionara a velocidades sostenidas de al menos un petaflop, y dependía del enfoque específico de enfriamiento por agua para controlar el calor. En los primeros cuatro años de funcionamiento, la National Science Foundation gastó alrededor de $ 200 millones en el proyecto. IBM lanzó el nodo de computación Power 775 derivado de la tecnología de ese proyecto poco después, pero abandonó efectivamente el enfoque de Blue Waters. [58] [59]
Los experimentos arquitectónicos continúan en varias direcciones, por ejemplo, el sistema Cyclops64 utiliza un enfoque de "supercomputadora en un chip", en una dirección alejada del uso de procesadores distribuidos masivos. [60] [61] Cada chip Cyclops64 de 64 bits contiene 80 procesadores y todo el sistema utiliza una arquitectura de memoria direccionable globalmente . [62] Los procesadores están conectados con un interruptor de barra cruzada que no bloquea internamente y se comunican entre sí a través de la memoria intercalada global. No hay caché de datos en la arquitectura, pero la mitad de cada banco SRAM se puede usar como memoria de memoria virtual. [62] Aunque este tipo de arquitectura permite el paralelismo no estructurado en un sistema de memoria dinámicamente no contiguo, también genera desafíos en el mapeo eficiente de algoritmos paralelos a un sistema de muchos núcleos . [61]
Ver también
- Sistemas operativos de supercomputadoras
- Supercomputación en China
- Supercomputación en Europa
- Historia de la supercomputación
- Supercomputación en India
- Supercomputación en Japón
Referencias
- ^ Sao-Jie Chen; Guang-Huei Lin; Pao-Ann Hsiung; Yu-Hen Hu (9 de febrero de 2009). Co-Diseño de Hardware y Software de una Plataforma Soc multimedia . Saltador. págs. 70–72. ISBN 978-1-4020-9622-8. Consultado el 15 de junio de 2012 .
- ^ a b c d e Hoffman, Allan R. (1989). Supercomputadoras: direcciones en tecnología y aplicaciones . Washington, DC: Prensa de la Academia Nacional. págs. 35–47. ISBN 978-0-309-04088-4.
- ^ a b c d Hill, Mark D .; Jouppi, Norman P .; Sohi, Gurindar (2000). Lecturas en arquitectura informática . San Francisco: Morgan Kaufmann. págs. 40–49. ISBN 978-1-55860-539-8.
- ^ a b c d e f g h yo Yang, Xue-Jun; Liao, Xiang-Ke; Lu, Kai; Hu, Qing-Feng; Song, Jun-Qiang; Su, Jin-Shu (2011). "La supercomputadora TianHe-1A: su hardware y software". Revista de Ciencias y Tecnología de la Computación . 26 (3): 344–351. doi : 10.1007 / s02011-011-1137-8 . S2CID 1389468 .
- ^ a b Murray, Charles J. (1997). Los superhombres: la historia de Seymour Cray y los magos técnicos detrás de la supercomputadora . Nueva York: John Wiley. págs. 133-135 . ISBN 978-0-471-04885-5.
- ^ a b c d e Biswas, editado por Rupak (2010). Dinámica de fluidos computacional paralela: avances recientes y direcciones futuras: artículos de la 21ª Conferencia Internacional sobre Dinámica de Fluidos Computacional Paralela . Lancaster, Pa .: Publicaciones DEStech. pag. 401. ISBN 978-1-60595-022-8.CS1 maint: texto adicional: lista de autores ( enlace )
- ^ a b c Yongge Huáng, ed. (2008). Avances en la investigación de la supercomputación . Nueva York: Nova Science Publishers. págs. 313–314. ISBN 978-1-60456-186-9.
- ^ a b Tokhi, MO; Hossain, MA; Shaheed, MH (2003). Computación en paralelo para procesamiento y control de señales en tiempo real . Londres [ua]: Springer. págs. 201–202. ISBN 978-1-85233-599-1.
- ^ a b Vaidy S. Sunderam, ed. (2005). Ciencia computacional - ICCS 2005. 5ª conferencia internacional, Atlanta, GA, EE. UU., 22-25 de mayo de 2005: actas (1ª ed.). Berlín: Springer. págs. 60–67. ISBN 978-3-540-26043-1.
- ^ a b c Prodan, Radu; Thomas Fahringer (2007). Gestión de experimentos de computación en red, integración de herramientas y flujos de trabajo científicos . Berlín: Springer. págs. 1–4. ISBN 978-3-540-69261-4.
- ^ a b Knight, Will (27 de junio de 2007). "IBM crea la computadora más poderosa del mundo" . Nuevo científico .
- ^ a b Adiga, NR; Blumrich, MA; Chen, D .; Coteus, P .; Gara, A .; Giampapa, ME; Heidelberger, P .; Singh, S .; Steinmacher-Burow, BD; Takken, T .; Tsao, M .; Vranas, P. (marzo de 2005). "Red de interconexión Blue Gene / L torus" (PDF) . Revista de investigación y desarrollo de IBM . 49 (2.3): 265-276. doi : 10.1147 / rd.492.0265 . Archivado desde el original (PDF) el 15 de agosto de 2011.CS1 maint: varios nombres: lista de autores ( enlace )
- ^ Varadarajan, S. (14 de marzo de 2005). System X construye la supercomputadora Virginia Tech . Comunicaciones y redes informáticas, 2004. ICCCN 2004. Actas. XIII Congreso Internacional de . pag. 1. doi : 10.1109 / ICCCN.2004.1401570 . ISBN 978-0-7803-8814-7. ISSN 1095-2055 .
- ^ a b Prickett Morgan, Timothy (22 de noviembre de 2010). "IBM descubre 20 petaflops BlueGene / Q super" . El registro .
- ^ "La supercomputadora IBM enfriada por agua caliente entra en funcionamiento en ETH Zurich" . HPCwire . Zurich. 2 de julio de 2010. Archivado desde el original el 13 de agosto de 2012.
- ^ LaMonica, Martin (10 de mayo de 2010). "Superordenador IBM refrigerado por líquido calienta el edificio" . Tecnología verde . Cnet.
- ^ Henderson, Harry (2008). "Arquitectura de supercomputadora". Enciclopedia de Ciencias y Tecnología de la Computación . pag. 217. ISBN 978-0-8160-6382-6.
- ^ Prickett Morgan, Timothy (31 de mayo de 2010). "Top 500 supers - The Dawning of the GPUs" . El registro .
- ^ Rainer Keller; David Kramer; Jan-Philipp Weiss (1 de diciembre de 2010). Afrontando el desafío multinúcleo: aspectos de los nuevos paradigmas y tecnologías en la computación paralela . Saltador. págs. 118-121. ISBN 978-3-642-16232-9. Consultado el 15 de junio de 2012 .
- ^ Poeter, Damon (11 de octubre de 2011). "La supercomputadora Titan de Cray para ORNL podría ser la más rápida del mundo" . Revista de PC .
- ^ Feldman, Michael (11 de octubre de 2011). "Las GPU transformarán el Jaguar de ORNL en Titan de 20 Petaflop" . Alambre HPC .
- ^ Prickett Morgan, Timothy (11 de octubre de 2011). "Oak Ridge cambia los puntos de Jaguar de CPU a GPU" .
- ^ Hai-Xiang Lin; Michael Alexander; Martti Forsell, eds. (2010). Talleres de procesamiento paralelo Euro-Par 2009: HPPC, HeteroPar, PROPER, ROIA, UNICORE, VHPC, Delft, Países Bajos, 25-28 de agosto de 2009; talleres (Online-Ausg. ed.). Berlín: Springer. pag. 345. ISBN 978-3-642-14121-8.
- ^ Reiner Dumke; René Braungarten; Günter Büren (3 de diciembre de 2008). Medición de productos y procesos de software: Conferencias internacionales, IWSM 2008, MetriKon 2008 y Mensura 2008, Munich, Alemania, 18-19 de noviembre de 2008: Actas . Saltador. págs. 144-117. ISBN 978-3-540-89402-5. Consultado el 15 de junio de 2012 .
- ^ Frisch, Michael J. (diciembre de 1972). "Observaciones sobre el algoritmo 352 [S22], el algoritmo 385 [S13], el algoritmo 392 [D3]". Comunicaciones de la ACM . 15 (12): 1074. doi : 10.1145 / 361598.361914 . S2CID 6571977 .
- ^ El-Rewini, Hesham; Mostafa Abd-El-Barr (2005). Arquitectura informática avanzada y procesamiento paralelo . Hoboken, Nueva Jersey: Wiley-Interscience. págs. 77–80. ISBN 978-0-471-46740-3.
- ^ JJ Dongarra; L. Grandinetti; J. Kowalik; GR Joubert (13 de septiembre de 1995). Computación de alto rendimiento: tecnología, métodos y aplicaciones . Elsevier. págs. 123-125. ISBN 978-0-444-82163-8. Consultado el 15 de junio de 2012 .
- ^ Greg Astfalk (1996). Aplicaciones en computadoras de arquitectura avanzada . SIAM. págs. 61–64. ISBN 978-0-89871-368-8. Consultado el 15 de junio de 2012 .
- ^ Jelica Protić; Milo Tomašević; Milo Tomasevic; Veljko Milutinović (1998). Memoria compartida distribuida: conceptos y sistemas . IEEE Computer Society Press. págs. ix – x. ISBN 978-0-8186-7737-3. Consultado el 15 de junio de 2012 .
- ^ a b c Tomoya Enokido; Leonard Barolli; Makoto Takizawa, eds. (2007). Sistemas de información basados en redes: primera conferencia internacional, NBiS 2007, Regensburg, Alemania, 3-7 de septiembre de 2007: actas . Berlín: Springer. pag. 375. ISBN 978-3-540-74572-3.
- ^ Lista TOP500 Para ver todos los clústeres en la lista TOP500, seleccione "clúster" como arquitectura del "menú de sublista" en el sitio TOP500.
- ^ a b Yokokawa, M .; Shoji, Fumiyoshi; Uno, Atsuya; Kurokawa, Motoyoshi; Watanabe, Tadashi (22 de agosto de 2011). La computadora K: proyecto japonés de desarrollo de supercomputadoras de próxima generación . Simposio internacional de 2011 sobre electrónica y diseño de baja potencia (ISLPED) . págs. 371–372. doi : 10.1109 / ISLPED.2011.5993668 . ISBN 978-1-61284-658-3. S2CID 13436840 .
- ^ Condon, JH y K.Thompson, "Belle Chess Hardware", Avances en Computer Chess 3 (ed. MRBClarke), Pergamon Press, 1982.
- ^ Hsu, Feng-hsiung (2002). Detrás de Deep Blue: Construyendo la computadora que derrotó al Campeón Mundial de Ajedrez . Prensa de la Universidad de Princeton . ISBN 978-0-691-09065-8.
- ^ Donninger, Chrilly; Ulf Lorenz (2004). La Hidra Monstruo del Ajedrez . Apuntes de conferencias en Ciencias de la Computación. 3203 . págs. 927–932. doi : 10.1007 / 978-3-540-30117-2_101 . ISBN 978-3-540-22989-6. S2CID 5467762 .
- ^ Makino, Junichiro; Makoto Taiji (1998). Simulaciones científicas con ordenadores especiales: los sistemas GRAPE . Chichester [ua]: Wiley. ISBN 978-0-471-96946-4.
- ^ Comunicado de prensa de RIKEN, finalización de un sistema informático de un petaflops para la simulación de dinámica molecular Archivado 2012-12-02 en Wayback Machine
- ^ Fundación Frontera Electrónica (1998). Cracking DES: secretos de la investigación de cifrado, políticas de escuchas telefónicas y diseño de chips . Oreilly & Associates Inc. ISBN 978-1-56592-520-5.
- ^ a b Vega, Francisco Fernández de Vega (2010). Erick Cantú-Paz (ed.). Inteligencia computacional paralela y distribuida (Online-Ausg. Ed.). Berlín: Springer-Verlag. págs. 65–68. ISBN 978-3-642-10674-3.
- ^ Estadísticas de BOIN, 2011 Archivado el 19 de septiembre de 2010 en la Wayback Machine.
- ^ Guang R. Gao, ed. (2010). Lenguajes y compiladores para computación paralela: 22º taller internacional, LCPC 2009, Newark, DE, EE. UU., 8-10 de octubre de 2009, artículos seleccionados revisados (1ª ed.). Berlín: Springer. págs. 10-11. ISBN 978-3-642-13373-2.
- ^ Mario R. Guarracino, ed. (24 de junio de 2011). Euro-par 2010, Talleres de procesamiento paralelo Heteropar, Hpcc, Hibb, Coregrid, Uchpc, Hpcf, Proper, Ccpi, Vhpc, Iscia, Italia, 31 de agosto - 3 de septiembre de 2010 . Berlín [ua]: Springer-Verlag New York Inc. págs. 274–277. ISBN 978-3-642-21877-4.
- ^ a b c Kravtsov, Valentin; David Carmeli; Werner Dubitzky; Ariel Orda; Assaf Schuster; Benny Yoshpa (2007). "Supercomputación cuasi-oportunista en cuadrículas" . Simposio internacional de IEEE sobre computación distribuida de alto rendimiento : 233–244.
- ^ Marian Bubak, ed. (2008). Ciencias de la Computación - ICCS 2008: 8ª conferencia internacional, Cracovia, Polonia, 23-25 de junio de 2008; procedimientos (Online-Ausg. ed.). Berlín: Springer. págs. 112-113. ISBN 978-3-540-69383-3.
- ^ Gabrielle Allen , ed. (2009). Ciencias de la Computación - ICCS 2009: 9ª conferencia internacional, Baton Rouge, LA, EE. UU., 25-27 de mayo de 2009; procedimientos . Berlín: Springer. págs. 387–388. ISBN 978-3-642-01969-2.
- ^ Cunha, José C. (2005). Procesamiento paralelo Euro-Par 2005 . [Nueva York]: Springer-Verlag Berlin / Heidelberg. págs. 560–567. ISBN 978-3-540-28700-1.
- ^ "IBM triplica el rendimiento de la supercomputadora más rápida y con mayor eficiencia energética del mundo" . 2007-06-27 . Consultado el 24 de diciembre de 2011 .
- ^ "La lista Green500" . Archivado desde el original el 26 de agosto de 2016 . Consultado el 13 de febrero de 2020 .
- ^ Lista TOP500 Archivado el 20 de enero de 2012 en la Wayback Machine.
- ^ Takumi Maruyama (2009). SPARC64 (TM) VIIIfx: Procesador Octo Core de nueva generación de Fujitsu para computación a escala PETA (PDF) . Actas de Hot Chips 21. IEEE Computer Society.
- ^ "Instituto Avanzado de Ciencias Computacionales RIKEN" (PDF) . RIKEN . Archivado desde el original (PDF) el 27 de julio de 2011 . Consultado el 20 de junio de 2011 .
- ^ Fujitsu presenta el cable HPC de supercomputadora post-K el 7 de noviembre de 2011
- ^ "MSN | Outlook, Office, Skype, Bing, Breaking News y Últimos videos" . Archivado desde el original el 7 de octubre de 2010.
- ^ "China ..." 28 de octubre de 2010.
- ^ "Top100 ..." 28 de octubre de 2010.
- ^ Tianhe-1A
- ^ Thibodeau, Patrick (4 de noviembre de 2010). "Estados Unidos dice que China está construyendo una supercomputadora 'totalmente indígena'" . Computerworld . Archivado desde el original el 11 de octubre de 2012 . Consultado el 5 de febrero de 2012 .
- ^ a b The Register : IBM tira de la cadena en el super 'Blue Waters'
- ^ a b El negocio de computadoras Unix de Statesman IBM está en auge
- ^ Niu, Yanwei; Ziang Hu; Kenneth Barner; Guang R. Gao (2005). Modelado de rendimiento y optimización del acceso a la memoria en arquitectura de computadora celular cyclops64 . Proceeding NPC'05 Proceedings of the 2005 IFIP International Conference on Network and Parallel Computing . Apuntes de conferencias en Ciencias de la Computación. 3779 . págs. 132-143. doi : 10.1007 / 11577188_18 . ISBN 978-3-540-29810-6.
- ^ a b Tan, Guangming; Sreedhar, Vugranam C .; Gao, Guang R. (13 de noviembre de 2009). "Resultados de análisis y rendimiento de la centralidad de intermediación informática en IBM Cyclops64". El diario de la supercomputación . 56 (1): 1–24. doi : 10.1007 / s11227-009-0339-9 . S2CID 10976819 .
- ^ a b Hai Jin; Daniel A. Reed; Wenbin Jiang (2005). Computación en red y en paralelo: Conferencia Internacional IFIP, NPC 2005, Beijing, China, 30 de noviembre - 3 de diciembre de 2005; Actas . Birkhäuser. págs. 132-133. ISBN 978-3-540-29810-6. Consultado el 15 de junio de 2012 .