El término supercomputación surgió a fines de la década de 1920 en los Estados Unidos en respuesta a los tabuladores de IBM en la Universidad de Columbia . El CDC 6600 , lanzado en 1964, a veces se considera el primer superordenador. [1] [2] Sin embargo, algunas computadoras anteriores se consideraban supercomputadoras para su época, como el UNIVAC LARC de 1960 , [3] el IBM 7030 Stretch , [4] y el Manchester Atlas , ambos en 1962, todos los cuales eran comparables energía; y el IBM NORC de 1954 , [5]
Mientras que las supercomputadoras de la década de 1980 usaban solo unos pocos procesadores, en la década de 1990 comenzaron a aparecer máquinas con miles de procesadores tanto en Estados Unidos como en Japón, estableciendo nuevos récords de rendimiento computacional.
A fines del siglo XX, se construyeron supercomputadoras masivamente paralelas con miles de procesadores "listos para usar" similares a los que se encuentran en las computadoras personales y rompieron la barrera computacional del teraflop .
El progreso en la primera década del siglo XXI fue espectacular y aparecieron supercomputadoras con más de 60.000 procesadores que alcanzaron niveles de rendimiento de petaflop .
Inicios: 1950 y 1960
El término "supercomputación" se utilizó por primera vez en el mundo de Nueva York en 1929 para referirse a grandes tabuladores hechos a medida que IBM había hecho para la Universidad de Columbia .
En 1957, un grupo de ingenieros dejó Sperry Corporation para formar Control Data Corporation (CDC) en Minneapolis , Minnesota. Seymour Cray dejó Sperry un año después para unirse a sus colegas en los CDC. [6] En 1960, Cray completó el CDC 1604 , uno de la primera generación de computadoras transistorizadas de éxito comercial y la computadora más rápida del mundo [ dudoso ] en un momento en que se encontraron tubos de vacío en la mayoría de las computadoras grandes. [7] Sin embargo, el único Harwell CADET totalmente transitorizado estaba operativo en 1951, e IBM entregó su IBM 7090 transitorizado comercialmente exitoso en 1959.
Alrededor de 1960, Cray decidió diseñar una computadora que sería la más rápida del mundo por un amplio margen. Después de cuatro años de experimentación junto con Jim Thornton, Dean Roush y otros 30 ingenieros, Cray completó el CDC 6600 en 1964. Cray cambió de germanio a transistores de silicio, construidos por Fairchild Semiconductor , que utilizaban el proceso planar. Estos no tenían los inconvenientes de los transistores de silicio mesa. Los hizo funcionar muy rápido, y la velocidad de restricción de la luz obligó a un diseño muy compacto con severos problemas de sobrecalentamiento, que se resolvieron con la introducción de la refrigeración, diseñada por Dean Roush. [8] El 6600 superó al poseedor de registros anterior de la industria, [ cita requerida ] el IBM 7030 Stretch , por un factor de tres. [9] [10] Con un rendimiento de hasta tres megaFLOPS , [11] [12] se denominó supercomputadora y definió el mercado de la supercomputación cuando se vendieron doscientas computadoras a $ 9 millones cada una. [7] [13]
El 6600 ganó velocidad "distribuyendo" el trabajo a los elementos informáticos periféricos, liberando a la CPU (Unidad Central de Procesamiento) para procesar datos reales. El compilador FORTRAN de Minnesota para la máquina fue desarrollado por Liddiard y Mundstock en la Universidad de Minnesota y con él el 6600 podía soportar 500 kiloflops en operaciones matemáticas estándar. [14] En 1968, Cray completó el CDC 7600 , nuevamente la computadora más rápida del mundo. [7] A 36 MHz , el 7600 tenía 3,6 veces la velocidad de reloj del 6600, pero corría significativamente más rápido debido a otras innovaciones técnicas. Vendieron solo alrededor de 50 de los 7600, no fue un fracaso. Cray dejó CDC en 1972 para formar su propia empresa. [7] Dos años después de su partida, los CDC entregaron el STAR-100 que a 100 megaflops era tres veces la velocidad del 7600. Junto con el Texas Instruments ASC , el STAR-100 fue una de las primeras máquinas en utilizar el procesamiento vectorial : el idea inspirada alrededor de 1964 por el lenguaje de programación APL . [15] [16]
En 1956, un equipo de la Universidad de Manchester en el Reino Unido, comenzó el desarrollo de MUSE , un nombre derivado de motor de microsegundos , con el objetivo de construir eventualmente una computadora que pudiera operar a velocidades de procesamiento cercanas a un microsegundo por instrucción, alrededor de un millón de instrucciones por segundo . [17] Mu (el nombre de la letra griega µ ) es un prefijo en el SI y otros sistemas de unidades que denota un factor de 10 −6 (una millonésima).
A finales de 1958, Ferranti acordó colaborar con la Universidad de Manchester en el proyecto, y poco después la computadora pasó a llamarse Atlas , con la empresa conjunta bajo el control de Tom Kilburn . El primer Atlas se encargó oficialmente el 7 de diciembre de 1962, casi tres años antes de que se presentara la supercomputadora Cray CDC 6600, como una de las primeras supercomputadoras del mundo . En el momento de su puesta en servicio, se consideró la computadora más poderosa del mundo, equivalente a cuatro IBM 7094 . Se dijo que cada vez que Atlas se desconectaba, se perdía la mitad de la capacidad informática del Reino Unido. [18] El Atlas fue pionero en la memoria virtual y la paginación como una forma de ampliar su memoria de trabajo mediante la combinación de sus 16,384 palabras de memoria de núcleo primario con 96 K palabras adicionales de memoria de batería secundaria . [19] Atlas también fue pionero en Atlas Supervisor , "considerado por muchos como el primer sistema operativo moderno reconocible ". [18]
La era Cray: mediados de los 70 y 80
Cuatro años después de dejar los CDC, Cray entregó el Cray-1 de 80 MHz en 1976 y se convirtió en el superordenador más exitoso de la historia. [16] [20] El Cray-1 usó circuitos integrados con dos puertas por chip y fue un procesador vectorial que introdujo una serie de innovaciones como el encadenamiento en el que los registros escalares y vectoriales generan resultados provisionales que se pueden usar de inmediato, sin memoria adicional. referencias que reducen la velocidad computacional. [8] [21] El Cray X-MP (diseñado por Steve Chen ) fue lanzado en 1982 como un procesador de vector paralelo de memoria compartida de 105 MHz con mejor soporte de encadenamiento y múltiples canales de memoria. Las tres tuberías de coma flotante del X-MP podrían operar simultáneamente. [21] En 1983, Cray y Control Data eran líderes en supercomputadoras; a pesar de su liderazgo en el mercado global de las computadoras, IBM no pudo producir un competidor rentable. [22]
El Cray-2 lanzado en 1985 era una computadora de 4 procesadores enfriada por líquido totalmente sumergida en un tanque de Fluorinert , que burbujeaba mientras operaba. [8] Podía funcionar a 1,9 gigaflops y fue la segunda supercomputadora más rápida del mundo después de M-13 (2,4 gigaflops) [23] hasta 1990 cuando ETA-10G [ cita requerida ] de los CDC superó a ambos. El Cray-2 era un diseño totalmente nuevo y no usaba encadenamiento y tenía una alta latencia de memoria, pero usaba mucha canalización y era ideal para problemas que requerían grandes cantidades de memoria. [21] Los costos de software en el desarrollo de una supercomputadora no deben subestimarse, como lo demuestra el hecho de que en la década de 1980 el costo del desarrollo de software en Cray llegó a igualar lo que se gastaba en hardware. [24] Esa tendencia fue en parte responsable de un alejamiento del sistema operativo interno Cray a UNICOS basado en Unix . [24]
El Cray Y-MP , también diseñado por Steve Chen, fue lanzado en 1988 como una mejora del X-MP y podría tener ocho procesadores vectoriales a 167 MHz con un rendimiento máximo de 333 megaflops por procesador. [21] A finales de la década de 1980, el experimento de Cray sobre el uso de semiconductores de arseniuro de galio en el Cray-3 no tuvo éxito. Seymour Cray comenzó a trabajar en una computadora enormemente paralela a principios de la década de 1990, pero murió en un accidente automovilístico en 1996 antes de que pudiera completarse. Sin embargo, Cray Research produjo tales computadoras. [20] [8]
Procesamiento masivo: la década de 1990
El Cray-2 que estableció las fronteras de la supercomputación a mediados y finales de la década de 1980 tenía solo 8 procesadores. En la década de 1990, comenzaron a aparecer supercomputadoras con miles de procesadores. Otro desarrollo a finales de la década de 1980 fue la llegada de las supercomputadoras japonesas, algunas de las cuales se inspiraron en el Cray-1.
El SX-3 / 44R fue anunciado por NEC Corporation en 1989 y un año después ganó el título más rápido del mundo con un modelo de 4 procesadores. [25] Sin embargo, la supercomputadora Numerical Wind Tunnel de Fujitsu utilizó 166 procesadores vectoriales para obtener el primer puesto en 1994. Tenía una velocidad máxima de 1,7 gigaflops por procesador. [26] [27] El Hitachi SR2201, por otro lado, obtuvo un rendimiento máximo de 600 gigaflops en 1996 mediante el uso de 2048 procesadores conectados a través de una red de barras cruzadas tridimensional rápida . [28] [29] [30]
En el mismo período de tiempo, Intel Paragon podía tener entre 1000 y 4000 procesadores Intel i860 en varias configuraciones, y fue clasificado como el más rápido del mundo en 1993. El Paragon era una máquina MIMD que conectaba procesadores a través de una malla bidimensional de alta velocidad, permitiendo procesos para ejecutar en nodos separados; comunicarse a través de la interfaz de paso de mensajes . [31] En 1995, Cray también estaba enviando sistemas masivamente paralelos, por ejemplo, el Cray T3E con más de 2.000 procesadores, utilizando una interconexión de toro tridimensional . [32] [33]
La arquitectura Paragon pronto dio lugar a la supercomputadora Intel ASCI Red en los Estados Unidos, que ocupó el primer lugar en supercomputación hasta finales del siglo XX como parte de la Iniciativa de Computación y Simulación Avanzada . Este también era un sistema MIMD en paralelo masivo basado en malla con más de 9.000 nodos de cómputo y más de 12 terabytes de almacenamiento en disco, pero utilizaba procesadores Pentium Pro estándar que se podían encontrar en las computadoras personales de todos los días. ASCI Red fue el primer sistema en romper la barrera de 1 teraflop en el punto de referencia MP- Linpack en 1996; eventualmente alcanzando 2 teraflops. [34]
Computación a petaescala en el siglo XXI
Se lograron avances significativos en la primera década del siglo XXI. La eficiencia de las supercomputadoras siguió aumentando, pero no de forma espectacular. El Cray C90 usó 500 kilovatios de potencia en 1991, mientras que en 2003 el ASCI Q usó 3.000 kW mientras era 2.000 veces más rápido, aumentando el rendimiento por vatio 300 veces. [35]
En 2004, la supercomputadora Earth Simulator construida por NEC en la Agencia Japonesa de Ciencia y Tecnología Marina-Terrestre (JAMSTEC) alcanzó los 35,9 teraflops, utilizando 640 nodos, cada uno con ocho procesadores vectoriales patentados . [36] En comparación, a partir de 2020, una sola tarjeta gráfica NVidia RTX 3090 puede ofrecer un rendimiento comparable a 35 TFLOPS por tarjeta. [37]
La arquitectura de supercomputadoras IBM Blue Gene encontró un uso generalizado en la primera parte del siglo XXI, y 27 de las computadoras en la lista TOP500 usaron esa arquitectura. El enfoque de Blue Gene es algo diferente en el sentido de que intercambia la velocidad del procesador por un bajo consumo de energía, de modo que se puede usar una mayor cantidad de procesadores a temperaturas enfriadas por aire. Puede utilizar más de 60.000 procesadores, con 2.048 procesadores "por rack", y los conecta mediante una interconexión toroidal tridimensional. [38] [39]
El progreso en China ha sido rápido, ya que China se ubicó en el puesto 51 en la lista TOP500 en junio de 2003, luego en el 14 en noviembre de 2003, y en el 10 en junio de 2004 y luego en el quinto durante 2005, antes de obtener el primer lugar en 2010 con 2.5 petaflop Tianhe- Yo superordenador. [40] [41]
En julio de 2011, la computadora K japonesa 8.1 petaflop se convirtió en la más rápida del mundo utilizando más de 60.000 procesadores SPARC64 VIIIfx alojados en más de 600 gabinetes. El hecho de que la computadora K sea más de 60 veces más rápida que el Earth Simulator y que el Earth Simulator se ubique en el puesto 68 del mundo siete años después de ocupar el primer lugar demuestra tanto el rápido aumento en el rendimiento superior como el crecimiento generalizado de la tecnología de supercomputación. Mundial. [42] [43] [44] En 2014, Earth Simulator había caído de la lista y en 2018 la computadora K había salido del top 10. Para 2018, Summit se había convertido en la supercomputadora más poderosa del mundo, con 200 petaFLOPS. En 2020, los japoneses volvieron a ocupar el primer puesto con la supercomputadora Fugaku , capaz de 442 PFLOPS.
Tabla histórica TOP500
Ésta es una lista de las computadoras que aparecieron en la parte superior de la lista Top500 desde 1993. [45] La "Velocidad máxima" se da como la calificación "Rmax".
Año | Supercomputadora | Velocidad máxima (Rmax) | Localización |
---|---|---|---|
1993 | Túnel de viento numérico de Fujitsu | 124.50 GFLOPS | Laboratorio Aeroespacial Nacional , Tokio , Japón |
1993 | Intel Paragon XP / S 140 | 143,40 GFLOPS | DoE-Sandia National Laboratories , Nuevo México , EE . UU. |
1994 | Túnel de viento numérico de Fujitsu | 170,40 GFLOPS | Laboratorio Aeroespacial Nacional , Tokio , Japón |
1996 | Hitachi SR2201 / 1024 | 220,4 GFLOPS | Universidad de Tokio , Japón |
Hitachi CP-PACS / 2048 | 368.2 GFLOPS | Universidad de Tsukuba , Tsukuba , Japón | |
1997 | Intel ASCI rojo / 9152 | 1.338 TFLOPS | DoE-Sandia National Laboratories , Nuevo México , EE . UU. |
1999 | Intel ASCI rojo / 9632 | 2.3796 TFLOPS | |
2000 | IBM ASCI blanco | 7.226 TFLOPS | DoE-Lawrence Livermore National Laboratory , California , EE . UU. |
2002 | NEC Earth Simulator | 35,86 TFLOPS | Earth Simulator Center , Yokohama , Japón |
2004 | IBM Blue Gene / L | 70,72 TFLOPS | DoE / IBM Rochester , Minnesota , EE . UU. |
2005 | 136,8 TFLOPS | DoE / Administración Nacional de Seguridad Nuclear de Estados Unidos , el Laboratorio Nacional Lawrence Livermore , California , EE.UU. | |
280,6 TFLOPS | |||
2007 | 478,2 TFLOPS | ||
2008 | IBM Roadrunner | 1.026 PFLOPS | Laboratorio Nacional DoE-Los Alamos , Nuevo México , EE . UU. |
1.105 PFLOPS | |||
2009 | Cray Jaguar | 1.759 PFLOPS | Laboratorio Nacional DoE-Oak Ridge , Tennessee , EE . UU. |
2010 | Tianhe-I A | 2.566 PFLOPS | Centro Nacional de Supercomputación , Tianjin , China |
2011 | Computadora Fujitsu K | 10.51 PFLOPS | Riken , Kobe , Japón |
2012 | IBM Sequoia | 16.32 PFLOPS | Laboratorio Nacional Lawrence Livermore , California , EE . UU. |
2012 | Titán Cray | 17.59 PFLOPS | Laboratorio Nacional Oak Ridge , Tennessee , EE . UU. |
2013 | NUDT Tianhe-2 | 33.86 PFLOPS | Guangzhou , China |
2016 | Sunway TaihuLight | 93.01 PFLOPS | Wuxi , China |
2018 | Cumbre de IBM | 122.3 PFLOPS | Laboratorio Nacional DoE-Oak Ridge , Tennessee , EE . UU. |
2020 | Fugaku | 415.53 PFLOPS | Riken , Kobe , Japón |
Controles de exportación
El CoCom y su posterior reemplazo, el Acuerdo de Wassenaar , regulado legalmente, requería licencia, aprobación y mantenimiento de registros; o totalmente prohibida: la exportación de ordenadores de alto rendimiento (HPC) a determinados países. Dichos controles se han vuelto más difíciles de justificar, lo que ha llevado a flexibilizar estas regulaciones. Algunos han argumentado que estas regulaciones nunca estuvieron justificadas. [46] [47] [48] [49] [50] [51]
Ver también
- Linpack
- TOP500
- Verde 500
- FLOPS
- Instrucciones por segundo
- Supercomputación cuasi-oportunista
- Arquitectura de supercomputadora
- Supercomputación en China
- Supercomputación en Europa
- Supercomputación en India
- Supercomputación en Japón
- Supercomputación en Pakistán
Referencias
- ↑ Impagliazzo, John; Lee, John AN (2004). Historia de la informática en la educación . pag. 172. ISBN 1-4020-8135-9. Consultado el 20 de febrero de 2018 .
- ^ Sisson, Richard; Zacher, Christian K. (2006). El Medio Oeste de Estados Unidos: una enciclopedia interpretativa . pag. 1489. ISBN 0-253-34886-2.
- ^ Lundstrom, David E. (1984). Algunos buenos hombres de UNIVAC . Prensa del MIT. ISBN 9780735100107. Consultado el 20 de febrero de 2018 .
- ↑ David Lundstrom, A Few Good Men de UNIVAC , página 90, enumera LARC y STRETCH como supercomputadoras.
- ^ Frank da Cruz (25 de octubre de 2013) [2004]. "IBM NORC" . Consultado el 20 de febrero de 2018 .
- ^ Chen, Sao-Jie; Lin, Guang-Huei; Hsiung, Pao-Ann; Hu, Yu-Hen (2009). Co-diseño de software de hardware de una plataforma SOC multimedia . Springer Science + Business Media . págs. 70–72. ISBN 9781402096235. Consultado el 20 de febrero de 2018 .
- ^ a b c d Hannan, Caryn (2008). Diccionario biográfico de Wisconsin . págs. 83–84. ISBN 978-1-878592-63-7. Consultado el 20 de febrero de 2018 .
- ^ a b c d Murray, Charles J. (1997). Los superhombres . Wiley & Sons. ISBN 9780471048855.
- ^ "Diseñada por Seymour Cray, la CDC 6600 era casi tres veces más rápida que la siguiente máquina más rápida de su época, la IBM 7030 Stretch". Haciendo un mundo de diferencia: ingeniería de ideas en realidad . Academia Nacional de Ingeniería. 2014. ISBN 0309312655.
- ^ "En 1964, el CDC 6600 de Cray reemplazó a Stretch como la computadora más rápida de la Tierra". Sofroniou, Andreas (2013). Sistemas expertos, Ingeniería del conocimiento para la replicación humana . ISBN 1291595090.
- ^ Anthony, Sebastian (10 de abril de 2012). "La historia de las supercomputadoras" . ExtremeTech . Consultado el 2 de febrero de 2015 .
- ^ "CDC 6600" . Encyclopædia Britannica . Consultado el 2 de febrero de 2015 .
- ^ Ceruzzi, Paul E. (2003). Una historia de la informática moderna . Prensa del MIT. pag. 161 . ISBN 978-0-262-53203-7. Consultado el 20 de febrero de 2018 .
- ^ Frisch, Michael J. (diciembre de 1972). "Observaciones sobre el algoritmo 352 [S22], el algoritmo 385 [S13], el algoritmo 392 [D3]". Comunicaciones de la ACM . 15 (12): 1074. doi : 10.1145 / 361598.361914 . S2CID 6571977 .
- ^ Fosdick, Lloyd Dudley (1996). Introducción a la informática científica de alto rendimiento . Prensa del MIT. pag. 418 . ISBN 0-262-06181-3.
- ^ a b Hill, Mark Donald; Jouppi, Norman Paul ; Sohi, Gurindar (1999). Lecturas en arquitectura informática . págs. 41–48. ISBN 978-1-55860-539-8.
- ^ "El Atlas" . Universidad de Manchester. Archivado desde el original el 28 de julio de 2012 . Consultado el 21 de septiembre de 2010 .
- ^ a b Lavington, Simon Hugh (1998). Una historia de las computadoras de Manchester (2 ed.). Swindon: Sociedad británica de informática. págs. 41–52. ISBN 978-1-902505-01-5.
- ^ Creasy, RJ (septiembre de 1981), "El origen del sistema de tiempo compartido VM / 370" (PDF) , IBM Journal of Research & Development , 25 (5), p. 486
- ^ a b Reilly, Edwin D. (2003). Hitos en informática y tecnología de la información . pag. 65 . ISBN 1-57356-521-0.
- ^ a b c d Tokhi, MO; Hossain, Mohammad Alamgir (2003). Computación en paralelo para procesamiento y control de señales en tiempo real . pp. 201 -202. ISBN 978-1-85233-599-1.
- ^ Greenwald, John (11 de julio de 1983). "El coloso que funciona" . Tiempo . Archivado desde el original el 14 de mayo de 2008 . Consultado el 18 de mayo de 2019 .
- ^ "Mikhail A. Kartsev - desarrollador de supercomputadoras para la observación espacial" . ICFCST. 2018 [1998] . Consultado el 20 de febrero de 2018 .
- ^ a b MacKenzie, Donald (1998). Conociendo las máquinas: ensayos sobre el cambio técnico . págs. 149-151. ISBN 0-262-63188-1.
- ^ Glowinski, R .; Lichnewsky, A. (enero de 1990). Métodos informáticos en ciencias aplicadas e ingeniería . págs. 353–360. ISBN 0-89871-264-5.
- ^ "Informe Anual TOP500 1994" . 1 de octubre de 1996.
- ^ Hirose, N .; Fukuda, M. (1997). Túnel de viento numérico (NWT) y CFD Research en el Laboratorio Aeroespacial Nacional . Actas de HPC-Asia '97. Sociedad de Informática IEEE. doi : 10.1109 / HPC.1997.592130 .
- ^ Fujii, H .; Yasuda, Y .; Akashi, H .; Inagami, Y .; Koga, M .; Ishihara, O .; Kashiyama, M .; Wada, H .; Sumimoto, T. (abril de 1997). Arquitectura y rendimiento del sistema de procesador masivamente paralelo Hitachi SR2201 . Actas del XI Simposio Internacional de Procesamiento Paralelo . págs. 233–241. doi : 10.1109 / IPPS.1997.580901 .
- ^ Iwasaki, Y. (enero de 1998). El proyecto CP-PACS . Física nuclear B - Suplementos de actas . 60 (1-2). págs. 246-254. arXiv : hep-lat / 9709055 . doi : 10.1016 / S0920-5632 (97) 00487-8 .
- ^ AJ van der Steen, Resumen de supercomputadoras recientes, publicación del NCF, Stichting Nationale Computer Faciliteiten, Países Bajos, enero de 1997.
- ^ Reed, Daniel A. (2003). Entrada / salida escalable: lograr el equilibrio del sistema . pag. 182. ISBN 978-0-262-68142-1.
- ^ "Cray vende la primera supercomputadora T3E-1350 a PhillipsPetroleum" (Comunicado de prensa). Seattle: Grupo Gale. Business Wire. 7 de agosto de 2000.
- ^ Agida, NR; et al. (et al.) (marzo-mayo de 2005). "Red de interconexión Blue Gene / L Torus" (PDF) . Revista de investigación y desarrollo de IBM . 45 (2–3): 265. Archivado desde el original (PDF) el 15 de agosto de 2011 . Consultado el 9 de febrero de 2012 .
- ^ Greenberg, David S. (1998). Heath, Michael T. (ed.). "Habilitación de la supercomputación a escala departamental" . Algoritmos para procesamiento paralelo . 105 : 323. ISBN 0-387-98680-4. Consultado el 20 de febrero de 2018 .
- ^ Feng, Wu-chun (1 de octubre de 2003). "Defensa de la supercomputación eficiente" (PDF) . Revista ACM Queue . 1 (7): 54–64. doi : 10.1145 / 957717.957772 . S2CID 11283177 . Archivado desde el original (PDF) el 30 de marzo de 2012 . Consultado el 6 de febrero de 2016 .
- ^ Sato, Tetsuya (2004). "The Earth Simulator: roles e impactos". Física nuclear B: Suplementos de actas . 129 : 102. doi : 10.1016 / S0920-5632 (03) 02511-8 .
- ^ "Especificaciones de NVIDIA GeForce RTX 3090" . techradar.com .
- ^ Almasi, George; et al. (et al.) (2005). Cunha, José Cardoso; Medeiros, Pedro D. (eds.). La experiencia temprana con aplicaciones científicas sobre el / L superordenador Blue Gene . Procesamiento paralelo Euro-Par 2005: XI Conferencia Internacional Euro-Par . págs. 560–567. ISBN 9783540319252.
- ^ Morgan, Timothy Prickett (22 de noviembre de 2010). "IBM descubre 20 petaflops BlueGene / Q super" . El registro .
- ^ Graham, Susan L .; Snir, Marc; Patterson, Cynthia A. (2005). Ponerse al día: el futuro de la supercomputación . pag. 188 . ISBN 0-309-09502-6.
- ^ Vance, Ashlee (28 de octubre de 2010). "China arrebata el título de supercomputadora de Estados Unidos" The New York Times . Consultado el 20 de febrero de 2018 .
- ^ "La supercomputadora japonesa 'K' es la más rápida del mundo" . El telégrafo . 20 de junio de 2011 . Consultado el 20 de junio de 2011 .
- ^ "La computadora japonesa 'K' está clasificada como la más poderosa" . The New York Times . 20 de junio de 2011 . Consultado el 20 de junio de 2011 .
- ^ "La supercomputadora 'computadora K' ocupa el primer lugar en el mundo" . Fujitsu . Consultado el 20 de junio de 2011 .
- ^ "Generador de sublistas" . Top500. 2017 . Consultado el 20 de febrero de 2018 .
- ^ "Complejidades de establecer umbrales de control de exportación: computadoras". Controles de exportación y política de no proliferación (PDF) . Editorial DIANE. Mayo de 1994. ISBN 9781428920521.
- ^ Wolcott, Peter; Goodman, Seymour; Homer, Patrick (noviembre de 1998). "Controles de exportación de computación de alto rendimiento: navegar por aguas agitadas" . Comunicaciones de la ACM . Nueva York, Estados Unidos. 41 (11): 27–30. doi : 10.1145 / 287831.287836 . S2CID 18519822 .
- ^ McLoughlin, Glenn J .; Fergusson, Ian F. (10 de febrero de 2003). Política de Computadoras de Alto Rendimiento y Control de Exportaciones (PDF) (Informe).
- ^ Brugger, Seth (1 de septiembre de 2000). "Estados Unidos revisa las regulaciones de control de exportaciones de computadoras" . Asociación de Control de Armas .
- ^ "Controles de exportación para equipos de alto rendimiento" . 24 de junio de 2011.
- ^ Blagdon, Jeff (30 de mayo de 2013). "Estados Unidos elimina las sanciones a las exportaciones de computadoras a Irán" .
enlaces externos
- Supercomputadoras (1960-1980) en el Museo de Historia de la Computación