La supercomputadora personal Intel ( Intel iPSC ) era una línea de productos de computadoras paralelas en las décadas de 1980 y 1990. El iPSC / 1 fue reemplazado por el Intel iPSC / 2 , y luego el Intel iPSC / 860.
iPSC / 1
En 1984, Justin Rattner se convirtió en gerente del grupo Intel Scientific Computers en Beaverton, Oregon . Contrató a un equipo que incluía al matemático Cleve Moler . [1] El iPSC utilizó un hipercubo de conexiones entre los procesadores inspirado internamente por el proyecto de investigación Caltech Cosmic Cube . Por eso, se configuró con nodos numerados con potencia de dos, que corresponden a las esquinas de hipercubos de dimensión creciente. [2]
Intel anunció el iPSC / 1 en 1985, con 32 a 128 nodos conectados con Ethernet en un hipercubo. El sistema fue administrado por una computadora personal de la era PC / AT que ejecutaba Xenix , el "administrador de cubos". [3] Cada nodo tenía una CPU 80286 con coprocesador matemático 80287 , 512K de RAM y ocho puertos Ethernet (siete para la interconexión del hipercubo y uno para hablar con el administrador del cubo). [1]
Una interfaz de paso de mensajes llamada NX que fue desarrollada por Paul Pierce evolucionó a lo largo de la vida de la línea iPSC. [4] Debido a que solo el administrador de cubos tenía conexiones con el mundo exterior, desarrollar y depurar aplicaciones fue difícil. [5]
Los modelos básicos fueron iPSC / d5 (hipercubo de cinco dimensiones con 32 nodos), iPSC / d6 (seis dimensiones con 64 nodos) e iPSC / d7 (siete dimensiones con 128 nodos). Cada gabinete tenía 32 nodos y los precios variaban hasta alrededor de medio millón de dólares para el modelo iPSC / d7 de cuatro gabinetes. [1] También estaban disponibles modelos con memoria adicional (iPSC-MX) y procesador vectorial (iPSC-VX), en los tres tamaños. También se dispuso de un hipercubo de cuatro dimensiones (iPSC / d4), con 16 nodos. [6]
iPSC / 1 se denominó la primera computadora paralela construida a partir de piezas comerciales listas para usar . [7] Esto le permitió llegar al mercado casi al mismo tiempo que su competidor de nCUBE , a pesar de que el proyecto nCUBE había comenzado antes. Cada gabinete de iPSC tenía (en total) 127 cm x 41 cm x 43 cm. El rendimiento total de la computadora se estimó en 2 M FLOPS . El ancho de la memoria era de 16 bits.
El iPSC / 1 de serie # 1 con 32 nodos se envió al Laboratorio Nacional de Oak Ridge en 1985. [8] [9]
iPSC / 2
El Intel iPSC / 2 se anunció en 1987. Estaba disponible en varias configuraciones, la configuración básica era un gabinete con 16 procesadores Intel 80386 a 16 MHz, cada uno con 4 MB de memoria y un coprocesador 80387 en el mismo módulo. [10] El sistema operativo y los programas de usuario se cargaron desde una PC de gestión. Esta PC era típicamente una Intel 301 con una tarjeta de interfaz especial. En lugar de Ethernet, se utilizó un módulo de conexión directa personalizado con ocho canales de aproximadamente 2,8 Mbyte / s de velocidad de datos cada uno para la interconexión del hipercubo. [10] El hardware de interconexión personalizado resulta en un mayor costo, pero reduce los retrasos en las comunicaciones. [11] El software del procesador de gestión se denominó System Resource Manager en lugar de "administrador de cubos". El sistema permite la expansión hasta 128 nodos, cada uno con procesador y coprocesador. [12]
Los módulos base podrían actualizarse a la versión SX (Scalar eXtension) agregando una unidad de punto flotante Weitek 1167 . [13] Otra configuración permitió que cada módulo de procesador se emparejara con un módulo VX (Vector eXtension) con unidades dedicadas de multiplicación y suma. Esto tiene la desventaja de que el número de ranuras para tarjetas de interfaz disponibles se reduce a la mitad. Es necesario tener varios gabinetes como parte del mismo sistema iPSC / 2 para ejecutar el número máximo de nodos y permitir que se conecten a los módulos VX. [14]
Los nodos de iPSC / 2 ejecutaban el sistema operativo propietario NX / 2, mientras que la máquina host ejecutaba System V o Xenix . [15] Los nodos se pueden configurar como el iPSC / 1 sin almacenamiento en disco local o utilizar una de las conexiones del módulo de conexión directa con un sistema de archivos en clúster (llamado sistema de archivos concurrente en ese momento). [14] [16] El uso de elementos informáticos de nodos más rápidos y el sistema de interconexión mejoró el rendimiento de la aplicación sobre el iPSC / 1. [17] [18] Se estima que se construyeron 140 sistemas iPSC / 2. [19]
iPSC / 860
Intel anunció el iPSC / 860 en 1990. El iPSC / 860 constaba de hasta 128 elementos de procesamiento conectados en un hipercubo, cada elemento consistía en un Intel i860 a 40-50 MHz o un microprocesador Intel 80386 . [20] La memoria por nodo se aumentó a 8 MB y se utilizó un módulo de conexión directa similar, que limitó el tamaño a 128 nodos. [21]
Un cliente fue el Laboratorio Nacional de Oak Ridge . [20] El rendimiento del iPSC / 860 se analizó en varios proyectos de investigación. [22] [23] El iPSC / 860 también fue la plataforma de desarrollo original para el motor de trazado de rayos paralelos Tachyon [24] [25] que se convirtió en parte del índice de referencia SPEC MPI 2007, y todavía se usa ampliamente en la actualidad. [26] La línea iPSC fue reemplazada por un proyecto de investigación llamado Touchstone Delta en el Instituto de Tecnología de California que se convirtió en Intel Paragon .
Referencias
- ↑ a b c Cleve Moler (28 de octubre de 2013). "El Intel Hypercube, parte 1" . Consultado el 4 de noviembre de 2013 .
- ^ "La supercomputadora personal" . Museo de Historia de la Computación . Consultado el 4 de noviembre de 2013 .
- ^ Paul R. Pierce. "Intel iPSC / 1" . Archivado desde el original el 3 de junio de 2013 . Consultado el 4 de noviembre de 2013 .
- ^ Paul Pierce (abril de 1994). "La interfaz de paso de mensajes NX". Computación paralela . 20 (4): 1285-1302. doi : 10.1016 / 0167-8191 (94) 90023-X .
- ^ Martin J. Schedlbauer (1989). "Un sistema de gestión de E / S para el hipercubo iPSC / 1". Actas de la 17ª Conferencia sobre la Conferencia Anual de Ciencias de la Computación de la ACM : 400. doi : 10.1145 / 75427.1030220 (inactivo el 31 de mayo de 2021).Mantenimiento de CS1: utiliza el parámetro de los autores ( enlace ) Mantenimiento de CS1: DOI inactivo a partir de mayo de 2021 ( enlace )
- ^ http://delivery.acm.org/10.1145/70000/63074/p1207-orcutt.pdf [ enlace muerto ]
- ^ Paul R. Pierce. "Otros artefactos de la colección" . Archivado desde el original el 3 de junio de 2013 . Consultado el 4 de noviembre de 2013 .
- ^ Betsy A. Riley. "Historia de ORNL HPCC (detalles de la línea de tiempo)" .
- ^ "Historia de la supercomputación" .
- ^ a b "Intel iPSC / 2 (Rubik)" . Museo de la Computación . Katholieke Universiteit Leuven . Consultado el 4 de noviembre de 2013 .
- ^ Philip J. Hatcher y Michael Jay Quinn (1991). Programación en paralelo de datos en equipos MIMD . Prensa del MIT. pag. 7. ISBN 9780262082051.Mantenimiento de CS1: utiliza el parámetro de autores ( enlace )
- ^ P. Pal Chauddhuri (2008). Organización y Diseño de Computadores . Aprendizaje PHI. pag. 826. ISBN 9788120335110.
- ^ Si. Pi Ravikumār (1996). Métodos paralelos para el diseño de maquetación VLSI . Grupo editorial de Greenwood. pag. 183. ISBN 9780893918286.
- ^ a b Jack Dongarra e Iain S. Duff (1991). "Computadoras de Arquitectura Avanzada" . En Hojjat Adeli (ed.). Supercomputación en el análisis de ingeniería . Prensa CRC. págs. 51–54. ISBN 9780893918286.Mantenimiento de CS1: utiliza el parámetro de autores ( enlace )
- ^ Paul Pierce (1988). "El sistema operativo NX / 2". Actas de la tercera conferencia sobre computadoras y aplicaciones concurrentes Hypercube Arquitectura, software, sistemas informáticos y cuestiones generales - . Actas de la Tercera Conferencia sobre Computadoras y Aplicaciones Simultáneas de Hipercubos . C 3 P. 1 . ACM. págs. 384–390. doi : 10.1145 / 62297.62341 . ISBN 978-0-89791-278-5. S2CID 45688408 .
- ^ James C. French, Terrence W. Pratt y Mriganka Das (mayo de 1991). "Medición del rendimiento de un sistema de entrada / salida paralelo para el Intel iPSC / 2 Hypercube". Actas de la conferencia ACM SIGMETRICS de 1991 sobre medición y modelado de sistemas informáticos - SIGMETRICS '91 . Actas de la conferencia ACM SIGMETRICS de 1991 sobre medición y modelado de sistemas informáticos . ACM. págs. 178-187. doi : 10.1145 / 107971.107990 . ISBN 978-0-89791-392-8. S2CID 13899933 .Mantenimiento de CS1: utiliza el parámetro de autores ( enlace )
- ^ S. Arshi, R. Asbury, J. Brandenburg y D. Scott (1988). "Mejora del rendimiento de la aplicación en la computadora iPSC / 2". Actas de la tercera conferencia sobre computadoras y aplicaciones concurrentes Hypercube Arquitectura, software, sistemas informáticos y cuestiones generales - . Actas de la Tercera Conferencia sobre Computadoras y Aplicaciones Simultáneas de Hipercubos . 1 . ACM. págs. 149-154. doi : 10.1145 / 62297.62316 . ISBN 978-0-89791-278-5. S2CID 46148117 .Mantenimiento de CS1: utiliza el parámetro de autores ( enlace )
- ^ Luc Bomans y Dirk Roose (septiembre de 1989). "Evaluación comparativa del multiprocesador hipercubo iPSC / 2". Simultaneidad: práctica y experiencia . 1 (1): 3–18. doi : 10.1002 / cpe.4330010103 .Mantenimiento de CS1: utiliza el parámetro de autores ( enlace )
- ^ Gilbert Kalb; Robert Moxley, eds. (1992). "Sistemas disponibles comercialmente" . Computación masivamente paralela, óptica y neuronal en los Estados Unidos . IOS Press. págs. 17-18. ISBN 9781611971507.
- ^ a b Siddharthan Ramachandramurthi (1996). "Guía iPSC / 860" . Proyecto de Educación en Ciencias Computacionales en el Laboratorio Nacional de Oak Ridge . Consultado el 4 de noviembre de 2013 .
- ^ V. Venkatakrishnan (1991). "Métodos implícitos paralelos para aplicaciones aerodinámicas en redes no estructuradas" . En David E. Keyes; Y. Saad; Donald G. Truhlar (eds.). Paralelismo basado en dominios y métodos de descomposición de problemas en ciencias e ingeniería computacionales . SIAM. pag. 66. ISBN 9781611971507.
- ^ Rudolf Berrendorf y Jukka Helin (mayo de 1992). "Evaluación del rendimiento básico de la computadora paralela Intel iPSC / 860". Simultaneidad: práctica y experiencia . 4 (3): 223–240. doi : 10.1002 / cpe.4330040303 .Mantenimiento de CS1: utiliza el parámetro de autores ( enlace )
- ^ TH Dunigan (diciembre de 1991). "Rendimiento de los hipercubos Intel iPSC / 860 y Ncube 6400" . Computación paralela . 17 (10-11): 1285-1302. doi : 10.1016 / S0167-8191 (05) 80039-0 .
- ^ Stone, J .; Underwood, M. (1 de julio de 1996). Representación de simulaciones numéricas de flujo mediante MPI . Conferencia de desarrolladores de MPI, 1996. Proceedings., Second . págs. 138-141. CiteSeerX 10.1.1.27.4822 . doi : 10.1109 / MPIDC.1996.534105 . ISBN 978-0-8186-7533-1. S2CID 16846313 .
- ^ Stone, John E. (enero de 1998). "Una biblioteca eficiente para la animación y el trazado de rayos paralelos" . Tesis de Maestría . Tesis de maestría, Departamento de Ciencias de la Computación, Universidad de Missouri-Rolla, abril de 1998.
- ^ Stone, JE; Isralewitz, B .; Schulten, K. (1 de agosto de 2013). Experiencias tempranas escalando trabajos de análisis y visualización molecular VMD en aguas azules . Taller de escala extrema (XSW), 2013 . págs. 43–50. CiteSeerX 10.1.1.396.3545 . doi : 10.1109 / XSW.2013.10 . ISBN 978-1-4799-3691-5. S2CID 16329833 .