ISRA VISION PARSYTEC AG es una empresa de ISRA VISION AG y fue fundada en 1985 como Parsytec (PARallel SYstem TEChnology) en Aquisgrán , Alemania.
![]() | |
Tipo de negocio | Público |
---|---|
Disponible en | alemán |
Fundado | 1985 |
Sede | , |
Área de servicio | América del Norte , América del Sur , Europa , Asia Pacífico |
Fundador (es) | Falk-Dietrich Kübler, Gerhard Peise, Bernd Wolf |
Servicios | Sistemas de inspección de superficies |
URL | http://www.parsytec.de |
Parsytec se hizo conocido a finales de los 80 y principios de los 90 como fabricante de sistemas paralelos basados en transputers . Los productos iban desde una placa enchufable de un solo transputador para IBM PC hasta grandes sistemas masivamente paralelos con miles de transputers (o procesadores, respectivamente) como el Parsytec GC. Algunas fuentes llaman a este último multicomputadoras escalables (smC) del tamaño de una ultracomputadora . [1] [2]
Como parte de ISRA VISION AG, hoy la empresa se centra en soluciones en el sector de la visión artificial y la procesión de imágenes industriales. Los productos ISRA Parsytec se utilizan para la inspección de superficies y calidad, especialmente en las industrias del metal y el papel.
Historia
En 1985, Parsytec fue fundada por Falk-Dietrich Kübler, Gerhard H. Peise y Bernd Wolff en Aachen , Alemania, con una subvención de 800000 DM del Ministerio Federal de Investigación y Tecnología (BMFT) . [3]
A diferencia de SUPRENUM , Parsytec apuntó directamente sus sistemas ( reconocimiento de patrones ) a aplicaciones industriales como la inspección de superficies. Por lo tanto, no solo tenían una cuota de mercado sustancial en el mundo académico europeo, sino que también podían ganar muchos clientes industriales. Esto incluyó a muchos clientes fuera de Alemania . En 1988, la exportación representó aproximadamente un tercio del volumen de negocios de Parsytec. Las cifras de facturación fueron: cero en 1985, 1,5 millones de marcos alemanes en 1986, 5,2 millones de marcos alemanes en 1988, 9 millones de marcos alemanes en 1989 y 15 millones de marcos alemanes en 1990, 17 millones de dólares estadounidenses en 1991.
Para enfocar Parsytec en la investigación y el desarrollo, se fundó ParaCom. Desde allí, ParaCom se ocupó del lado de ventas y marketing del negocio. La sede de Parsytec / ParaCom se mantuvo en Aquisgrán (Alemania), sin embargo, tenían oficinas de ventas subsidiarias en Chemnitz (Alemania), Southampton (Reino Unido), Chicago (EE.UU.), San Petersburgo (Rusia) y Moscú (Rusia). [4] En Japón, las máquinas fueron vendidas por Matsushita . [3]
Entre 1988 y 1994, Parsytec construyó una gama bastante impresionante de computadoras basadas en transputadoras que tuvo su pico en el "Parsytec GC" (GigaCluster) que estaba disponible en versiones que usaban 64 hasta 16384 transputadoras . [5]
Parsytec tuvo su OPI a mediados de 1999 en la Bolsa de Valores de Alemania en Frankfurt .
El 30 de abril de 2006, el fundador Falk-D. Kübler dejó la empresa. [6]
En julio de 2007, ISRA VISION AG adquirió [7] el 52,6% [8] de Parsytec AG. La exclusión de las acciones de Parsytec del mercado de valores comenzó en diciembre del mismo año. Y desde el 18 de abril de 2008, la acción de Parsytec ya no cotiza en bolsa. [9]
Mientras que la fuerza laboral en Parsytec era de aproximadamente 130 empleados a principios de la década de 1990, el Grupo ISRA VISION tenía más de 500 empleados en 2012/2013. [10]
En la actualidad, el negocio principal de ISRA Parsytec dentro del Grupo ISRA VISION es el desarrollo y distribución de sistemas de inspección de superficies para productos en tiras en las industrias del metal y el papel.
Productos / Computadoras
La gama de productos de Parsytec incluía:
- Megaframe ( T414 / T800 ) --- uno por placa, hasta diez placas en un bastidor o como placas enchufables
- MultiCluster ( T800 ) --- hasta 64 procesadores en un solo rack
- SuperCluster ( T800 ) --- 16 a 1024 procesadores en un solo cuadro
- GigaCluster (planificado: T9000 ; realizado: T800 o MPC 601 ) --- 64 a 16384 procesadores en "cubos"
- x'plorer ( T800 o MPC 601 )
- Computadora cognitiva ( MPC 604 e Intel Pentium Pro )
- Powermouse ( MPC 604 )
En total, se habían enviado unos 700 sistemas autónomos (SC y GC).
En un principio, Parsytec había participado en el (uso general GPMIMD MIMD ) [11] proyecto bajo el paraguas de la ESPRIT [12] proyecto, tanto siendo financiado por la Comisión Europea 's Dirección de Ciencia . Sin embargo, después de importantes divisiones con los otros participantes, Meiko , Parsys, Inmos y Telmat, en cuanto a la elección de una arquitectura física común, Parsytec abandonó el proyecto y anunció una máquina propia basada en T9000 , es decir, la GC. Pero debido a los problemas de Inmos con el T9000 , se vieron obligados a cambiar al conjunto de CPUs Motorola MPC 601 e Inmos T805 . Esto llevó a que los sistemas "híbridos" de Parsytec (por ejemplo, GC / PP) degradaran las transputadoras a procesadores de comunicación mientras el trabajo de cómputo se descargaba a las PowerPC .
Los sistemas de clúster de Parsytec fueron operados por una estación de trabajo externa, típicamente una estación de trabajo SUN (por ejemplo, Sun-4 [13] ).
Existe una confusión sustancial en cuanto a los nombres de los productos Parsytec. Por un lado esto tiene que ver con la arquitectura, pero por otro lado tiene que ver con la no disponibilidad mencionada anteriormente de Inmos T9000 que obligó a Parsytec a utilizar el T805 y el PowerPC en su lugar. Los sistemas que estaban equipados con procesadores PowerPC tenían el prefijo "Power".
En lo que respecta a la arquitectura de los sistemas GC, un GigaCluster completo se compone de GigaCubes autónomos. El elemento arquitectónico básico de un sistema Parsytec era un grupo que constaba, entre otras cosas, de cuatro transputadoras / procesadores (es decir, un grupo es un nodo en el sentido clásico).
Un GigaCube (a veces denominado supernodo / meganodo [14] ) constaba de cuatro clústeres (nodos) con 16 transputadoras Inmos T805 (30 MHz), RAM (hasta 4 MB por T805 ), más un T805 redundante adicional (un adicional, por lo tanto, el procesador 17), las conexiones de enlace local y cuatro chips de enrutamiento Inmos C004. Se proporcionó tolerancia a fallas de hardware al vincular cada uno de los T805 a un C004 diferente. [15] La ortografía inusual de x'plorer llevó a xPlorer y el Gigacluster a veces se conoce como Gigacube o Grand Challenge.
Megacuadro
Megaframe [16] [17] era el nombre de producto de una familia de módulos de procesamiento paralelo basados en transputadoras. [18] Algunos de los cuales podrían usarse para actualizar una PC IBM . [19] Como sistema independiente, un sistema Megaframe podría contener hasta diez módulos de procesador. Había diferentes versiones de los módulos disponibles, por ejemplo, uno con un transputador T414 de 32 bits , hardware de punto flotante Motorola 68881 , 1 MB (tiempo de acceso de 80 nanosegundos) de RAM y un rendimiento de 10 MIPS, o uno con cuatro de 16- bits transputers T22x con 64 kB de RAM. También se ofrecieron tarjetas para funciones especiales, como un procesador gráfico con una resolución de 1280 x 1024 píxeles o un "cluster" de E / S con terminal e interfaz SCSI . [20]
Multiclúster
La serie MultiCluster-1 eran sistemas configurables estáticamente y se podían adaptar a los requisitos específicos del usuario, como el número de procesadores, la cantidad de memoria y la configuración de E / S, así como la topología del sistema. La topología de procesador requerida se puede configurar mediante la conexión UniLink; alimentado a través del plano posterior especial. Además, se proporcionaron cuatro enchufes externos.
Multicluster-2 utilizó unidades de configuración de red (NCU) que proporcionaban redes de interconexión flexibles y configurables dinámicamente. El entorno multiusuario podría admitir hasta ocho usuarios utilizando el software de arquitectura virtual múltiple de Parsytec. El diseño de la NCU se basó en el conmutador de barra transversal de Inmos , el C004, que brinda conectividad de barra transversal completa para hasta 16 transputadoras. Cada NCU, hecha de C004, conectó hasta 96 UniLinks que enlazan transputadoras internas y externas y otros subsistemas de E / S. MultiCluster-2 proporcionó la capacidad de configurar una variedad de topologías de interconexión fija, como estructuras de árbol o de malla. [14]
SuperCluster
SuperCluster (imagen) tenía un diseño jerárquico basado en clústeres. Una unidad básica era un T800 de 16 transputers , un clúster completamente conectado; Los sistemas más grandes tenían niveles adicionales de NCU para formar las conexiones necesarias. El software Network Configuration Manager (NCM) controlaba las NCU y establecía dinámicamente las conexiones necesarias. Cada transputadora podría estar equipada con 1 a 32 MB de RAM dinámica con corrección de error simple y detección de error doble. [14]
GigaCluster
El GigaCluster (GC) era una computadora paralela que se produjo a principios de la década de 1990. Un Giga Cluster estaba formado por Giga Cubes. [21]
Siendo diseñados para la Inmos T9000 - transputers , nunca podrían ser lanzados como tal, ya que el Inmos T9000 Transputers en sí nunca llegaron al mercado en el momento oportuno. Esto llevó al desarrollo del GC / PP (PowerPlus) en el que se utilizaron dos Motorola MPC 601 (80 MHz) como CPU dedicadas compatibles con cuatro transputadoras T805 (30 MHz) [22]
Mientras que el GC / PP era un sistema híbrido, el GC el ("nivel de entrada") se basaba únicamente en T805 . [23] [24] Se suponía que el GC el podía actualizarse a las transputadoras T9000 (si hubieran llegado lo suficientemente temprano), convirtiéndose así en un GC completo. Como el T9000 fue el sucesor evolutivo de Inmos del T800 , se planeó que la actualización fuera simple y directa porque, en primer lugar, ambas transputadoras compartían el mismo conjunto de instrucciones y, en segundo lugar, también tenían una relación de rendimiento bastante similar de potencia de cómputo versus rendimiento de comunicación. Por lo tanto, se esperaba un factor de aceleración teórico de 10 [21], pero al final nunca se alcanzó.
La estructura de red del GC era una red bidimensional con una velocidad de intercomunicación entre los nodos (es decir, grupos en la jerga de Parsytec) de 20 Mbit / s. Por el momento, el concepto de GC era excepcionalmente modular y, por lo tanto, escalable.
Un llamado GigaCube era un módulo que ya era un sistema de un gigaflop; además, fue el componente básico de sistemas más grandes. Un módulo (es decir, un cubo en la jerga de Parsytec) contenía
- cuatro grupos
de los cuales cada uno estaba equipado con
- 16 transputadoras (más una transputadora adicional para redundancia, por lo que son 17 transputadoras por clúster),
- 4 chips de enrutamiento de agujeros de gusano ( C104 para el T9000 planificado y C004 con el T805 realizado ),
- una fuente de alimentación dedicada y puertos de comunicaciones.
Al combinar módulos (o cubos, respectivamente), teóricamente se podrían conectar hasta 16384 procesadores a un sistema muy poderoso juntos.
Las instalaciones típicas fueron:
Sistema | Numero de CPU | Número de GigaCubes |
---|---|---|
GC-1 | 64 | 1 |
GC-2 | 256 | 4 |
GC-3 | 1024 | dieciséis |
GC-4 | 4096 | 48 |
GC-5 | 16384 | 256 |
Las dos instalaciones más grandes del GC, que en realidad se enviaron, tenían 1024 procesadores (16 módulos, con 64 transputadoras por módulo) y se operaban en los centros de datos de las universidades de Colonia y Paderborn. En octubre de 2004, este último se entregó al Foro de Museos Heinz Nixdorf [25], donde ahora no funciona.
El consumo de energía de un sistema con 1024 procesadores fue de aproximadamente 27 kW, el peso fue de casi una tonelada. En 1992, el sistema costaba alrededor de 1,5 millones de marcos alemanes . Mientras que las versiones más pequeñas hasta GC-3 estaban refrigeradas por aire, la refrigeración por agua era obligatoria para los sistemas más grandes.
En 1992, un GC con 1024 procesadores alcanzó un lugar en la lista TOP500 [26] de las instalaciones de supercomputadoras más rápidas del mundo. Solo en Alemania, fue el número 22 de los ordenadores más rápidos.
En 1995, había nueve computadoras Parsytec en la lista Top500, de las cuales dos instalaciones GC / PP 192 ocuparon el lugar 117 y 188 en la lista TOP500. [27]
Y en 1996, todavía ocupaban el puesto 230 y 231 en la lista TOP500. [28] [29]
explorador
El modelo x'plorer vino en dos versiones: la versión inicial incluía 16 transputadoras , cada una con acceso a 4 MB de RAM y se llamaba simplemente x'plorer. Más tarde, cuando Parsytec generalmente cambió a la arquitectura PPC , se llamó POWERx'plorer y contó con 8 CPU MPC 601 . Ambos modelos venían en la misma magnífica carcasa de escritorio (diseñada por Via 4 Design [30] ).
En cualquier modelo, el x'plorer era más o menos una sola "rebanada" - Parsytec los llamó clúster (imagen) - de un GigaCube (PPC o Transputer), que usaba 4 de esos clústeres en su versión más pequeña (GC-1) . Por lo tanto, algunos lo llaman "GC-0.25". [31]
El POWERx'plorer se basó en 8 unidades de procesamiento dispuestas en una malla 2D. Cada unidad de procesamiento tenía
- un procesador MPC 601 de 80 MHz ,
- 8 MB de memoria local y
- un transputador para establecer y mantener enlaces de comunicación. [32]
Computadora cognitiva
El Parsytec CC (Cognitive Computer) (imagen) sistema [33] [34] era una unidad autónoma a nivel de rack tarjeta. El subsistema de bastidor de tarjetas CC proporcionó al sistema su infraestructura, incluida la fuente de alimentación y la refrigeración. El sistema podría configurarse como una unidad estándar de montaje en bastidor de 19 que acepta los diversos módulos enchufables de 6U.
El sistema CC [35] era una memoria distribuida, un ordenador paralelo que pasaba mensajes y se clasifica globalmente en la categoría MIMD de ordenadores paralelos. Había dos versiones diferentes disponibles
- CCe: basado en el procesador Motorola MPC 604 que funciona a 133 MHz con 512 KB de caché L2. Los módulos se conectaron entre sí a 1 Gbit / s con tecnología de enlace de alta velocidad (HS) según el estándar IEEE 1355 , lo que permite una transferencia de datos de hasta 75 MB / s. El controlador de comunicación se integró en los nodos del procesador a través del bus PCI . La placa del sistema utilizó el chip MPC 105 para proporcionar control de memoria, actualización de DRAM y decodificación de memoria para bancos de DRAM y / o Flash. La velocidad del bus [CPU] está limitada a 66 MHz, mientras que la velocidad del bus PCI fue de 33 MHz como máximo.
- CCi: basado en Intel Pentium Pro, sus elementos centrales eran placas base duales basadas en Pentium Pro (a 266 MHz) que estaban interconectadas mediante varias redes de alta velocidad. Cada placa base doble tenía 128 Mbyte de memoria. Cada nodo tuvo un rendimiento máximo de 200 MFLOPS. La gama de productos comprendía placas de un solo procesador o SMP hasta un sistema de 144 nodos, una gran variedad de tarjetas PCI y también diferentes soluciones de comunicación (Gigabit HS-Link, Myrinet, SCI, ATM o Fast-Ethernet). Los sistemas operativos eran Windows NT 4.0 y ParsyFRame (el entorno UNIX era opcional). [36]
En todos los sistemas CC, los nodos se conectaron directamente al mismo enrutador que implementó un conmutador de barra cruzada de hardware activo de 8 por 8 para hasta 8 conexiones utilizando el enlace de alta velocidad de 40 MBytes / s.
Por lo que se refiere a la CCE, el software se basa en IBM 's AIX sistema operativo UNIX 4.1 junto con PARIX Embedded entorno de programación paralela de Parsytec (EPX). [37] Por lo tanto, combinó un entorno UNIX estándar (compiladores, herramientas, bibliotecas) con un entorno de desarrollo de programación de software avanzado. El sistema se integró a la red de área local utilizando Ethernet estándar. Por lo tanto, un nodo CC tuvo un rendimiento máximo de 266 MFlops. Por tanto, el rendimiento máximo del sistema CC de 8 nodos instalado en el Hospital Universitario de Ginebra fue de 2,1 GFlops. [38]
Powermouse
Powermouse era otro sistema escalable que constaba de módulos y componentes individuales. Era una sencilla extensión del sistema x'plorer. [36] Cada módulo (dimensiones: 9 cm x 21 cm x 45 cm) contenía cuatro procesadores MPC 604 (200/300 MHz) y 64 MB de RAM que alcanzaban un rendimiento máximo de 2,4 Gflop / s. Un procesador de comunicación independiente ( T425 ) equipado con 4 MB de RAM [39] controlaba el flujo de datos en cuatro direcciones hacia otros módulos del sistema. El ancho de banda de un solo nodo era de 9 MB / s
Por alrededor de 35000 DM, un sistema básico que consta de 16 CPU (es decir, cuatro módulos) podría proporcionar una potencia de cálculo total de 9,6 Gflop / s. Al igual que con todos los productos Parsytec, Powermouse requería una estación Sun Sparcstation como interfaz.
Se incluyó todo el software ( PARIX con compiladores y depuradores de C ++ y Fortran 77 (alternativamente, proporcionando MPI o PVM como interfaces de usuario). [40]
Sistema operativo
El sistema operativo utilizado fue Parix (extensiones UNIX paralelo) [41] (PARIX T8 para los T80x transputers y PARIX T9 para los T9000 transputers , respectivamente). Basado en UNIX , PARIX [42] soportaba llamadas a procedimientos remotos , era compatible con el estándar POSIX . PARIX proporcionó funcionalidad UNIX en el front-end (por ejemplo, una estación Sun SPARC que tenía que comprarse por separado) con extensiones de biblioteca para las necesidades del sistema paralelo en el backend, que era precisamente el producto Parsytec en sí (estaba conectado al front-end por el que fue operado). El paquete de software Parix constaba de componentes para el entorno de desarrollo del programa (compiladores, herramientas, etc.) y el entorno de ejecución (bibliotecas). PARIX ofrecía diferentes tipos de comunicación sincrónica y asincrónica.
Además, Parsytec proporcionó un entorno de programación paralelo llamado Embedded PARIX (EPX). [37]
Para desarrollar aplicaciones paralelas utilizando EPX, se asignaron flujos de datos y tareas de funciones a una red de nodos. El manejo de datos entre procesadores requirió solo unas pocas llamadas al sistema. Se disponía de rutinas estándar para la comunicación síncrona, como enviar y recibir, así como llamadas al sistema asíncronas. El conjunto completo de llamadas EPX estableció la interfaz de programación de aplicaciones ( API ) EPX . El destino de cualquier transferencia de mensajes se definió a través de un canal virtual que finalizaba en cualquier proceso definido por el usuario. Los canales virtuales fueron definidos por el usuario y administrados por EPX. El software del sistema de entrega de mensajes real utilizó el enrutador. [38] Además, también se podría ejecutar COSY (Sistema de funcionamiento concurrente) [43] y Helios en las máquinas. Helios apoyó el mecanismo de reinicio especial de Parsytec listo para usar.
Ver también
- INMOS
- SUPRENUM
- Meiko Scientific
- Thinking Machines Corporation
Referencias
- ^ Computadoras masivamente paralelas: ¿Por qué no computadoras paralelas para las masas? G. Bell en microsoft.com
- ^ Métodos de relajación de línea de dirección alterna en multicomputadoras J. Hofhaus et al., SIAM J. ScI. COMPUT. Vol. 17, núm. 2, págs. 454-478, marzo de 1996
- ^ a b Duell der Zahlenfresser en zeit.de (alemán)
- ^ Parsytec GmbH en new-npac.org
- ^ Parsytec artículo en GeekDot.com
- ^ Declaración anual de cuentas 2006 [ enlace muerto permanente ] en parsytec.de
- ^ ISRA Vision übernimmt Parsytec 23 de julio de 2007 en finanznachrichten.de (alemán)
- ^ ISRA VISION AG - Erwerb der Mehrheit an der Parsytec AG 24 de julio de 2007 en equinet-ag.de (alemán)
- ^ Relaciones con inversores en ISRA en parsytec.de
- ^ Informe anual 2012/2013 05 de mayo de 2014 en isravision.com
- ^ Máquinas MIMD de uso general en cordis.europa.eu
- ^ Programa europeo (CEE) de investigación y desarrollo en tecnologías de la información (ESPRIT), 1984-1988
- ^ Un marco para caracterizar sistemas paralelos para la evaluación del desempeño Efstathios Papaefstathiou (1995)
- ^ a b c Boletín informativo 92-08 de ESN en dtic.mil
- ^ Soluciones Hypecube para direcciones conjugadas, JE Hartman (1991) en dtic.mil
- ^ MEGAFRAME TPM-1 - Documentación de hardware Ver. 1.2 (1987) en classiccmp.org
- ^ MEGAFRAME MTM-2 - Documentación de hardware Ver. 1.3 (1987) en classiccmp.org
- ^ MEGAFRAME Familie Archivado el 10 de febrero de 2013 en archive.today mayo de 1987 en computerwoche.de (alemán)
- ^ Página de inicio de Transputer de Ram Meenakshisundaram en classiccmp.org
- ^ Transputersystem ist frei konfigurierbar Archivado el 2 de abril de 2008 en Wayback Machine, marzo de 1987, en computerwoche.de (alemán)
- ^ Un b Gigacube artículo en GeekDot.com
- ^ El Parsytec Power Plus en netlib.org
- ^ Programmierung und Anwendung der Parallelrechnersysteme Parsytec SC und Parsytec GC / PP [ enlace muerto permanente ] B. Heiming, 1996, Universidad Técnica de Hamburgo-Harburg (alemán)
- ^ Sintetizar sistemas masivos de simulación paralela para estimar la actividad de conmutación en máquinas de estados finitos [ enlace muerto permanente ] W. Bachmann et al., Universidad Tecnológica de Darmstadt
- ^ Página de inicio del Foro del Museo Heinz Nixdorf
- ^ http://www.top500.org Lista TOP500
- ^ Lista Top500 1996
- ^ Lecture Notes on Applied Parallel Computing Archivado el 16 de agosto de 2010 en Wayback Machine en ocw.mit.edu
- ^ Viel hilft viel: Die neuen Supercomputadora haben Billigprozessoren wie der PC nebenan - aber zu Tausenden en zeit.de (alemán)
- ^ Exposición en línea iF - Via 4 Design en ifdesign.de
- ^ X'plorer artículo en GeekDot.com
- ^ Estudio experimental sobre tiempo y espacio compartido en PowerXplorer S. Bani-Ahmad, Ubiquitous Computing and Communication Journal Vol. 3 No. 1
- ^ Parsytec CC Series (Hardware.Documentación), Rev.1.2 (1996) Parsytec GmbH
- ^ La serie Parsytec CC en netlib.org
- ^ Target Machines Archivado el 12 de agosto de 2004 en Wayback Machine en http://parallel.di.uoa.gr
- ^ a b Hardware de computación paralela Archivado el 16 de junio de 2012 en Wayback Machine en ssd.sscc.ru
- ^ a b Embedded Parix Ver. 1.9.2, Documentación de software (1996)
- ^ a b Implementación de un entorno para la simulación Monte Carlo de tomografía de positrones totalmente 3-D en una plataforma paralela de alto rendimiento H. Zaidi, Computación paralela, vol. 24 (1998), págs. 1523-1536
- ^ Sistema Parsytec Power Mouse en CSA Archivado el 16 de abril de 2013 en archive.today el 15 de diciembre de 1998 en csa.ru
- ^ Parsytec liefert Baukasten für Parallelrechner Archivado el 10 de febrero de 2013 en archive.today el 19 de septiembre de 1997 en comuterwoche.de (alemán)
- ^ PARIX Release 1.2 Documentación del software de marzo de 1993
- ^ Parix en http://www.informatik.uni-osnabrueck.de
- ^ COSY - ein Betriebssystem für hochparallele Computer R. Butenuth en uni-paderborn.de (alemán)
enlaces externos
- Página de inicio de ISRA VISION PARSYTEC AG
- Página de inicio de Transputer de Ram Meenakshisundaram en classiccmp.org
- 16384 Prozessoren bringen 400 Gflops Transputer-Superrechner von Parsytec als neuer Weltmeister Artículo en computerwoche.de (alemán)
- Zur Strategie von Parsytec Kuebler: "In zehn Jahren rechnen die meisten Computer paralelo" 1 de octubre de 1993, en computerwoche.de (alemán)
- Proyecto FTMPS: Diseño e implementación de técnicas de tolerancia a fallas para sistemas masivamente paralelos [ enlace muerto permanente ] J. Vounckx et al.
- Página de inicio de Via 4 Design