Charla:Computación Grid


En el primer párrafo, el texto dice: " así como una forma de procesamiento paralelo distribuido en red "

Esta última afirmación es bastante frívola... Aunque se considera una forma de computación distribuida (que SIEMPRE está conectada en red, por otra parte no existe; decir "distribuida en red..." es un pleonasmo), la computación Grid no tiene nada relacionado con el paralelismo , no hay noción de programación de procesos, diseño de topología o cualquier cosa desde el punto de vista de un diseñador/ingeniero de software, y no requiere ninguna sintaxis/compilador de lenguaje de programación paralelo... Compare el compilador Parallel C de Beckerley con los compiladores C tradicionales y verá la diferencia, es espectacular. Los compiladores posteriores pueden mapear el paralelismo sobre anillos, cuadrículas, hipercubos, n-cubos o cualquier otra forma de topología, sin embargo, el diseñador/desarrollador de software debe tener en cuenta estas topologías a través de instrucciones/sintaxis de lenguaje específico: se basa en el hecho que múltiples CPU son físicamente parte de la misma máquina, por lo tanto, con un enfoque mucho más determinista hacia rendimientos y disponibilidad muy altos , de ahí la existencia de compiladores paralelos.

Aquí, "paralelismo distribuido" es un oxímoron: o está distribuido, o es paralelo, pero no ambos. Sí, uno podría "distribuir" una aplicación diseñada para una computadora paralela, pero este tipo de integración (que nunca he visto) es completamente irrelevante para definir redes de red o en la nube. Uno podría terminar con redes de computadoras paralelas si es necesario, pero ambas tecnologías son muy distintas.

A pesar de que apuntan al mismo objetivo que es el rendimiento , al combinar la potencia de múltiples CPU, comparar la computación distribuida con la computación paralela es una TRAMPA, donde dicha comparación puede confundir o engañar al lector. La computación distribuida podría considerarse como una alternativa más económica para el paralelismo, pero al mismo nivel que considerar una sola CPU SIMD multihilo o MIMD multinúcleo canalizada como alternativas a la computación paralela: en ambos casos, el rendimiento es el objetivo, pero no lo es. paralelismo (que siempre superará a la computación distribuida dada la misma cantidad de CPU).

Para vulgarizar: uno podría considerar la Computación Paralela como células cerebrales en la misma cabeza (número de células, conexiones sinápticas y estructura subyacente), mientras que la Computación Distribuida (incluyendo así la Computación Grid) puede compararse con la gestión del trabajo entre varias de esas "cabezas". " como la gestión de recursos humanos del proyecto (sin embargo, cada "jefe" tiene como máximo 1-2 "células cerebrales" - o CPU - en promedio, por lo general no involucra computadoras paralelas), para apuntar a una fecha límite óptima.

Tendría que estar en desacuerdo, es una forma de computación paralela. Si bien estoy de acuerdo en que un sistema distribuido de este tipo tiene un paralelismo de grano fino, es decir, la posibilidad de que cada instrucción se ejecute en paralelo, exhibe algo llamado paralelismo de grano grueso. Aquí es donde partes de la aplicación se envían a diferentes computadoras en Grid y se ejecutan simultáneamente, es decir, en paralelo.