Los dos conceptos están muy relacionados; en su mayoría provienen de orígenes muy diferentes.
La computación paralela significa que ocurren diferentes actividades al mismo tiempo. El término se usó principalmente en computación científica (las computadoras de consumo hasta hace muy poco tiempo no eran paralelas) donde generalmente significa: extender una sola aplicación en muchos núcleos / procesadores / procesos para hacerlo más grande / más rápido. Las grandes computadoras paralelas actuales tienen de 100 mil a un millón de procesadores / núcleos / hilos / locomotoras paralelos.
La computación distribuida proviene del mundo de los negocios donde tiene sistemas distribuidos, como los sistemas de reserva de aerolíneas, donde muchas personas acceden y modifican los mismos datos al mismo tiempo. La maquinaria involucrada aquí suele estar mucho más suelta, y las actividades en un sistema distribuido suelen estar mucho menos sincronizadas.
- ¿Es mejor usar Google Cloud Platform en comparación con AWS en 2016?
- ¿Es posible implementar soluciones de nube ERP plug and play? Si es así, ¿cuáles son las mejores en el mercado para el despliegue masivo?
- ¿Qué tipo de servicio de alojamiento debo elegir?
- ¿Estaría de acuerdo en que el Dr. Werner Vogels, CTO de Amazon Web Services solo, ha generado indirectamente una economía por valor de miles de millones de dólares en términos de miles de nuevas empresas y ecosistemas a su alrededor?
- ¿Por qué se cierran los servicios de archivos de Ubuntu One el 1 de junio de 2014? ¿Esto afectará a los principales jugadores como Dropbox?
Pero realmente, las distinciones no son del todo claras.
Por cierto, noto que tanto la respuesta de Atul Jangra a ¿Cuál es la diferencia entre la computación paralela y distribuida? y la respuesta de John Fawcett a ¿Cuál es la diferencia entre computación paralela y distribuida? están bajo la idea errónea de que una máquina paralela está contenida en una sola caja y que tiene memoria compartida. Esto ciertamente no es cierto. El paralelismo de la memoria compartida no es más que un tipo de paralelismo, la memoria distribuida es otro, y en este momento es el que tiene el paralelismo más masivo. Por ejemplo, la computadora de Texas Advanced Computing Center Stampede tiene 6000 nodos, cada uno con 16 núcleos. Eso es memoria compartida de 16 vías, y 360 veces más en paralelismo de memoria distribuida. Este equilibrio es típicamente para supercomputadoras paralelas.