Hoy en día las computadoras paralelas o clusters de ordenadores son muy comunes en los centros de investigación, algunas empresas grandes cuentan también con ellas, y son ampliamente utilizados para realizar cálculos complejos o extensos. Un desafío en el cálculo en paralelo es el desarrollo de códigos capaces de utilizar eficientemente las capacidades del hardware disponible para resolver problemas más grandes en menos tiempo. Pero la programación en paralelo no es una tarea fácil, y además existen diversas arquitecturas que pueden elegirse. Se puede agrupar las arquitecturas de datos en paralelo en dos familias principalmente: Arquitectura de memoria compartida: en este tipo de máquinas en paralelo se puede observar un conjunto de procesadores que tienen acceso a una memoria en común.
Por lo general a los equipos basados en esta arquitectura se los denomina ordenadores SMP, donde SMP son las siglas en ingles de multiprocesamiento simétrico. Arquitectura de memoria distribuida: en estas máquinas por otra parte cada procesador tiene su propia memoria privada y la información se intercambia entre los procesadores a través de mensajes. El nombre de clusters esta asociado comúnmente a este tipo de dispositivos informáticos y el tipo de lenguaje de intercambio de datos mas común es denominado MPI (message passing interface).
Paralelización del código Stampack v7.10
FREE!
Research Report
Authors: W. Castello, F. G. FloresEditorial: CIMNE
Year of publication: 2011
Pages: 15
Index: Introducción, Objetivos de la paralelización, Implementación del esquema en paralelo, Resultados Numéricos, Tareas por realizar, Conclusiones
Research Report
Authors: W. Castello, F. G. FloresEditorial: CIMNE
Year of publication: 2011
Pages: 15
Index: Introducción, Objetivos de la paralelización, Implementación del esquema en paralelo, Resultados Numéricos, Tareas por realizar, Conclusiones