Título: Solución de sistemas de ecuaciones ralas en clusters de computadoras
Autores: Tinetti, Fernando Gustavo
Aróztegui, Walter J.
Quijano, Antonio Adrián
Fecha: 2012-10-15
2004
Publicador: Unversidad Nacional de La Plata
Fuente:

Tipo: Objeto de conferencia
Objeto de conferencia
Tema: sistemas de ecuaciones ralas
cómputo paralelo en clusters
problema de álgebra lineal en paralelo
algoritmos paralelos
rendimiento de computo y comunicaciones
Parallel algorithms
Parallel processing
Distributed
Ciencias Informáticas
Descripción: En este artículo se presenta una estrategia de paralelización en clusters del método de Gauss-Seidel para la solución de sistemas de ecuaciones ralas. Desde el punto de vista de la solución numérica para matrices de coeficients con poca densidad de elemtnso no nulos, se siguen los lineamientos estándares. Es decir: esquemas de alamcenamiento especiales (Solamente se almacenan los elementos no nulos) y métodos iterativos de búsqueda de solución por aproximaciones sucesivas. Desde el punto de vista de la paralelización del procesamiento en clusters de computadoras, se siguen dos principios básicos: distribución de datos unidimensaional y utilización de mensajes broadcast para toda comunicación de datos entre procesos. La distribución de datos unidimensional facilita al máximo la distribución de carga de procesamiento aún en el caso de clusters heterogéneos (que sin embargo no se presentan en este artículo) La utilización de mensajes broadcast para toda comunicación de datos entre procesos está directamente orientada a la optimización de rendimiento de las comunicaciones en la mayoría de los clusters instalados y que se utilizan para cómputo paralelo La interconexión más usual de estos clusters es la provista por las redes Ethernet, y por lo tanto puede implementar los mensajes broadcast a nivel físico con sobrecarga mínima. Se presenta el análisis de rendimiento paralelo y además los resultados obtenidos en una red local de computadoras heterogéneas que se utilizan como si fueran homogéneas. En este caso se utiliza una implementación de la biblioteca MPI (Message Passage Interface) para la comunicación entre procesos.
Eje: IV - Workshop de procesamiento distribuido y paralelo
Idioma: Español