并行编程(CUDA、openMP、MPI)
介绍
这个存储库包含一些并行编程的实现。 使用了 3 种技术:* 用于共享内存拓扑的 openMP * 用于分布式内存拓扑的 openMPI * 用于 GPU(图形处理单元)的 CUDA
项目一
描述
该项目包含使用 openMP 和 openMPI 的线性系统高斯算法的并行化实现,并比较各种并行实现与串行实现之间的并行化和时间增益。 在文件 LU_serial.c 中,已经给出了原始序列号。
使用 openMPI 的算法有 4 个并行实现,它们在数据分配类型和进程之间的通信类型方面有所不同。 第一种类型的数据分配是连续块分配。 因此,如果我们有一个 100x100 元素和 n 个进程的数组,则该数组的前 100/n 行分配给第一个进程,接下来的 100/n 行分配给下一个进程。 第二种数据分配类型是数据的循环分配。 所以,如果我们有一个 10
2021-07-07 23:18:24
78KB
C
1