并行编程(CUDA、openMP、MPI) 介绍 这个存储库包含一些并行编程的实现。 使用了 3 种技术:* 用于共享内存拓扑的 openMP * 用于分布式内存拓扑的 openMPI * 用于 GPU(图形处理单元)的 CUDA 项目一 描述 该项目包含使用 openMP 和 openMPI 的线性系统高斯算法的并行化实现,并比较各种并行实现与串行实现之间的并行化和时间增益。 在文件 LU_serial.c 中,已经给出了原始序列号。 使用 openMPI 的算法有 4 个并行实现,它们在数据分配类型和进程之间的通信类型方面有所不同。 第一种类型的数据分配是连续块分配。 因此,如果我们有一个 100x100 元素和 n 个进程的数组,则该数组的前 100/n 行分配给第一个进程,接下来的 100/n 行分配给下一个进程。 第二种数据分配类型是数据的循环分配。 所以,如果我们有一个 10
2021-07-07 23:18:24 78KB C
1
【CUDA并行编程之八】Cuda实现Kmeans算法-附件资源
2021-07-06 20:22:05 106B
1
应用于并行计算mpi并行编程的工具包,适用于linux系统。
2021-07-01 22:27:45 25.95MB mpi并行编程 linux 并行计算
1
高性能计算之并行编程技术—— MPI并行程序设计
2021-06-28 09:04:22 900KB 并行计算 linux
1
本书介绍目前最常见的并行程序—MPI并行程序的设计方法它适合高校三四年级本科生非计算机专业研究生作为教材和教学自学参考书也适合于广大的并行计算高性能计算用户作为自学参考书使用对于有FORTRAN和C编程经验的人员都可以阅读并掌握本书的内容。 首先介绍了并行程序设计的基础提供给读者进行并行程序设计所需要的基本知识然后介绍了MPI的基本功能从简单的例子入手告诉读者MPI程序设计的基本过程和框架这一部分是具有C或/FORTRAN串行程序设计经验的人员很容易理解和接受的接下来介绍MPI程序设计的高级特征是已经掌握了MPI基本程序设计的人员进一步编写简洁高效的MPI程序使用各种高级和复杂的MPI功能所需要的最后一部分介绍了MPI的最新发展和扩充MPI-2 主要包括三个部分动态进程管理远程存储访问和并行文件读写。
2021-06-11 09:49:28 806KB 高性能计算 并行计算 MPI
1
高性能计算并行编程技术MPI并行程序设计
1
Jacobi迭代 * MPI并行程序设计 */217
2021-05-25 18:49:48 2.17MB MPI 分布式 并行编程 消息传递
1
讲述在多台计算机上搭建MPI后,如何实现分布式并行编程,详细的讲述了各种MPI函数,以及大量的例子
2021-05-25 15:05:05 2.17MB MPI 分布式 并行编程 消息传递
1
中文文字版,字迹清晰,很不错的多线程编程的书籍
2021-05-12 21:59:07 4.67MB C++并行编程 中文
1
实验目的 1) 用OpenMP实现最基本的数值算法“矩阵乘法” 2) 掌握for编译制导语句 3) 对并行程序进行简单的性能调优 实验内容 1) 运行并测试OpenMP编写两个n阶的方阵a和b的相乘程序,结果存放在方阵c中,其中乘法用for编译制导语句实现并行化操作,并调节for编译制导中schedule的参数,使得执行时间最短。要求在window环境(不用虚拟机),在linux环境(用和不用虚拟机情况下)测试程序的性能,并写出详细的分析报告。 2)请自己找一个需要大量计算但是程序不是很长的程序,实现OMP的多线程并行计算,要求写出并行算法,并分析并行的效果(注:必须核对串行和并行的计算结果,保证正确性)
2021-05-10 09:23:47 202KB 系统结构 OMP并行编程实验
1