AllocateTasksFairly 将多个任务分配到多个并行进程时,为了最大化工作效率,通常希望每个进程被赋予相当的任务量,避免某些进程过早完成任务然后空等待。同时,将单个任务拆分往往会造成一定的性能损失,在负载均衡的前提下应当尽量将单个任务交给单个进程执行。 本拆分函数接受多个任务各自的尺寸,和并行进程数目作为参数,给出合理化的任务分配方案。 对于单个较大的任务,将其拆分给多个进程执行;对于多个较小的任务,将它们合并给一个进程执行。同时为了尽量减少任务拆分,若一个大任务被决定拆分,则分到该任务的所有进程将专心执行该任务,不会被分配到其它任务;反过来,若一个进程被分配到了多个任务,则这些任务将完全由该进程独立执行,而不会再拆分给其它进程。 TaskSplitParallelRun 本函数能够对批处理任务进行多线程调度,追求负载均衡。可以将单个大任务拆分到多个进程执行,多个小任务合并到
2021-10-11 16:03:49 21KB matlab
1
Jacobi Stencil 算法的并行化实现及性能优化研究
2021-10-11 14:51:25 490KB 研究论文
1
小猪 用法: 创建一个文件simulation.py并覆盖Chromosome类。 遗传算法 染色体 染色体存储其适应度和基因型。 基因型可以是一个整数列表、一个字符串——任何数据结构。 适应度是适应度函数的值。 这里我们使用simulate ()来计算适应度。 染色体还提供两种方法: mate和mutate 。 mate : mate将另一个染色体作为参数并返回一个子染色体。 这就是基因操作重组。 这是一些示例代码: def mate ( C ): """ Each gene has a 50% chance of being passed on. """ child = list () for i in range ( num_param ): if random . random () < 0.5 :
2021-10-09 10:15:13 4KB Python
1
基于软件流水技术的深度卷积神经网络并行化研究.docx
2021-10-08 23:11:11 95KB C语言
频繁模式挖掘是一种非常有效地从数据中获取知识的方法,但是随着大数据时代的来临,现有算法及其计算环境的运算速度、内外存容量面临严峻挑战。针对以上问题,紧密结合MapReduce模型提供的高效分布式编程和运行框架,在深入分析H-mine频繁模式挖掘算法的基础上,通过对H-mine算法频繁模式挖掘过程的并行化改进,提出了一种新颖的基于MapReduce模型的H-mine算法(简称MRH-mine)。MRH-mine算法实现了对H-mine算法在分布式运行环境下的改造,实验表明该算法在面对数据大规模增长的情况下具有良好的性能和扩展性。
1
云计算平台下遥感图像分类算法的并行化技术研究.pdf
2021-09-28 09:07:49 22.18MB
摘  要: 使用Intel Parallel Amplifier高性能工具,针对模糊C均值聚类算法在多核平台的性能问题,找出串行程序的热点和并发性,提出并行化设计方案。基于Intel并行库TBB(线程构建模块)和OpenMP运行时库函数,对多核平台下的串行程序进行循环并行化和任务分配的并行化设计。   并行性主要是指同时性或并发性,并行处理是指对一种相对于串行处理的处理方式,它着重开发计算过程中存在的并发事件。并行性通常划分为作业级、任务级、例行程序或子程序级、循环和迭代级以及语句和指令级。作业级的层次高,并行处理粒度粗。粗粒度开并行性开发主要采用MIMD方式,而细粒度并行性开发则主要采用SI
1
一种基于GPU的枚举排序算法及其并行化.pdf
2021-09-25 19:03:37 1.3MB GPU 处理器 数据处理 参考文献
Magic软件可以通过馈入参数仿真计算输出功率。为了确定最优的参数,实际工作中通过采用Magic迭代计算软件中的遗传算法迭代计算确定参数,但每代计算需要同时启动多个Magic程序,耗时长、单机计算效率低。本文提出了基于Windows环境,使用现有的工作站,利用Microsoft HPC工具包搭建一个并行计算集群,实现将每代启动的Magic程序放到多台计算机上进行并行计算的解决方案。首先利用HPC Pack进行集群的搭建,然后设置共享文件夹进行数据的存储与访问,最后使用Microsoft HPC Pack SDK中的API改写Magic迭代计算软件,实现将每代启动的Magic程序放到多台计算机上进行并行计算。通过测试表明加速比大约为2,能够有效提高计算速度。
1
LBM_MATLAB:具有多尺度建模扩展的MPI风格的Shan和Chen LBM并行化
2021-09-10 20:03:23 166KB matlab parallel lattice-boltzmann two-phase
1