采用两种数据结构CTR和Ellpackr,分别存储大型的稀疏矩阵中的非零元素。并将在GPU下运行的矩阵相乘运算和在CPU下的矩阵相乘运算进行性能比较。
2022-09-09 06:07:34 9.64MB SPMV OpenCL
1
具有用于 gpu 的 cusp 稀疏类的裸骨接口, 支持单精度,实数/复数。 用法: A=gcsparse(B,[格式: 0=coo, 1=csr]); 或者A=gcsparse(col,row,val,[nrows,[ncols,[格式]]]); 输入 B 是一个 matlab 数组、稀疏数组或 gcarray。 重载运算符: ctranspose: B=A.'; 转置:B=A'; 乘法:x=A*y; (spmv) 格式转换: B=real(A);A=complex(B);B=gcsparse(A,format); rowptr=ptr2row(A); 行 =grow2ptr(A); 例子: 真实/复杂速度测试:testgsparse.m accumarray: testRadavg.m 模板:testgnufft.m(氡变换示例) 笔记: 格式转换 row2ptr 和 ptr
2022-09-07 04:43:23 60KB matlab
1
spmv的串行和cpu、gpu并行性能测试demo
2022-05-16 12:20:04 762KB 并行计算 MPI CUDA
1
SpMV在CPU–GPU异构计算系统上的混合计算方法
2021-12-12 20:40:43 1.44MB 研究论文
1
SpMV_CSR 使用压缩稀疏行格式的稀疏矩阵矢量乘法来编译代码,请使用gcc CSR.c mmio.c -o csr ./csr [filename.mtx]
2021-12-07 14:48:48 2.88MB C
1
分散的SpMV SpMV在某些分布方法上,例如图/超图分区。
2021-10-26 14:57:05 287KB C++
1
稀疏矩阵矢量乘法(SpMV)在几乎所有科学计算中都是不可避免的,例如用于求解线性系统和特征值问题的迭代方法。 随着图形处理单元(GPU)的出现和发展,应该为SpMV构建高效的格式。 SpMV的性能主要由稀疏矩阵的存储格式决定。 基于JAD格式的思想,本文改进了ELLPACK-R格式,减少了经纱中不同线程之间的等待时间,并且在我们的实验结果中,速度提高了约1.5。 与其他格式(例如CSR,ELL,BiELL等)相比,我们的SpMV格式性能在测试矩阵的70%以上是最佳的。 我们提出了一种基于参数的方法来分析性能对不同格式的影响。 另外,构造了一个公式来计算计算次数和迭代次数。
2021-08-26 10:07:24 1.27MB 行业研究
1
LightSpMV是一种使用标准压缩稀疏行(CSR)存储格式的新颖CUDA兼容稀疏矩阵矢量乘法(SpMv)算法。 我们已经使用各种稀疏矩阵评估了LightSpMV,并将其与最新的CUSP和cuSPARSE中基于CSR的SpMV子程序进行了比较。 性能评估表明,在单个Tesla K40c GPU上,LightSpMV优于CUSP和cuSPARSE,与CUSP相比,分别提高了2.60和2.63,与cuSPARSE相比,分别达到了1.93和1.79的单精度和双精度。
2021-06-06 23:16:20 393KB 开源软件
1
稀疏矩阵的DIA/ELLPACK/COO/CSR/HYB表示形式,以及各表示形式下的稀疏矩阵乘法(稀疏大矩阵*矢量)的CUDA实现。对于矩阵中每一行稀疏元素个数较统一的情况,ELLPACK表示最佳,其次是HYB(ELL+COO)。关于稀疏矩阵的研究很多,这里列出的仅是凤毛麟角,有兴趣的朋友我们一起探讨。
2019-12-21 19:56:45 3.13MB 稀疏矩阵乘法 spmv CUDA
1