自己实现的C++版img2col代码+测试代码+pytorch_python验证代码,代码支持任意尺寸的原图大小的像素输入,以及任意个卷积核个数,卷积核可以为任意size,支持存在常数bias
2022-11-07 16:21:39 135KB img2col 卷积计算
1
全局频谱反卷积 全局光谱解卷积+峰优化器 gsd使用的算法是搜索拐点以确定峰的位置,并且峰的宽度在2个拐点之间。 GSD的结果产生一个包含{x,y和width}的对象数组。 但是,此宽度基于拐点,并且可能与“ fwhm”(全宽一半最大值)不同。 第二种算法( optimizePeaks )将宽度优化为FWHM以匹配原始峰。 因此,优化后的宽度始终为FWHM,无论使用哪个函数。 参数 minMaxRatio = 0.00025(0-1) 根据给定峰的相对高度与最高峰的比较来确定是否应将给定峰视为噪声的阈值。 broadRatio = 0.00(0-1) 如果broadRatio大于0,则所有二阶导数小于broadRatio * maxAbsSecondDerivative的峰都将被标记为true的软掩码。 noiseLevel = 0(-inf,inf) 频谱单位的噪声阈值 max
2022-11-07 11:01:26 2.2MB JavaScript
1
仿真BPSK调制在AWGN信道下分别使用卷积码和不使用卷积码的性能,其中,卷积码的约束长度为7,生成多项式为[171,133],码率为1/2,译码分别使用硬判决译码和软判决译码。
1
基于矩阵转换的卷积计算优化方法
2022-11-05 23:26:08 883KB 研究论文
1
这个是我自己写的例程,调试环境是CCSv8.3 一共有三个工程文件,将文件夹复制到软件的工作文件夹里面就可以正常调试了 程序只做过仿真调试运行,模拟输入方法是读取dat文件到内存,再将内存区域的输出数组导出到dat文件里面。 程序是213卷积码的编译码器设计,三个工程文件夹一个是编码器一个是译码器,最后一个编译码的程序都有,可以整体观察编译码过程的数据变化。
2022-11-05 20:02:41 172KB DSP 卷积码编译码器 213卷积码
1
基于最新的tensorflow·2.0框架下的全卷积神经网络,十分适合小白用户查看。一看即懂。代码优化十分简单,没有掺杂复杂建模,一个程序运行到底!
2022-11-05 17:06:35 6KB tensorflow2.0
1
udeconv - 无监督 Wiener-Hunt 反卷积 xEap = udeconv(data, ir, ...) [xEap, gnChain, gxChain] = udeconv(data, ir, ...) 通过“ir”返回“data”的反卷积。 该算法是一个随机迭代过程(Gibbs 采样器),允许自动调整正则化参数,请参阅下面的参考资料。 维数没有具体限制。 调用 [xEap, gnChain, gxChain, xStd] = udeconv(...) 允许以每次迭代的 fft 成本计算 xEap 周围的协方差矩阵的对角线。 如果您使用这项工作,请在下面添加对参考文献的引用。 与八度兼容。 参数 数据——数据 ir——冲动React 可选 Optionnals 参数的形式为 (..., 'key', val, ...)。 'criterion', val --
2022-11-04 21:00:59 96KB matlab
1
用卷积滤波器matlab代码Tensorflow中的VDSR 使用非常深的卷积网络实现精确图像超分辨率的Tensorflow实现。 GT 双三次 神经网络 VDSR 实施细节 网络架构 层 层数 过滤器尺寸 输入,输出通道 激活功能 输入层 1个 3 x 3 (1,64) ReLU 隐藏层 18岁 3 x 3 (64,64) ReLU 输出层 1个 3 x 3 (64,1) -- 实施细节 损失函数 均方误差(Euclidean损失) 剩余学习 正则化 与原始纸张不同,不使用正则化 优化 权重初始化:He方法 偏差初始化:零初始化 亚当优化器 学习率:0.0001 纪元:60 批次大小:128 每个时期的迭代次数:6418 没有学习率衰减,使用了梯度裁剪 训练数据集 使用具有数据增强(旋转或翻转)的291个图像数据集 资料扩充 以(1.0,0.9)比例缩小 旋转(0、90、180、270)度 左右翻转 生成了超过700,000个补丁对(最大20GB) 安装 git clone https://github.com/jinsuyoo/VDSR-Tensorflow.git 要求 您需要执
2022-11-03 16:36:37 32.48MB 系统开源
1
用 labview编的关于FFT,离散卷积和,数字滤波器的设计的程序代码
2022-11-03 10:10:42 220KB labview_滤波 fft labview__去躁 labview_卷积
1
MATLAB实现CNN-LSTM卷积长短期记忆神经网络多特征分类预测(完整源码和数据) 数据为多特征分类数据,输入15个特征,分四类,程序乱码是由于版本不一致导致,可以用记事本打开复制到你的文件。 运行环境MATLAB2020b及以上。