基于遗传算法(GA)优化长短期记忆网络(GA-LSTM)的时间序列预测。 优化参数为学习率,隐藏层节点个数,正则化参数,要求2018及以上版本,matlab代码。 评价指标包括:R2、MAE、MSE、RMSE和MAPE等,代码质量极高,方便学习和替换数据。
2024-07-27 16:14:12 28KB 网络 网络 matlab lstm
1
基于灰狼算法(GWO)优化门控循环单元(GWO-GRU)的时间序列预测。 优化参数为学习率,隐藏层节点个数,正则化参数,要求2020及以上版本。 评价指标包括:R2、MAE、MSE、RMSE和MAPE等,代码质量极高,方便学习和替换数据。
2024-06-06 19:57:03 27KB
1
盲解卷积是指在不确切了解卷积中使用的脉冲响应函数的情况下对信号进行解卷积。 这通常是通过对输入和/或脉冲响应添加适当的假设来恢复输出来实现的。 我们在这里考虑输入信号的稀疏性或简约性。 它通常用 l0 成本函数来衡量,通常用 l1 范数惩罚来解决。 l1/l2 比率正则化函数在最近的一些工作中显示出检索稀疏信号的良好性能。 事实上,它受益于盲语境中非常理想的尺度不变性。 然而,l1/l2 函数在解决由于在当前恢复方法中使用这种惩罚项而导致的非凸和非光滑最小化问题时会带来一些困难。 在本文中,我们提出了一种基于对 l1/l2 函数的平滑逼近的新惩罚。 此外,我们开发了一种基于近端的算法来解决涉及该函数的变分问题,并推导出理论收敛结果。 我们通过与最近处理精确 l1/l2 项的交替优化策略进行比较,在地震数据盲解卷积的应用中证明了我们的方法的有效性。 SOOT 工具箱(Smooth One-O
2024-05-30 12:43:58 48KB matlab
1
基于粒子群算法优化长短期记忆网络(PSO-LSTM)的时间序列预测。 优化参数为学习率,隐藏层节点个数,正则化参数,要求2018b及以上版本,matlab代码。 评价指标包括:R2、MAE、MSE、RMSE和MAPE等,代码质量极高,方便学习和替换数据。
2024-05-13 10:49:35 26KB 网络 网络 matlab lstm
1
基于粒子群算法(PSO)优化门控循环单元(PSO-GRU)的时间序列预测。 优化参数为学习率,隐藏层节点个数,正则化参数,要求2020及以上版本。 评价指标包括:R2、MAE、MSE、RMSE和MAPE等,代码质量极高,方便学习和替换数据。
2024-03-07 14:13:28 26KB
1
deep-learning personal practice 深度学习个人练习,该项目实现了深度学习中一些常用的算法,内容包括: 四种初始化方法:zero initialize, random initialize, xavier initialize, he initialize。 深度神经网络 正则化 dropout 三种梯度下降方法:BGD, SGD, mini-batch 六种优化算法:momentum、nesterov momentum、Adagrad、Adadelta、RMSprop、Adam 梯度检验 batch normalization recurrent neural network (RNN) Note: 下列 1-10中网络架构主要为四大块: initialize parameters、forward propagation、backward propagati
2023-10-06 17:02:27 341KB 附件源码 文章源码
1
在联合冲击滤波器和非线性各向异性扩散滤波器对含噪图像做预处理的基础上,利用边缘检测算子选取自适应参数,构建能同时兼顾图像平滑去噪与边缘保留的自适应全变分模型,并基于Bregman迭代正则化方法设计了其快速迭代求解算法。实验结果表明,自适应去噪模型及其求解算法在快速去除噪声的同时保留了图像的边缘轮廓和纹理等细节信息,得到的复原图像在客观评价标准和主观视觉效果方面均有所提高。
1
nmf的matlab代码SDGNMF 用于图像共聚的稀疏双图正则化NMF 此存储库实现了Jing Sun等人针对“稀疏双图正则化NMF进行图像共聚”提出的聚类算法的迭代更新过程。此代码在人脸上进行聚类实验(ORL-32和PIE-pose27 )和对象(COIL20)数据集以获得AC和NMI,然后验证SDGNMF的聚类有效性。 此外,该代码还可以显示我们的稀疏性研究和运行时间,以便与其他基于NMF的聚类方法进行比较。 依存关系 该代码支持Matlab。 跑步 主目录 下载本文 引文 如果您认为此代码有用,请引用: 孙静,王志辉,孙富明,李浩杰*。 用于图像共聚的稀疏双图正则化NMF。 神经计算,2018,316(NOV.17):156-165。
2023-04-14 21:01:13 40.68MB 系统开源
1
L1正则化技术F(w;x,y)=J(w;x,y)+α∣∣w∣∣1=J(w;x,y)+α∑i=1n∣wi∣假设w∗是损失函数J(w;x,y)最优解,J(w;x,y)在w∗处泰勒展J(w;x,y)=J(w∗;x,y)+J′(w∗;x,y)(w−w∗)+12!J′′(w∗;x,y)(w−w∗)2  ∵w∗是J(w;x,y)最优解,则J′(w∗;x,y)=0,则可以去除J(w∗;x,y)+12!J′′(w∗;x,y)(w−w∗)2J′′是二阶导数,当是高维的时候就变成了H矩阵了。J(w∗;x,y)+12!H(w−w∗)2∴F(w;x,y)=J(w;x,y)+α∣∣w∣∣1=J(w∗;x,y)+12!H
2023-03-18 15:49:55 38KB 导数 正则 正则化
1