主要为大家详细介绍了基于随机梯度下降的矩阵分解推荐算法,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
2021-11-14 11:02:08 109KB python 梯度下降 矩阵分解
1
CADA大师 AISTATS2021论文的Python代码:陈天一,郭子业,孙跃娇,尹沃涛,“ CADA:通信自适应分布式亚当”。 [在线] 参考: 如果我们的代码可以帮助您进行研究,请引用我们的论文。 @misc{chen2020cada, title={CADA: Communication-Adaptive Distributed Adam}, author={Tianyi Chen and Ziye Guo and Yuejiao Sun and Wotao Yin}, year={2020}, eprint={2012.15469}, archivePrefix={arXiv}, primaryClass={cs.LG} } 致谢 该存储库中的代码是以下论文中代码的修改版本。 @misc{chen2020lasg, tit
2021-08-24 20:54:23 24.09MB Python
1
`fmin_adam` 是来自 Kingma 和 Ba [1] 的 Adam 优化算法(具有自适应学习率的梯度下降,每个参数单独使用 Momentum)的实现。 Adam 设计用于处理随机梯度下降问题; 即当仅使用小批量数据来估计每次迭代的梯度时,或使用随机 dropout 正则化时 [2]。 有关示例,请参阅 GIT 存储库: https://github.com/DylanMuir/fmin_adam 用法: [x, fval, exitflag, output] = fmin_adam(fun, x0 <, stepSize, beta1, beta2, epsilon, nEpochSize, options>) 有关详细参考,请参见功能帮助。 github 存储库有几个示例。 参考: [1] Diederik P. Kingma,Jimmy Ba。 “亚当:随机优化方法”
2021-07-31 17:29:35 105KB matlab
1
用于在Unity中绘制线段,很好用,很高级
2021-07-08 09:00:51 17KB 随机梯度下降
1
资源中包含随机梯度下降逻辑回归算法的Python代码和测试数据,python的版本为3.6,您运行代码前,将测试文件路径修改为您本地的存储路径,使用pycharm平台运行即可。
2021-06-24 19:36:46 5KB 逻辑回归 随机梯度法 Logist
1
sklearn实现梯度下降(SGDRegressor)的Jupyter NoteBook文件
2021-06-21 09:10:06 3KB 机器学习 随机梯度下降
1
针对目前的电影推荐算法中,传统的矩阵分解算法对于用户的离散型评分数据集的数据利用率不高的问题,提出基于二项分布的矩阵分解算法的模型,在假定用户的评分数据是服从二项分布的前提下,利用最大后验估计学习得出损失函数,将用户的兴趣度作为影响因子,加入项目之间的邻域影响,其后利用随机梯度下降法针对问题求解。通过在MovieLens数据集上与传统的矩阵分解算法的对比实验,结果表明,提出的算法可以有效的提高推荐精度,表现出良好的稳定性。
1
改动源数据地址即可运行
2021-05-18 17:13:49 376B 随机梯度下降 matlab
1
主要为大家详细介绍了python实现随机梯度下降SGD,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
2021-05-09 20:17:50 40KB python 梯度下降 SGD
1
联邦学习,随机梯度下降
2021-04-24 09:07:59 1.7MB 随机梯度下降 联邦学习
1