Parallel SGD   Parallel-SGD v0.7   本项目为分布式并行计算框架&简易CPU神经网络模型库。可用于联邦学习和分布式学习中的关于网络架构和通信编码部分的实验,参考ICommunication_Ctrl接口说明( );可用于神经网络模型分割与模型验证,参考 nn 库使用说明();可用于分布式并行计算实验,参考 executor 说明()。 参数说明 工作节点参数   所有的参数都通过 job_submit.py 传入,worker节点无需传入任何参数。启动时,使用以下命令启动Worker,无需传入参数。当任务提交时,节点会自动申请并获取工作状态信息。 python worker.py 注意:每个worker所在的计算机都需要允许15387端口的TCP传入。 注意:Worker启动后就进入无人值守状态,可以反复提交任务无需重启。 任务提交 (已弃用)   提交任
2022-03-14 10:49:42 22.31MB Python
1
SGD随机梯度下降Matlab代码
2022-02-25 09:09:57 16KB matlab 开发语言
1
上一次,写了MGD、SGD、MBGD的代码实现,现在,我们来康康实例 我们以大名鼎鼎的鸢尾花数据集为例: https://archive.ics.uci.edu/ml/machine-learning-databases/iris/ 下载这个iris.data即可 将其置于当前工作文件夹即可 先导入需要的库: import numpy as np import pandas as pd import random 然后将我们上一次写的函数copy过来: def MGD_train(X, y, alpha=0.0001, maxIter=1000, theta_old=None):
2021-12-21 21:10:18 78KB sgd 回归 大数据
1
随机梯度下降的稳定性和最优性 这是正在进行的论文的方法和算法的随附代码实现。 维护者 Dustin Tran < > 参考 弗朗西斯·巴赫 (Francis Bach) 和埃里克·穆林 (Eric Moulines)。 收敛速度为 O(1/n) 的非强凸平滑随机近似。 神经信息处理系统的进展,2013 年。 杰罗姆·弗里德曼、特雷弗·哈斯蒂和罗伯特·蒂布希拉尼。 通过坐标下降的广义线性模型的正则化路径。 统计软件杂志,33(1):1-22, 2010。 瑞·约翰逊和张彤。 使用预测方差减少加速随机梯度下降。 神经信息处理系统的进展,2013 年。 大卫·鲁珀特。 来自缓慢收敛的 robbins-monro 过程的有效估计。 技术报告,康奈尔大学运筹学和工业工程,1988 年。 魏旭。 使用平均随机梯度下降实现最优的一次通过大规模学习。 arXiv 预印本 , 2011。
2021-12-11 18:47:04 34KB R
1
利用Matlab构建深度前馈神经网络以及各类优化算法的应用(SGD、mSGD、AdaGrad、RMSProp、Adam)-附件资源
2021-12-09 16:28:40 23B
1
使用神经网络进行样本训练,要实现随机梯度下降算法。这里我根据麦子学院彭亮老师的讲解,总结如下,(神经网络的结构在另一篇博客中已经定义): def SGD(self, training_data, epochs, mini_batch_size, eta, test_data=None): if test_data: n_test = len(test_data)#有多少个测试集 n = len(training_data) for j in xrange(epochs): random.shuffle(training_data) mini
2021-12-02 20:24:28 40KB python python函数 python算法
1
signSGD:非凸问题的压缩优化 在这里,我存放了原始signSGD论文(ICML-18)的mxnet代码。 我在此处放置了代码,以方便在论文中重现结果,并且该代码并非旨在用于开发目的。 特别是,此实现不会从压缩中获得任何加速。 一些链接: 。 在上有关该论文的更多信息。 我的合着者:, , 。 [2021年1月更新]如,此代码库使用了sign函数的实现,该函数映射sign(0) --> 0 。 的测试表明,随机映射sign(0) --> ±1的实现可能没有什么区别。 在的中,我们使用了确定性映射sign(0) --> +1 。 一般说明: Signum在mxnet中作为官方优化器实现,因此要在此代码库中使用Signum,我们将字符串“ signum”作为命令行参数传递。 如果您不使用我们建议的超参数,请小心调整它们。 Signum超参数通常与Adam超参数相似,而不
2021-11-16 10:08:21 70.22MB JupyterNotebook
1
AdaBound一种优化器,其训练速度与Adam一样快,并且与SGD一样好,用于针对CV,NLP等领域中的各种流行任务开发最新的深度学习模型。 。 (2019)。 Ada AdaBound一种优化器,其训练速度与Adam一样快,并且与SGD一样好,用于针对CV,NLP等领域中的各种流行任务开发最新的深度学习模型。 al。 (2019)。 具有学习率动态范围的自适应梯度方法。 在过程中。 的ICLR 2019版本。快速链接网站演示安装AdaBound需要Python 3.6.0或更高版本。 我们目前提供PyTorch版本,并且TensorFlow的AdaBound即将推出。 通过安装
2021-10-29 21:06:55 1.33MB Python Deep Learning
1
vs2019编译的libmq(zeromq) 有问题可联系我QQ https://github.com/zeromq/libzmq
2021-10-21 19:42:18 37.57MB libmq
1
线性分类器-梯度下降法实现代码 之前我们从简单的开始,先给出一条直线,然后依次给出一些点,每给一个点,就按照规则对点进行分类,现在我们往前进一步,给定一群数据点,用直线把他们分开!
2021-09-30 15:03:46 88KB c# 线性分类器
1