机器学习 SGD BGD 批量梯度下降 随机梯度下降
2022-03-24 18:20:01 628KB SGD_BGD
1
SGD随机梯度下降Matlab代码
2022-02-25 09:09:57 16KB matlab 开发语言
1
使用随机梯度下降法解决无约束优化问题。
2022-01-08 21:49:32 2KB matlab
1
大规模数据聚类的基于随机梯度下降的K-Means算法
2021-12-16 16:15:52 3.5MB 研究论文
1
随机梯度下降的稳定性和最优性 这是正在进行的论文的方法和算法的随附代码实现。 维护者 Dustin Tran < > 参考 弗朗西斯·巴赫 (Francis Bach) 和埃里克·穆林 (Eric Moulines)。 收敛速度为 O(1/n) 的非强凸平滑随机近似。 神经信息处理系统的进展,2013 年。 杰罗姆·弗里德曼、特雷弗·哈斯蒂和罗伯特·蒂布希拉尼。 通过坐标下降的广义线性模型的正则化路径。 统计软件杂志,33(1):1-22, 2010。 瑞·约翰逊和张彤。 使用预测方差减少加速随机梯度下降。 神经信息处理系统的进展,2013 年。 大卫·鲁珀特。 来自缓慢收敛的 robbins-monro 过程的有效估计。 技术报告,康奈尔大学运筹学和工业工程,1988 年。 魏旭。 使用平均随机梯度下降实现最优的一次通过大规模学习。 arXiv 预印本 , 2011。
2021-12-11 18:47:04 34KB R
1
SVM编程(内含数据集) 您需要使用课程中介绍的随机梯度下降法来实现一个版本的软边距支持向量机。您将在给定的数据集(从课程网站下载)上运行代码,然后对测试数据集进行预测。衡量你得分的标准是你在测试数据集上的准确性。(提示:由于测试数据集中没有给定的标签,因此需要从训练集中创建验证数据集以优化参数)。
2021-12-10 17:18:12 514KB SVM 大数据 机器学习 随机梯度下降法
1
fmin_adam:亚当随机梯度下降优化算法的Matlab实现
1
使用神经网络进行样本训练,要实现随机梯度下降算法。这里我根据麦子学院彭亮老师的讲解,总结如下,(神经网络的结构在另一篇博客中已经定义): def SGD(self, training_data, epochs, mini_batch_size, eta, test_data=None): if test_data: n_test = len(test_data)#有多少个测试集 n = len(training_data) for j in xrange(epochs): random.shuffle(training_data) mini
2021-12-02 20:24:28 40KB python python函数 python算法
1
nn束 多层感知器和三个优化器的实现:具有NAG的随机梯度下降,具有标准标准近邻束方法和 安装 首先,您需要克隆此存储库: $ git clone https://github.com/vdecaro/nn-bundle $ cd nn-bundle 使用此存储库需要安装conda 。 需要使用python3.7的新环境: $ conda create -n yourenvname python=3.7 $ conda activate yourenvname 下一步是包括将Gurobi安装到您的环境中的渠道: $ conda config --add channels http://conda.anaconda.org/gurobi 现在,您只需启动以下命令即可将所需的软件包安装到您的环境中: $ conda install --file requirements.txt
2021-11-23 09:37:43 733KB Python
1
本专栏是书《深度学习入门》的阅读笔记一共八章: 第一章深度学习中的Python基础。主要讲解了深度学习将要用到的python的基础知识以及简单介绍了numpy库和matpoltlib库,本书编写深度学习神经网络代码仅使用Python和numpy库,不使用目前流行的各种深度学习框架,适合入门新手学习理论知识。 第二章感知机。主要介绍了神经网络和深度学习的基本单元感知机。感知机接收多个输入,产生一个输出,单层感知器可以实现与门,或门以及与非门,但是不能实现异或门,异或门的实现需要借助多层感知机,这也就是说,单层感知机只能表示线性空间,而非线性空间的表示需要借助多层感知机。 第三章神经网络——基于n
2021-11-19 15:19:07 94KB mp num numpy
1