多尺度形态梯度算法及其在图像分割中的应用
2021-12-03 11:10:09 446KB 梯度算法
1
使用神经网络进行样本训练,要实现随机梯度下降算法。这里我根据麦子学院彭亮老师的讲解,总结如下,(神经网络的结构在另一篇博客中已经定义): def SGD(self, training_data, epochs, mini_batch_size, eta, test_data=None): if test_data: n_test = len(test_data)#有多少个测试集 n = len(training_data) for j in xrange(epochs): random.shuffle(training_data) mini
2021-12-02 20:24:28 40KB python python函数 python算法
1
这篇文章将按照时间线详细讲解各类深度学习优化器,包括常用与不常用的(动量、NAG、adam、Adagrad、adadelta、RMSprop、adaMax、Nadam、AMSGrad)本文档将对每个优化器进行更加清晰的讲解,包括数学表达式推导和现实含义,所以可以更容易理解每一个优化器,对于深度学习小白来说也可以很容易看懂
2021-12-02 11:38:53 1.88MB optimization 深度学习 优化器 梯度下降
1
计算无约束的二元函数的最值,算法思想就是通过不断找出沿着当前值的梯度方向最大化f的a值,就是梯度的矢量的a倍,找出新的x值,直到梯度的模小于给定的阀值为止
2021-12-02 10:45:21 1KB 梯度算法 MATLAB
1
欧拉公式求长期率的matlab代码ANCF_beam 用梯度不足的ANCF梁单元建模的柔性梁的Matlab仿真。 1.通过修改文件ancf_params.m设置问题参数 这些包括: 总长(L) 半径(r) ANCF电缆元件的数量(ne) 以及材料特性: 弹性模量(pE) 材料密度(p.rho) 和末端约束(0:自由,1:球形接头,2:焊接接头) 左侧(p.leftCnstr) rightSide(p.rightCnstr) 默认参数值对应于长度为3且半径为0.02的电缆,该电缆两端都夹紧,并使用5个ANCF电缆元素进行建模。 弹性模量为2e7,密度为7200。 2.调用ancf_beam函数 指定 持续时间(TEND) 步长(H) 整合方法(METHOD) ancf_beam Simulate a flexible noodle modeled with ANCF beam elements [data,params] = ancf_beam(TEND, H, METHOD) simulates a noodle over the time interval [0,TEND] usin
2021-12-01 09:30:09 18KB 系统开源
1
基于梯度法编写的RBF神经网络程序.,分享给大家
2021-11-30 21:24:30 969B RBF 基于梯度法
1
Policy Gradient algorithms (REINFORCE, NPG, TRPO, PPO)
2021-11-30 17:04:35 132.72MB Python开发-机器学习
1
Carnegie Mellon 大学Jonathan Richard Shewchuk 写的关于共轭梯度法很的材料,讲解深入浅出,结合图形说明
2021-11-30 15:26:19 503KB 共轭梯度 介绍
1
DRL-2018 该存储库的功能是2018年夏季深度强化学习研究项目的工作(由Keith Ross教授建议,由纽约大学上海分校院长本科研究基金资助)。 在此项目中,我们尝试将“策略梯度”方法(香草策略梯度(aka REINFORCE),Actor-Critic和PPO)与“进化策略”相结合,以设计出一种提高样本效率的混合算法。 在MuJoCo基准上评估了所提出算法的性能。 参考: 加强:罗纳德·J·威廉姆斯。 用于连接符增强学习的简单统计梯度跟踪算法。 机器学习,8(3-4):229–256,1992年。 影评人:理查德·萨顿(Richard S Sutton),大卫·麦卡莱斯特(David A McAllester),萨特德·辛格(Satinder P Singh)和伊谢·曼苏(Yishay Mansour)。 通过函数逼近进行强化学习的策略梯度方法。 在《神经信息处理系统的进步
2021-11-29 19:50:58 15KB Python
1
通过python程序,采用牛顿法和梯度下降法求解多元一次函数的线性回归方程 梯度下降法原理 梯度就是表示某一函数在该点处的方向导数沿着该方向取得较大值,即函数在当前位置的导数 Δ=df(Ɵ)÷d(Ɵ) 上式中,Ɵ是自变量,f(Ɵ)是关于Ɵ的函数,Ɵ表示梯度 简单来说Δ就是函数相对于自变量Ɵ的求导 梯度下降算法公式: Ɵ=Ɵ0-Ƞ*Δf(Ɵ0) 其中Ƞ是学习因子,由我们自己定义,Ɵ即为数据更新后下一个Ɵ0 f(Ɵ)=f(Ɵ0)+(Ɵ-Ɵ0)*Δf(Ɵ0) 通过该公示不断地进行数据迭代,就可以得到最终的数据 梯度下降法求解二元一次线性回归方程 import pandas as pd import
2021-11-29 19:39:15 100KB python python程序 函数
1