适用于计算图像一阶梯度,计算方法与matlab的gradient方法一致.
2022-06-15 14:08:24 1KB 图像梯度
1
找到最小或最大广义特征值和向量的算法 该算法尝试使用增强的共轭梯度方法最大化或最小化
2022-06-10 09:07:02 12KB julia 算法
Fortune算法、Lloyd算法和梯度下降的Julia实现应用
2022-06-10 09:06:58 23KB julia 算法
ddpg-aigym 深度确定性策略梯度 Tensorflow中深度确定性策略梯度算法的实现(Lillicrap等人 。) 如何使用 git clone https://github.com/stevenpjg/ddpg-aigym.git cd ddpg-aigym python main.py 培训期间 一旦训练 学习曲线 InvertedPendulum-v1环境的学习曲线。 依存关系 Tensorflow(在tensorflow版本0.11.0rc0 ) OpenAi体育馆 Mujoco 产品特点 批量归一化(提高学习速度) 梯度转换器(在arXiv中提供: ) 注意 使用不同
1
优化方法:最速下降、阻尼牛顿、共轭梯度、BFGS法 matlab程序,以求解Rosen Brock函数极小值为例 程序有详细注释。
2022-06-09 20:00:59 4KB 优化方法
AdaboostOnMNIST 这是使用两个不同的弱学习者从头开始实现Adaboost算法的方法:决策树分类器和梯度提升分类器。 Adaboost在MNIST上运行以告知奇数和偶数。 经过scikit Learn模型的adaboost测试,并获得了更高的分数。 最小的训练误差为%1.8,在7次迭代中进行了梯度增强。 函数调用为adaboost(X_train,Y_train,inversions_t,Classifier_type),有两种类型的分类器,“ Gradient_Boost”和“ Decision_tree”可以放入第4个输入中。 adaboost返回一个4元组(stump,stump_weights,errors,D_weights) 您可以使用predict(stumps,stump_weights,X_test)对训练集进行预测。 这将返回该X_test的标签数组
2022-06-09 17:13:26 2KB Python
1
求解大规模无约束最小化问题,使用信赖域算法,其中信赖域子问题使用截断共轭梯度
资源包含Logistic回归算法,以及一个应用实例:预测病马死亡率。可直接执行。
2022-06-06 20:24:02 12KB Logistic sigmoid 梯度上升算法
1
神经网络之解决梯度消失或爆炸.pdf
Vector.h 是向量类,包含生成向量及各种操作符重载 Template.h 是各种表达式模板的集合,包含必要的向量加减乘法操作符重载。 Matrix.h 是AX=b中,关键A数组生成的类,这里我用了数组压缩技术,即把带状数组A压缩,使程序执行更有效率。 cgexpr.cpp是Main函数,包括使用三种时间差分即 Explicit,Implicit 和 CrankNicolson。 运行程序时需要在Command line里按如下格式输入10个指令: cgexpr hx hy tend tao a iterations eps residual.txt result.txt 其中cgexpr是主函数文件名,hx,hy,是有限差分对应的x,y大小,tend是时间长度,tao是时间差分对应的ht大小,a是使用哪种时间差分格式:0是Explicit,0.5是CrankNicolson,1是implicit.iterations 是一个时间段里循环的最大次数,eps是你设定的误差。residual.txt 和 result.txt 分别是误差和最后结果输出。 这个程序实现的偏微分方程是: @u/@t= (delta)u 你可以根据你需要计算的偏微分方程,修改Matrix.h中对应的m,n,t的表达式即可。具体表达式需根据你的方程推出。
2022-06-03 05:46:40 28KB 偏微分方程 有限差分 c++ 表达式模板
1