自适应滤波中基于matlab的最小均方原则算法。此算法具有最好的性能和最小的存储空间等优点
2021-08-30 16:19:04 661B 自适应算法 最小均方原则 matlab
1
粒子群 模拟退火 蚁群算法MATLAB实现,采用了TSP数据进行实验。
2021-08-29 14:40:19 5KB MATLAB 蚁群 粒子群 模拟退火
1
进程调度算法的实现计算机操作系统课程设计
LM算法,全称为Levenberg-Marquard算法,它可用于解决非线性最小二乘问题,多用于曲线拟合等场合。 LM算法的实现并不算难,它的关键是用模型函数 f 对待估参数向量 p 在其邻域内做线性近似,忽略掉二阶以上的导数项,从而转化为线性最小二乘问题,它具有收敛速度快等优点。LM算法属于一种“信赖域法”——所谓的信赖域法,此处稍微解释一下:在最优化算法中,都是要求一个函数的极小值,每一步迭代中,都要求目标函数值是下降的,而信赖域法,顾名思义,就是从初始点开始,先假设一个可以信赖的最大位移 s ,然后在以当前点为中心,以 s 为半径的区域内,通过寻找目标函数的一个近似函数(二次的)的最优点,来求解得到真正的位移。在得到了位移之后,再计算目标函数值,如果其使目标函数值的下降满足了一定条件,那么就说明这个位移是可靠的,则继续按此规则迭代计算下去;如果其不能使目标函数值的下降满足一定的条件,则应减小信赖域的范围,再重新求解。 事实上,你从所有可以找到的资料里看到的LM算法的说明,都可以找到类似于“如果目标函数值增大,则调整某系数再继续求解;如果目标函数值减小,则调整某系数再继续求解”的迭代过程,这种过程与上面所说的信赖域法是非常相似的,所以说LM算法是一种信赖域法。
2021-08-27 17:49:15 66KB LM C++
1
人工神经网络 BP算法 c++实现,例子是电力负荷预测。
2021-08-27 13:25:41 13KB ann bp 反射传播
1
Cholesky的c实现 A=B*B',网上好像都没用。。。
2021-08-26 20:32:15 2KB Cholesky c实现
1
随机方差减少算法:深度学习的 SVRG 和 SAGA 优化算法的实现。 随机梯度 (SGD) 是通过神经网络进行反向传播最常用的优化算法,因为它的成本比梯度下降要小。 但是,它的收敛速度非常慢,并且需要降低学习率才能收敛。 2013 年和 2014 年,出现了两种新的“混合算法”。 随机方差减少梯度 (SVRG) 和随机平均梯度增强 (SAGA) 是混合体,因为它们使用梯度的无偏估计,但它们的方差正在消失。 这两种算法具有指数收敛速度。 虽然它们的行为以机器学习目的而闻名,但它们并不用于深度学习主题。 例如,您现在可以在 scikit 学习库 ( ) 中使用 SAGA 对于这个项目,我想对这些算法进行编码以用于深度学习。 我已经使用 PyTorch 框架对这些算法进行了编码。 用法:此代码是用 Python3 编写的,我使用了 jupyter notebook。 您将需要下载以下
2021-08-25 17:41:45 262KB JupyterNotebook
1
Louvain-算法 Louvain算法的实现 该算法的详细信息可以在论文中找到:“大型网络中社区的快速展开,Vincent D Blondel、Jean-Loup Guillaume、Renaud Lambiotte、Etienne Lefebvre,Journal of Statistical Mechanics: Theory and Experiment 2008 (10), P10008 ( 12pp) doi: 10.1088/1742-5468/2008/10/P10008.ArXiv: " 要使用此程序,输入数据格式应与 SNAP 的数据集相同。
2021-08-25 10:57:26 5KB C++
1
匈牙利-穆蒂 Murty 1968年算法的实现,以找到给定分配矩阵的k个最佳成本( )该算法可以与任何算法一起工作,以在原理,但在这种情况下,使用的是Lars Buitinck的匈牙利方法。
2021-08-24 22:58:22 16KB Python
1
广义神经网络的聚类算法(matlab实现),包含源代码和测试数据