灰狼优化算法(GWO)具有较强的局部搜索能力和较快的收敛速度,但在解决高维和复杂的优化问题时存在全局搜索能力不足的问题.对此,提出一种改进的GWO,即新型反向学习和差分变异的GWO(ODGWO).首先,提出一种最优最差反向学习策略和一种动态随机差分变异算子,并将它们融入GWO中,以便增强全局搜索能力;然后,为了很好地平衡探索与开采能力以提升整体的优化性能,对算法前、后半搜索阶段分别采用单维操作和全维操作形成ODGWO;最后,将ODGWO用于高维函数和模糊C均值(FCM)聚类优化.实验结果表明,在许多高维Benchmark函数(30维、50维和1000维)优化上,ODGWO的搜索能力大幅度领先于GWO,与state-of-the-art优化算法相比,ODGWO具有更好的优化性能.在7个标准数据集的FCM聚类优化上, 与GWO、GWOepd和LGWO相比,ODGWO表现出了更好的聚类优化性能,可应用在更多的实际优化问题上.
1
【智能优化算法 】基于烟花算法求解单目标优化问题含Matlab源码.zip
2022-03-08 09:41:28 1.01MB matlab
1
在多峰值函数优化中,基本粒子群算法进化后期收敛速度较慢,对粒子群算法进行了改进
2022-03-02 21:06:54 412KB 多峰值函数 粒子群算法
1
烟花算法是最近提出的一种效率较高的优化算法,已被用于求解众多的优化问题。 给出利用烟花算法求解非线性方程组的方法。 实验表明,所提出的算法对于求解变量耦合的非线性方程组比其他算法占有优势,进一步分析存在优势的原因。
2022-01-16 16:22:46 500KB 群智能算法
1
这是一个黑盒函数优化工具包,可在给定有限的噪声评估预算的情况下找到函数的全局最优值。 该算法不需要了解函数的平滑度。 StoSOO 遵循乐观策略,在函数域的分层分区上迭代构建置信上限,以决定下一个采样点。 StoSOO 的有限时间分析表明,即使函数的局部平滑度未知,它的性能几乎与最佳的专门调整算法一样好。 https://sequel.lille.inria.fr/Software/StoSOO
2022-01-08 21:44:27 6KB matlab
1
多种群遗传算法的函数优化算法matlab代码及谢菲尔德遗传算法工具箱,遗传算法相关
2022-01-06 10:51:01 430KB matlab 遗传算法 谢菲尔德
1
无约束优化实践 训练一个神经网络 优化理论实践 用了一周的时间学习了一下最优化理论这门课,为了更深度地理解各种优化方法的理念和算法过程,自己把这些算法应用到实践中是很必要的。为此我设计了和优化算法相关的四个实验项目,在这里和大家分享一下。 无约束优化方法 前馈神经网络 根据链式法则,从输出层直接对误差函数求导得到的误差(这里我们简写为δ),就可以通过和上面的这些局部导数不断做乘积、并把新的δ传播到上一层,就能计算得到所有参数的导数。通过一阶导数,就能实现基本的梯度优化方法。 训练方法 神经网络可以很好地处理函数拟合问题,因为模型带有大量可调节的参数,而且内置了非线性的激励函数,这
2022-01-02 20:37:44 528KB delta函数 优化 导数
1
基于人工鱼群算法的连续函数优化通用MATLAB源代码
1
在这个程序中,目标函数是一元函数,然后变量进行了编码。子代选择使用的是轮盘赌法。多目标函数和多变量函数,以及轮盘赌法和覆盖法。变量编码与未编码。请看我其他上传的资源。都自己运行过。注释详细。
1
烟花算法对Ackley测试函数的python实现
2021-12-21 18:10:28 8KB 烟花算法 python FWA