灰狼优化算法(GWO)具有较强的局部搜索能力和较快的收敛速度,但在解决高维和复杂的优化问题时存在全局搜索能力不足的问题.对此,提出一种改进的GWO,即新型反向学习和差分变异的GWO(ODGWO).首先,提出一种最优最差反向学习策略和一种动态随机差分变异算子,并将它们融入GWO中,以便增强全局搜索能力;然后,为了很好地平衡探索与开采能力以提升整体的优化性能,对算法前、后半搜索阶段分别采用单维操作和全维操作形成ODGWO;最后,将ODGWO用于高维函数和模糊C均值(FCM)聚类优化.实验结果表明,在许多高维Benchmark函数(30维、50维和1000维)优化上,ODGWO的搜索能力大幅度领先于GWO,与state-of-the-art优化算法相比,ODGWO具有更好的优化性能.在7个标准数据集的FCM聚类优化上, 与GWO、GWOepd和LGWO相比,ODGWO表现出了更好的聚类优化性能,可应用在更多的实际优化问题上.
1