摘要:灰狼优化算法(GWO)具有较强的局部搜索能力和较快的收敛速度,但在解决高维和复杂的优化问题时存在全局搜索能力不足的问题.对此,提出一种改进的GWO,即新型反向学习和差分变异的GWO(ODGWO).首先,提出一种最优最差反向学习策略和一种动态随机差分变异算子,并将它们融入GWO中,以便增强全局搜索能力;然后,为了很好地平衡探索与开采能力以提升整体的优化性能,对算法前、后半搜索阶段分别采用单维操作和全维操作形成ODGWO;最后,将ODGWO用于高维函数和模糊C均值(FCM)聚类优化.实验结果表明,在许多高维Benchmark函数(30维、50维和1 000维)优化上, ODGWO的搜索能力大幅度领先于GWO,与state-of-the-art优化算法相比, ODGWO具有更好的优化性能.在7个标准数据集的FCM聚类优化上,与GWO、GWOepd和LGWO相比, ODGWO表现出了更好的聚类优化性能,可应用在更多的实际优化问题上.
注:因版权方要求,不能公开全文,如需全文,请咨询杂志社
热门期刊服务
教育研究与评论·课堂观察 首都医科大学学报·社科版 教育研究与评论·小学教育教学 雷达与对抗 冶金设备管理与维修 高校辅导员学刊 大学物理实验 产业质量研究 安徽农学通报·下半月刊 集美大学学报·自然科学版 临床普外科电子 中华活页文选·高一版相关文章
改进工作作风心得体会