为求解高维优化问题,提出基于反向学习和衰减因子的灰狼优化算法(grey wolf algorithm based on opposition learning and reduction factor,ORGWO).设计一种灰狼反向学习模型,模型考虑问题搜索边界信息和种群历史搜索信息,初始种群阶...为求解高维优化问题,提出基于反向学习和衰减因子的灰狼优化算法(grey wolf algorithm based on opposition learning and reduction factor,ORGWO).设计一种灰狼反向学习模型,模型考虑问题搜索边界信息和种群历史搜索信息,初始种群阶段增加反向学习,增强种群多样性.根据算法各个阶段不同特征引入衰减因子,平衡全局和局部勘探能力.选取8个高维函数和23个不同特征的优化函数对算法性能进行测试,进一步使用收敛性分析,寻优成功率,CPU时间,Wilcoxon秩和检验来评估改进算法,实验结果表明,ORGWO算法在求解高维问题上具有较好的精度,鲁棒性和更快的收敛速度.展开更多
在工程优化中,大多问题是连续优化问题,即函数优化问题。针对布谷鸟算法求解函数优化问题时存在的收敛速度慢、求解精度不高和易陷入局部最优等问题,文中提出非线性惯性权重对数递减和随机调整发现概率的布谷鸟搜索算法(Cuc-koo Search ...在工程优化中,大多问题是连续优化问题,即函数优化问题。针对布谷鸟算法求解函数优化问题时存在的收敛速度慢、求解精度不高和易陷入局部最优等问题,文中提出非线性惯性权重对数递减和随机调整发现概率的布谷鸟搜索算法(Cuc-koo Search Algorithm with Logarithmic Decline of Nonlinear Inertial Weights and Random Adjustment Discovery Probability,DWCS)。首先,在布谷鸟寻窝的路径和位置更新公式中,设计一种随进化迭代次数非线性递减的惯性权重来改进鸟巢位置的更新方式,以协调布谷鸟算法的探索和开发能力;其次,引入随机调整发现概率代替固定值发现概率,使较大和较小的发现概率随机出现,从而有利于平衡算法的全局探索和局部开发能力,加快算法收敛速度,增加种群多样性;最后,分析对数递减参数和随机调整发现概率,选取对数递减最佳参数组合和随机调整发现概率的最佳取值范围,此时,函数的优化效果最好。与BA,CS,PSO,ICS算法相比,所提算法极大地提高了寻优精度,显著地减少了迭代次数,有效地提高了收敛速度和鲁棒性。在16个测试函数中,DWCS均能收敛到全局最优解,证明了DWCS在求解连续复杂函数优化问题上具有较强的竞争力。展开更多
文摘为求解高维优化问题,提出基于反向学习和衰减因子的灰狼优化算法(grey wolf algorithm based on opposition learning and reduction factor,ORGWO).设计一种灰狼反向学习模型,模型考虑问题搜索边界信息和种群历史搜索信息,初始种群阶段增加反向学习,增强种群多样性.根据算法各个阶段不同特征引入衰减因子,平衡全局和局部勘探能力.选取8个高维函数和23个不同特征的优化函数对算法性能进行测试,进一步使用收敛性分析,寻优成功率,CPU时间,Wilcoxon秩和检验来评估改进算法,实验结果表明,ORGWO算法在求解高维问题上具有较好的精度,鲁棒性和更快的收敛速度.
文摘在工程优化中,大多问题是连续优化问题,即函数优化问题。针对布谷鸟算法求解函数优化问题时存在的收敛速度慢、求解精度不高和易陷入局部最优等问题,文中提出非线性惯性权重对数递减和随机调整发现概率的布谷鸟搜索算法(Cuc-koo Search Algorithm with Logarithmic Decline of Nonlinear Inertial Weights and Random Adjustment Discovery Probability,DWCS)。首先,在布谷鸟寻窝的路径和位置更新公式中,设计一种随进化迭代次数非线性递减的惯性权重来改进鸟巢位置的更新方式,以协调布谷鸟算法的探索和开发能力;其次,引入随机调整发现概率代替固定值发现概率,使较大和较小的发现概率随机出现,从而有利于平衡算法的全局探索和局部开发能力,加快算法收敛速度,增加种群多样性;最后,分析对数递减参数和随机调整发现概率,选取对数递减最佳参数组合和随机调整发现概率的最佳取值范围,此时,函数的优化效果最好。与BA,CS,PSO,ICS算法相比,所提算法极大地提高了寻优精度,显著地减少了迭代次数,有效地提高了收敛速度和鲁棒性。在16个测试函数中,DWCS均能收敛到全局最优解,证明了DWCS在求解连续复杂函数优化问题上具有较强的竞争力。