现实中的多目标优化问题日益复杂,对多目标优化算法提出了新的挑战.受混合多目标优化算法的启发,该文提出了一种应用档案精英学习和反向学习的多目标进化算法(Multi-objective Evolutionary Algorithm Based on Archive-Elite Learning ...现实中的多目标优化问题日益复杂,对多目标优化算法提出了新的挑战.受混合多目标优化算法的启发,该文提出了一种应用档案精英学习和反向学习的多目标进化算法(Multi-objective Evolutionary Algorithm Based on Archive-Elite Learning and Opposition-based Learning,AOL-MOEA)以解决困难的多目标优化问题.AOLMOEA算法利用档案精英学习算子增强算法全局搜索能力,促进算法较快收敛;运用动态一般反向学习机制代替变异算子以增加种群逃逸局部极值的机会;使用3-点最短路径方法维持解群的多样性.AOL-MOEA算法与另外5种代表性多目标优化算法在12个基准多目标测试函数上进行性能比较,实验结果表明:AOL-MOEA算法在收敛性、多样性和稳定性等方面均优于或部分优于其他的对比算法.展开更多
文摘大规模稀疏多目标优化问题(Sparse Multiobjective Optimization Problems,SMOPs)广泛存在于现实世界。为大规模SMOPs提出通用的解决方法,对于进化计算、控制论和机器学习等领域中的问题解决都具有推动作用。由于SMOPs具有高维决策空间和Pareto最优解稀疏的特性,现有的进化算法在解决SMOPs时,很容易陷入维数灾难的困境。针对这个问题,以稀疏分布的学习为切入点,提出了一种基于在线学习稀疏特征的大规模多目标进化算法(Large-scale Multiobjective Evolutio-nary Algorithm Based on Online Learning of Sparse Features,MOEA/OLSF)。具体地,首先设计了一种在线学习稀疏特征的方法来挖掘非零变量;然后提出了一种稀疏遗传算子,用于非零变量的进一步搜索和子代解的生成,在非零变量搜索过程中,其二进制交叉和变异算子也用于控制解的稀疏性和多样性。与最新的优秀算法在不同规模的测试问题上的对比结果表明,所提算法在收敛速度和性能方面均更优。
文摘现实中的多目标优化问题日益复杂,对多目标优化算法提出了新的挑战.受混合多目标优化算法的启发,该文提出了一种应用档案精英学习和反向学习的多目标进化算法(Multi-objective Evolutionary Algorithm Based on Archive-Elite Learning and Opposition-based Learning,AOL-MOEA)以解决困难的多目标优化问题.AOLMOEA算法利用档案精英学习算子增强算法全局搜索能力,促进算法较快收敛;运用动态一般反向学习机制代替变异算子以增加种群逃逸局部极值的机会;使用3-点最短路径方法维持解群的多样性.AOL-MOEA算法与另外5种代表性多目标优化算法在12个基准多目标测试函数上进行性能比较,实验结果表明:AOL-MOEA算法在收敛性、多样性和稳定性等方面均优于或部分优于其他的对比算法.
文摘约束多目标进化算法的求解性能往往取决于约束处理方法和多目标进化算法。为进一步提高其适应性和鲁棒性,提出一种基于算法自动选择的自适应约束多目标进化算法(self-adaptive constrained multi-objective evolutionary algorithm based on algorithm automation selection,SCMOEA-AAS)。在所提算法中,选取了2个性能优良的多目标进化算法作为搜索引擎,并提出一种综合的性能指标来对它们进行评价;然后,使用Q学习来实现算法的自适应选择,以适应不同类型的约束多目标优化问题。为验证所提算法的性能,实验选取了5种有竞争力的约束多目标进化算法和24个约束多目标优化问题。实验结果表明,SCMOEA-AAS在所有比较算法中取得了最佳性能。