-
题名递归神经网络方法解决非光滑伪凸优化问题
被引量:3
- 1
-
-
作者
喻昕
胡悦
马崇
伍灵贞
汪炎林
-
机构
广西大学计算机与电子信息学院
-
出处
《计算机应用与软件》
北大核心
2019年第11期145-151,242,共8页
-
基金
国家自然科学基金项目(61462006,61862004)
-
文摘
针对目标函数为非光滑伪凸函数且带有等式约束和不等式约束的优化问题,基于罚函数以及微分包含的思想,构建一个层次仅为一层且不包含惩罚算子的新型递归神经网络模型.该模型不用提前计算惩罚参数,能够很好地收敛.理论证明全局解存在,模型的状态解能够在有限的时间内进到原目标函数的可行域并不再离开,其状态解最终收敛到目标函数的一个最优解.仿真实验证实了理论结果的可行性.
-
关键词
递归神经网络
非光滑伪凸优化
收敛性
-
Keywords
Recurrent neural network
Nonsmooth pseudoconvex optimization
Convergence
-
分类号
TP3
[自动化与计算机技术—计算机科学与技术]
-
-
题名解决一类非光滑伪凸优化问题的新型神经网络
- 2
-
-
作者
喻昕
林植良
-
机构
广西大学计算机与电子信息学院
-
出处
《计算机科学》
CSCD
北大核心
2022年第5期227-234,共8页
-
基金
国家自然科学基金(61862004)。
-
文摘
对优化问题的研究一直以来深受科研工作者的关注。非光滑伪凸优化作为非凸优化中的一类特殊问题,频繁出现在机器学习、信号处理、生物信息学以及各类科学与工程领域中,成为学者们研究的重点。基于罚函数以及微分包含的思想,提出了一种解决带有不等式约束条件和等式约束条件的非光滑伪凸优化问题的新型神经网络方法。在给定的假设条件下,该神经网络的解可以在有限时间内进入可行域并永驻其中,最终收敛到优化问题的最优解集。相比其他神经网络模型,该模型具有以下优点:1)结构简单,为单层模型;2)不需要事先计算精确的惩罚因子;3)初始点可任意选取。在MATLAB环境下,通过数值实验得出,所提网络都能在有限时间内收敛到一个最优解;而用现有的神经网络模型解决同样的优化问题时,若初始点选取不恰当,则会导致状态解不能在有效时间内收敛甚至不能收敛。这不仅进一步地验证了所提神经网络的有效性,同时也说明其具有更广泛的应用范围。
-
关键词
微分包含
循环神经网络
非光滑伪凸优化
最优解集
惩罚因子
-
Keywords
Differential inclusion
Recurrent neural network(RNN)
Nonsmooth pseudoconvex optimization
Optimal solution set
Penalty parameter
-
分类号
TP183
[自动化与计算机技术—控制理论与控制工程]
-
-
题名一种新型单层递归神经网络解决非光滑伪凸优化问题
- 3
-
-
作者
喻昕
卢惠霞
伍灵贞
徐柳明
-
机构
广西大学计算机与电子信息学院
桂林航天工业学院计算机科学与工程学院
广西多媒体通信与网络技术重点实验室
-
出处
《电子与信息学报》
EI
CSCD
北大核心
2021年第8期2421-2429,共9页
-
基金
国家自然科学基金(61862004,61462006)。
-
文摘
非光滑伪凸优化问题是一类比较特殊的非凸优化问题,常出现在各类科学与工程应用中,因此具有很大的研究价值。针对现有神经网络模型解决非光滑伪凸优化问题存在的不足,该文基于微分包含理论,提出一种新型单层递归神经网络模型。通过理论分析,证明了神经网络状态解在有限时间内收敛到可行域,且永驻其中,最终神经网络状态解收敛于原优化问题的最优解。最后,通过数值实验,验证了所提理论的有效性。与现有的神经网络相比,该文所提神经网络模型结构简单仅为单层,不需要提前计算罚参数,且对初始点选取没有任何特殊的要求。
-
关键词
神经网络
非光滑伪凸优化
收敛
最优解
-
Keywords
Neural network
Nonsmooth pseudoconvex optimization
Convergence
Optimal solution
-
分类号
TP183
[自动化与计算机技术—控制理论与控制工程]
-