期刊文献+
共找到13篇文章
< 1 >
每页显示 20 50 100
一种基于罚函数法解决非光滑伪凸优化问题的神经网络算法及其应用
1
作者 黄镘潼 喻昕 《广西师范大学学报(自然科学版)》 CAS 北大核心 2024年第5期101-109,共9页
针对实际应用中遇到的非光滑伪凸优化问题,本文提出一种创新的解决方案——结合罚函数理念和微分包含理论的单层神经网络算法。首先,通过数学理论证明,本文算法能够使状态解最终收敛至伪凸优化问题的最优解,从而确立所提出算法的正确性... 针对实际应用中遇到的非光滑伪凸优化问题,本文提出一种创新的解决方案——结合罚函数理念和微分包含理论的单层神经网络算法。首先,通过数学理论证明,本文算法能够使状态解最终收敛至伪凸优化问题的最优解,从而确立所提出算法的正确性;其次,通过对2个数值实验的模拟收敛结果进行分析,进一步验证算法的有效性;最后,用本文算法解决实际应用问题,展示其在解决伪凸优化问题上的实际应用价值。与现有的神经网络算法相比,本文算法不仅能够解决更一般的具有凸不等式和等式约束的伪凸优化问题,也可以解决实际应用问题。此外,本文算法层次结构简单,无需计算精确的罚参数,可以选取任意初始点,无需添加任何辅助变量,为伪凸优化问题的解决提供一种有效途径。 展开更多
关键词 神经网络 伪凸优化 最优解 罚函数 实际应用
在线阅读 下载PDF
一种新型解决非光滑伪凸优化问题的神经网络方法 被引量:1
2
作者 喻昕 马崇 +2 位作者 胡悦 伍灵贞 汪炎林 《计算机科学》 CSCD 北大核心 2019年第11期228-234,共7页
优化问题的研究一直以来深受科研工作者的关注,凸优化问题作为优化问题的一个重要部分更是成为研究重点,许多应用神经网络思想提出的模型已经被应用到实际问题中。然而,在机器学习、信号处理、生物信息学等领域中涉及的优化问题往往不... 优化问题的研究一直以来深受科研工作者的关注,凸优化问题作为优化问题的一个重要部分更是成为研究重点,许多应用神经网络思想提出的模型已经被应用到实际问题中。然而,在机器学习、信号处理、生物信息学等领域中涉及的优化问题往往不是凸优化问题,而是伪凸优化及非凸优化的问题,因此解决后一类问题变得刻不容缓。针对目标函数是非光滑伪凸函数、约束函数由等式和不等式函数构成的优化问题,基于罚函数以及微分包含的思想,构建了一个新型的不含惩罚参数的单层神经网络模型。该模型的主要设计思路是根据已经提出的神经网络模型思想,为目标函数的梯度设计一个制约的函数,使其值始终保持在一个范围之内,再结合一个关于时间的函数,确保其值随时间变小。同时,考虑到不等式约束对状态解进入等式约束之前的收敛方向有影响,加入一个条件函数来限制它。与已提出的神经网络模型相比,所提模型具有结构简单、无须提前进行惩罚参数的计算、对初始点的位置无特殊要求等优势。而且,对于任意初始点,理论证明了状态解的有界性、状态解能够在有限时间内收敛到等式约束内并永驻其中、状态解能够在有限时间内收敛到可行域并永驻其中以及状态解最终收敛到优化问题的最优解。在MATLAB环境下,通过数学仿真实验,状态解都能快速地收敛到一个最优解。同时,用已经提出的类似神经网络模型解决同样的优化问题时,若罚参数或初始点选择不恰当则会导致状态解不能很好地收敛。这不仅验证了所提出的理论结果的正确性,同时也说明了所提网络具有更广泛的应用范围。 展开更多
关键词 伪凸函数 神经网络 微分包含 非光滑优化
在线阅读 下载PDF
局部Lipschitz连续的伪线性函数的性质(英文) 被引量:1
3
作者 鲁其辉 朱道立 《应用数学》 CSCD 北大核心 2005年第2期272-278,共7页
本文使用Clarke次微分分析了定义在Banach空间的局部Lipschitz连续的伪线性函数的性质,并且考虑了伪线性规划解集的性质.
关键词 伪线性函数 解集 伪凸 Clarke—Rockafellar次微分 Clarke次微分
在线阅读 下载PDF
一种解决非光滑伪凸优化问题的新型神经网络 被引量:2
4
作者 喻昕 伍灵贞 汪炎林 《计算机工程与应用》 CSCD 北大核心 2019年第12期37-43,共7页
针对带有不等式约束条件的非光滑伪凸优化问题,提出了一种基于微分包含理论的新型递归神经网络模型,根据目标函数与约束条件设计出随着状态向量变化而变化的罚函数,使得神经网络的状态向量始终朝着可行域方向运动,确保神经网络状态向量... 针对带有不等式约束条件的非光滑伪凸优化问题,提出了一种基于微分包含理论的新型递归神经网络模型,根据目标函数与约束条件设计出随着状态向量变化而变化的罚函数,使得神经网络的状态向量始终朝着可行域方向运动,确保神经网络状态向量可在有限时间内进入可行域,最终收敛到原始优化问题的最优解。最后,用两个仿真实验用来验证神经网络的有效性与准确性。与现有神经网络相比,它是一种新型的神经网络模型,模型结构简单,无需计算精确的罚因子,最重要的是无需可行域有界。 展开更多
关键词 非光滑伪凸函数 神经网络 收敛 优化问题
在线阅读 下载PDF
ρ-弧式拟凸及伪凸函数的(VP)和(VD)对偶定理 被引量:1
5
作者 王英英 《东北师大学报(自然科学版)》 CAS CSCD 北大核心 2009年第1期27-30,共4页
在广义弧式凸性函数:ρ-弧式拟凸、ρ-弧式伪凸函数的条件下,讨论了其多目标规划的对偶问题,论证了其弱对偶定理、直接对偶定理、逆对偶定理.
关键词 ρ-弧式拟凸函数 ρ-弧式伪凸函数 多目标规划 有效解 对偶定理
在线阅读 下载PDF
Banach空间中优化问题的最优性条件
6
作者 张秀芳 王冬 《高校应用数学学报(A辑)》 CSCD 北大核心 2002年第2期225-229,共5页
首先在 Contingent切锥意义下界定了 Banach空间中非空集合的伪切锥和伪凸性的概念 ,并讨论了相应的性质 ;然后针对可微优化问题 ,在广义凸性假设下 。
关键词 BANACH空间 优化问题 最优性条件 Contingent切锥 伪切锥 伪凸集合 伪凸函数
在线阅读 下载PDF
某类有界拟凸域双全纯不变量的极限
7
作者 童武 《数学物理学报(A辑)》 CSCD 北大核心 1997年第4期427-431,共5页
是中的一类有界拟凸域.该文证明了在的强拟凸点上,当时,仕的弱拟点上,上述要限不存在.
关键词 拟凸域 全纯不变量 B-核函数
在线阅读 下载PDF
一类非严格拟凸域上复Monge-Ampère方程弱解的存在性研究
8
作者 向妮 《南京理工大学学报》 EI CAS CSCD 北大核心 2009年第6期806-808,813,共4页
为了研究拟凸域上复Monge-Ampère方程弱解的存在性,利用区域的边界性质构造下解。在下解蕴涵解的理论基础上得到了一类特殊的拟凸区域上弱解的存在性。研究结果表明下解的构造依赖于特殊区域的边界性质。
关键词 复Monge-Ampère方程 多重下调和函数 拟凸域 存在性
在线阅读 下载PDF
广义凸集的支撑函数
9
作者 梅家骝 《高校应用数学学报(A辑)》 CSCD 北大核心 1989年第4期541-549,共9页
本文讨论了笔者在[1]中提出的伪凸集,拟凸集的支撑函数与障碍锥的性质,并通过这些性质得出了二个闭性准则。
关键词 支撑函数 数学规划 凸集 广义
在线阅读 下载PDF
一个二次规划算法的推广
10
作者 薛声家 《暨南大学学报(自然科学与医学版)》 CAS CSCD 1994年第3期1-5,共5页
把Theil和VandePanne的二次规划算法推广到目标函数为严格伪凸的最优化问题,算法在解有限个规模较小的带等式约束子问题后可获得原问题的最优解。最后指出,该算法不能推广到更广的严格拟凸函数类。
关键词 非线性 二次规划 最佳化
在线阅读 下载PDF
一类模糊规划问题解集的刻画 被引量:1
11
作者 王晓佳 刘学文 《西南大学学报(自然科学版)》 CAS CSCD 北大核心 2013年第11期86-91,共6页
在不具可微性条件下定义了一类伪凸模糊映射,并讨论了伪凸模糊映射的一些重要性质.作为应用,利用模糊函数的方向导数,对目标函数不可微的伪凸模糊规划问题的解集进行了简单刻画.
关键词 伪凸模糊映射 伪凸模糊规划 模糊方向导数
在线阅读 下载PDF
r凸函数的运算性质 被引量:2
12
作者 杨晓琪 《重庆建筑工程学院学报》 CSCD 1989年第2期93-101,共9页
广义凸函数是凸函数的推广,它包括伪凸函数,拟凸函数和r凸函数等.广义凸函数的性质和运算性质在广义凸规划中有很重要的作用.薛家声对伪凸函数的构造方法进行了讨论;J.P.Crouzeix~[6]讨论了拟凸函数的性质.本文旨在对广义凸函数中的一类... 广义凸函数是凸函数的推广,它包括伪凸函数,拟凸函数和r凸函数等.广义凸函数的性质和运算性质在广义凸规划中有很重要的作用.薛家声对伪凸函数的构造方法进行了讨论;J.P.Crouzeix~[6]讨论了拟凸函数的性质.本文旨在对广义凸函数中的一类即r凸函数进行讨论. 展开更多
关键词 凸函数 运算 性质
在线阅读 下载PDF
一种解决分布式伪凸优化问题的神经网络模型
13
作者 周顺 喻昕 +2 位作者 黄镘潼 覃海华 李浩宇 《广西大学学报(自然科学版)》 CAS 北大核心 2023年第5期1181-1192,共12页
针对带有凸不等式约束的分布式伪凸优化问题,基于微分包含思想,提出了一种分布式神经网络模型。该模型根据目标函数与约束条件构造罚函数,使得每个分布式节点能在有限时间内进入可行域且不再离开,最终达成一致并收敛到原始优化问题的最... 针对带有凸不等式约束的分布式伪凸优化问题,基于微分包含思想,提出了一种分布式神经网络模型。该模型根据目标函数与约束条件构造罚函数,使得每个分布式节点能在有限时间内进入可行域且不再离开,最终达成一致并收敛到原始优化问题的最优解。最后,通过2个仿真实验验证了分布式神经网络模型的有效性和准确性。与现有的神经网络模型相比,该模型结构简单,能够解决伪凸问题,并且不需要精确的计算罚参数。 展开更多
关键词 分布式优化 伪凸优化 罚函数 神经网络
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部