期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
前馈神经网络权值学习综合算法 被引量:1
1
作者 李娟 徐晋 付灵丽 《兰州理工大学学报》 CAS 北大核心 2004年第4期84-87,共4页
目前基于高斯牛顿法及其衍生算法的前馈神经网络虽然可以达到局部二阶收敛速度,但只对小残量或零残量问题有效,对大残量问题则收敛很慢甚至不收敛.为了实时解决神经网络学习过程中可能遇到的小残量问题和大残量问题,引入NL2SOL优化算法... 目前基于高斯牛顿法及其衍生算法的前馈神经网络虽然可以达到局部二阶收敛速度,但只对小残量或零残量问题有效,对大残量问题则收敛很慢甚至不收敛.为了实时解决神经网络学习过程中可能遇到的小残量问题和大残量问题,引入NL2SOL优化算法与GaussNewton法相结合,并引入熵误差函数,构建基于GaussNewton NL2SOL法的前馈神经网络.仿真实例表明,该神经网络较好地解决了残量问题,具有良好的收敛性和稳定性. 展开更多
关键词 前馈神经网络 GaussNewton法 NL2SOL法 残量问题 收敛性 稳定性
在线阅读 下载PDF
适于前馈神经网络的LM-QuasiNewton综合学习新方法
2
作者 徐晋 《西南交通大学学报》 EI CSCD 北大核心 2004年第5期675-678,698,共5页
为实时解决神经网络学习过程中可能遇到的大残量时的收敛问题,将LM算法与QuasiNewton优化算法结合,构建了一种综合学习算法(LM QuasiNewton算法).仿真算例表明,该算法较好地解决了残量问题,收敛性与稳定性优于其它权值算法.合学习算法.... 为实时解决神经网络学习过程中可能遇到的大残量时的收敛问题,将LM算法与QuasiNewton优化算法结合,构建了一种综合学习算法(LM QuasiNewton算法).仿真算例表明,该算法较好地解决了残量问题,收敛性与稳定性优于其它权值算法.合学习算法.仿真实例表明,该算法较好地解决了残量问题,在收敛性与稳定性方面优于其它权值算法. 展开更多
关键词 前馈 神经网络 收敛 QuasiNewton算法 LM算法 残量问题
在线阅读 下载PDF
基于Gauss Newton-NL2SOL法的前馈神经网络及应用
3
作者 徐晋 《重庆大学学报(自然科学版)》 EI CAS CSCD 北大核心 2004年第4期118-121,共4页
目前基于高斯牛顿法及其衍生算法的前馈神经网络虽然可以达到局部二阶收敛速度,但只对小残量或零残量问题有效,对大残量问题则收敛很慢甚至不收敛。为了实时解决神经网络学习过程中可能遇到的小残量问题和大残量问题,引入NL2SOL优化算法... 目前基于高斯牛顿法及其衍生算法的前馈神经网络虽然可以达到局部二阶收敛速度,但只对小残量或零残量问题有效,对大残量问题则收敛很慢甚至不收敛。为了实时解决神经网络学习过程中可能遇到的小残量问题和大残量问题,引入NL2SOL优化算法,并与GaussNewton法相结合,构建基于GaussNewton NL2SOL法的前馈神经网络。仿真实例表明,该神经网络较好地解决了残量问题,具有良好的收敛性和稳定性。 展开更多
关键词 前馈神经网络 GaussNewton法 NL2SOL法 残量问题 收敛性 稳定性
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部