期刊导航
期刊开放获取
上海教育软件发展有限公..
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
3
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
前馈神经网络权值学习综合算法
被引量:
1
1
作者
李娟
徐晋
付灵丽
《兰州理工大学学报》
CAS
北大核心
2004年第4期84-87,共4页
目前基于高斯牛顿法及其衍生算法的前馈神经网络虽然可以达到局部二阶收敛速度,但只对小残量或零残量问题有效,对大残量问题则收敛很慢甚至不收敛.为了实时解决神经网络学习过程中可能遇到的小残量问题和大残量问题,引入NL2SOL优化算法...
目前基于高斯牛顿法及其衍生算法的前馈神经网络虽然可以达到局部二阶收敛速度,但只对小残量或零残量问题有效,对大残量问题则收敛很慢甚至不收敛.为了实时解决神经网络学习过程中可能遇到的小残量问题和大残量问题,引入NL2SOL优化算法与GaussNewton法相结合,并引入熵误差函数,构建基于GaussNewton NL2SOL法的前馈神经网络.仿真实例表明,该神经网络较好地解决了残量问题,具有良好的收敛性和稳定性.
展开更多
关键词
前馈神经网络
GaussNewton法
NL2SOL法
残量问题
收敛性
稳定性
在线阅读
下载PDF
职称材料
适于前馈神经网络的LM-QuasiNewton综合学习新方法
2
作者
徐晋
《西南交通大学学报》
EI
CSCD
北大核心
2004年第5期675-678,698,共5页
为实时解决神经网络学习过程中可能遇到的大残量时的收敛问题,将LM算法与QuasiNewton优化算法结合,构建了一种综合学习算法(LM QuasiNewton算法).仿真算例表明,该算法较好地解决了残量问题,收敛性与稳定性优于其它权值算法.合学习算法....
为实时解决神经网络学习过程中可能遇到的大残量时的收敛问题,将LM算法与QuasiNewton优化算法结合,构建了一种综合学习算法(LM QuasiNewton算法).仿真算例表明,该算法较好地解决了残量问题,收敛性与稳定性优于其它权值算法.合学习算法.仿真实例表明,该算法较好地解决了残量问题,在收敛性与稳定性方面优于其它权值算法.
展开更多
关键词
前馈
神经网络
收敛
QuasiNewton算法
LM算法
残量问题
在线阅读
下载PDF
职称材料
基于Gauss Newton-NL2SOL法的前馈神经网络及应用
3
作者
徐晋
《重庆大学学报(自然科学版)》
EI
CAS
CSCD
北大核心
2004年第4期118-121,共4页
目前基于高斯牛顿法及其衍生算法的前馈神经网络虽然可以达到局部二阶收敛速度,但只对小残量或零残量问题有效,对大残量问题则收敛很慢甚至不收敛。为了实时解决神经网络学习过程中可能遇到的小残量问题和大残量问题,引入NL2SOL优化算法...
目前基于高斯牛顿法及其衍生算法的前馈神经网络虽然可以达到局部二阶收敛速度,但只对小残量或零残量问题有效,对大残量问题则收敛很慢甚至不收敛。为了实时解决神经网络学习过程中可能遇到的小残量问题和大残量问题,引入NL2SOL优化算法,并与GaussNewton法相结合,构建基于GaussNewton NL2SOL法的前馈神经网络。仿真实例表明,该神经网络较好地解决了残量问题,具有良好的收敛性和稳定性。
展开更多
关键词
前馈神经网络
GaussNewton法
NL2SOL法
残量问题
收敛性
稳定性
在线阅读
下载PDF
职称材料
题名
前馈神经网络权值学习综合算法
被引量:
1
1
作者
李娟
徐晋
付灵丽
机构
河北工业大学计算机科学与软件学院
上海交通大学管理学院
出处
《兰州理工大学学报》
CAS
北大核心
2004年第4期84-87,共4页
基金
国家自然科学基金(10271025)
文摘
目前基于高斯牛顿法及其衍生算法的前馈神经网络虽然可以达到局部二阶收敛速度,但只对小残量或零残量问题有效,对大残量问题则收敛很慢甚至不收敛.为了实时解决神经网络学习过程中可能遇到的小残量问题和大残量问题,引入NL2SOL优化算法与GaussNewton法相结合,并引入熵误差函数,构建基于GaussNewton NL2SOL法的前馈神经网络.仿真实例表明,该神经网络较好地解决了残量问题,具有良好的收敛性和稳定性.
关键词
前馈神经网络
GaussNewton法
NL2SOL法
残量问题
收敛性
稳定性
Keywords
feed-forward neural network
Gauss-Newton method
NL2SOL algorithm
residual problems
convergence
stability
分类号
TP18 [自动化与计算机技术—控制理论与控制工程]
在线阅读
下载PDF
职称材料
题名
适于前馈神经网络的LM-QuasiNewton综合学习新方法
2
作者
徐晋
机构
上海交通大学管理学院
出处
《西南交通大学学报》
EI
CSCD
北大核心
2004年第5期675-678,698,共5页
基金
国家自然科学基金资助项目(70172001)
文摘
为实时解决神经网络学习过程中可能遇到的大残量时的收敛问题,将LM算法与QuasiNewton优化算法结合,构建了一种综合学习算法(LM QuasiNewton算法).仿真算例表明,该算法较好地解决了残量问题,收敛性与稳定性优于其它权值算法.合学习算法.仿真实例表明,该算法较好地解决了残量问题,在收敛性与稳定性方面优于其它权值算法.
关键词
前馈
神经网络
收敛
QuasiNewton算法
LM算法
残量问题
Keywords
feed-forward
neural networks
convergence
QuasiNewton algorithm
Levernberg-Marquardt algorithm
residual problem
分类号
TP18 [自动化与计算机技术—控制理论与控制工程]
在线阅读
下载PDF
职称材料
题名
基于Gauss Newton-NL2SOL法的前馈神经网络及应用
3
作者
徐晋
机构
上海交通大学管理学院
出处
《重庆大学学报(自然科学版)》
EI
CAS
CSCD
北大核心
2004年第4期118-121,共4页
基金
国家自然科学基金资助项目(70172001)
文摘
目前基于高斯牛顿法及其衍生算法的前馈神经网络虽然可以达到局部二阶收敛速度,但只对小残量或零残量问题有效,对大残量问题则收敛很慢甚至不收敛。为了实时解决神经网络学习过程中可能遇到的小残量问题和大残量问题,引入NL2SOL优化算法,并与GaussNewton法相结合,构建基于GaussNewton NL2SOL法的前馈神经网络。仿真实例表明,该神经网络较好地解决了残量问题,具有良好的收敛性和稳定性。
关键词
前馈神经网络
GaussNewton法
NL2SOL法
残量问题
收敛性
稳定性
Keywords
feed-forward neural network
gauss newton algorithm
NL2SOL algorithm
residual problem
convergence
stability
分类号
TP18 [自动化与计算机技术—控制理论与控制工程]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
前馈神经网络权值学习综合算法
李娟
徐晋
付灵丽
《兰州理工大学学报》
CAS
北大核心
2004
1
在线阅读
下载PDF
职称材料
2
适于前馈神经网络的LM-QuasiNewton综合学习新方法
徐晋
《西南交通大学学报》
EI
CSCD
北大核心
2004
0
在线阅读
下载PDF
职称材料
3
基于Gauss Newton-NL2SOL法的前馈神经网络及应用
徐晋
《重庆大学学报(自然科学版)》
EI
CAS
CSCD
北大核心
2004
0
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部