期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
神经网络极速学习方法研究 被引量:164
1
作者 邓万宇 郑庆华 +1 位作者 陈琳 许学斌 《计算机学报》 EI CSCD 北大核心 2010年第2期279-287,共9页
单隐藏层前馈神经网络(Single-hidden Layer Feedforward Neural Network,SLFN)已经在模式识别、自动控制及数据挖掘等领域取得了广泛的应用,但传统学习方法的速度远远不能满足实际的需要,成为制约其发展的主要瓶颈.产生这种情况的两个... 单隐藏层前馈神经网络(Single-hidden Layer Feedforward Neural Network,SLFN)已经在模式识别、自动控制及数据挖掘等领域取得了广泛的应用,但传统学习方法的速度远远不能满足实际的需要,成为制约其发展的主要瓶颈.产生这种情况的两个主要原因是:(1)传统的误差反向传播方法(Back Propagation,BP)主要基于梯度下降的思想,需要多次迭代;(2)网络的所有参数都需要在训练过程中迭代确定.因此算法的计算量和搜索空间很大.针对以上问题,借鉴ELM的一次学习思想并基于结构风险最小化理论提出一种快速学习方法(RELM),避免了多次迭代和局部最小值,具有良好的泛化性、鲁棒性与可控性.实验表明RELM综合性能优于ELM、BP和SVM. 展开更多
关键词 极速学习机 正则极速学习机 支持向量机 结构风险 神经网络 最小二乘
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部