期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
基于神经网络的回归学习算法收敛性分析(英文) 被引量:2
1
作者 张永全 曹飞龙 戴腾辉 《工程数学学报》 CSCD 北大核心 2012年第4期493-498,共6页
本文利用最小二乘理论研究学习理论中的回归问题.其目的在于利用概率不等式与神经网络的逼近性质来分析回归学习算法的误差.结论表明,当回归函数满足一定的光滑性时,得到较为紧的上界且该上界与输入空间的维数无关.
关键词 回归 神经网络 覆盖数 收敛率
在线阅读 下载PDF
压缩回归学习算法的泛化界 被引量:1
2
作者 曹飞龙 戴腾辉 张永全 《数学物理学报(A辑)》 CSCD 北大核心 2014年第4期905-916,共12页
研究了压缩最小平方回归学习算法的泛化性问题.利用随机投影、覆盖数等理论以及概率不等式得到了该学习算法的泛化误差上界.所获结果表明:压缩学习虽以增大逼近误差的方式降低样本误差,但其增量是可控的.此外,通过压缩学习,在一定程度... 研究了压缩最小平方回归学习算法的泛化性问题.利用随机投影、覆盖数等理论以及概率不等式得到了该学习算法的泛化误差上界.所获结果表明:压缩学习虽以增大逼近误差的方式降低样本误差,但其增量是可控的.此外,通过压缩学习,在一定程度上克服了学习过程中所出现的过拟合现象. 展开更多
关键词 机器学习 压缩感知 回归学习算法 误差界 逼近
在线阅读 下载PDF
高斯核正则化学习算法的泛化误差
3
作者 张永全 李有梅 《数学物理学报(A辑)》 CSCD 北大核心 2014年第5期1049-1060,共12页
对广义凸损失函数和变高斯核情形下正则化学习算法的泛化性能展开研究.其目标是给出学习算法泛化误差的一个较为满意上界.泛化误差可以利用正则误差和样本误差来测定.基于高斯核的特性,通过构构建一个径向基函数(简记为RBF)神经网络,给... 对广义凸损失函数和变高斯核情形下正则化学习算法的泛化性能展开研究.其目标是给出学习算法泛化误差的一个较为满意上界.泛化误差可以利用正则误差和样本误差来测定.基于高斯核的特性,通过构构建一个径向基函数(简记为RBF)神经网络,给出了正则误差的上界估计,通过投影算子和再生高斯核希尔伯特空间的覆盖数给出样本误差的上界估计.所获结果表明,通过适当选取参数σ和λ,可以提高学习算法的泛化性能. 展开更多
关键词 学习理论 RBF神经网络 高斯核 泛化误差
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部