-
题名基于神经网络的回归学习算法收敛性分析(英文)
被引量:2
- 1
-
-
作者
张永全
曹飞龙
戴腾辉
-
机构
中国计量学院数学与信息科学系
-
出处
《工程数学学报》
CSCD
北大核心
2012年第4期493-498,共6页
-
基金
The Natural Science Foundation of Zhejiang Province(Q12A010096)
-
文摘
本文利用最小二乘理论研究学习理论中的回归问题.其目的在于利用概率不等式与神经网络的逼近性质来分析回归学习算法的误差.结论表明,当回归函数满足一定的光滑性时,得到较为紧的上界且该上界与输入空间的维数无关.
-
关键词
回归
神经网络
覆盖数
收敛率
-
Keywords
regression
neural Network
covering number
convergence rate
-
分类号
O174.41
[理学—基础数学]
-
-
题名压缩回归学习算法的泛化界
被引量:1
- 2
-
-
作者
曹飞龙
戴腾辉
张永全
-
机构
中国计量学院数学与信息科学系
-
出处
《数学物理学报(A辑)》
CSCD
北大核心
2014年第4期905-916,共12页
-
基金
国家自然科学基金(61272023
91330118
11301494)资助
-
文摘
研究了压缩最小平方回归学习算法的泛化性问题.利用随机投影、覆盖数等理论以及概率不等式得到了该学习算法的泛化误差上界.所获结果表明:压缩学习虽以增大逼近误差的方式降低样本误差,但其增量是可控的.此外,通过压缩学习,在一定程度上克服了学习过程中所出现的过拟合现象.
-
关键词
机器学习
压缩感知
回归学习算法
误差界
逼近
-
Keywords
Machine learning
Compressed sensing
Regression learning algorithm
Error bound
Approximation
-
分类号
O174.41
[理学—基础数学]
-
-
题名高斯核正则化学习算法的泛化误差
- 3
-
-
作者
张永全
李有梅
-
机构
中国计量学院数学与信息科学系
西安交通大学信息与系统科学研究所
-
出处
《数学物理学报(A辑)》
CSCD
北大核心
2014年第5期1049-1060,共12页
-
基金
国家自然科学基金(11301494)
浙江省自然科学基金(Q12A01026)资助
-
文摘
对广义凸损失函数和变高斯核情形下正则化学习算法的泛化性能展开研究.其目标是给出学习算法泛化误差的一个较为满意上界.泛化误差可以利用正则误差和样本误差来测定.基于高斯核的特性,通过构构建一个径向基函数(简记为RBF)神经网络,给出了正则误差的上界估计,通过投影算子和再生高斯核希尔伯特空间的覆盖数给出样本误差的上界估计.所获结果表明,通过适当选取参数σ和λ,可以提高学习算法的泛化性能.
-
关键词
学习理论
RBF神经网络
高斯核
泛化误差
-
Keywords
Learning theory
RBF neural network
Gaussian kernels
Generalization error.
-
分类号
O174.41
[理学—基础数学]
-