期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
基于Boosting框架的非稀疏多核学习方法 被引量:2
1
作者 胡庆辉 李志远 《计算机应用研究》 CSCD 北大核心 2016年第11期3219-3222,3227,共5页
针对传统的分类器集成的每次迭代通常是将单个最优个体分类器集成到强分类器中,而其他可能有辅助作用的个体分类器被简单抛弃的问题,提出了一种基于Boosting框架的非稀疏多核学习方法 MKL-Boost。利用分类器集成学习的思想,每次迭代时,... 针对传统的分类器集成的每次迭代通常是将单个最优个体分类器集成到强分类器中,而其他可能有辅助作用的个体分类器被简单抛弃的问题,提出了一种基于Boosting框架的非稀疏多核学习方法 MKL-Boost。利用分类器集成学习的思想,每次迭代时,首先从训练集中选取一个训练子集,然后利用正则化非稀疏多核学习方法训练最优个体分类器,求得的个体分类器考虑了M个基本核的最优非稀疏线性凸组合,通过对核组合系数施加LP范数约束,一些好的核得以保留,从而保留了更多的有用特征信息,差的核将会被去掉,保证了有选择性的核融合,再将基于核组合的最优个体分类器集成到强分类器中。提出的算法既具有Boosting集成学习的优点,同时具有正则化非稀疏多核学习的优点,实验表明,相对于其他Boosting算法,MKL-Boost可以在较少的迭代次数内获得较高的分类精度。 展开更多
关键词 集成学习 非稀疏多核学习 弱分类器 基本
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部