期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
基于原问题求解的非稀疏多核学习方法 被引量:2
1
作者 胡庆辉 丁立新 +1 位作者 刘晓刚 李照奎 《华南理工大学学报(自然科学版)》 EI CAS CSCD 北大核心 2015年第5期78-85,共8页
传统的多核学习方法通常将原问题转换为其对偶问题再进行求解,但直接求解原问题比求解对偶问题有更好的收敛属性.为此,文中提出了一种在原问题上求解、LP范数约束的非稀疏多核学习算法,首先采用次梯度和改进的拟牛顿法求解支持向量机(SV... 传统的多核学习方法通常将原问题转换为其对偶问题再进行求解,但直接求解原问题比求解对偶问题有更好的收敛属性.为此,文中提出了一种在原问题上求解、LP范数约束的非稀疏多核学习算法,首先采用次梯度和改进的拟牛顿法求解支持向量机(SVM),然后通过简单计算求解基本核的权系数.由于拟牛顿法具有二次收敛性,并且不需要计算二阶导数来得到Hessian矩阵的逆,因此文中算法具有更快的收敛速度.仿真结果表明,文中算法不仅具有较好的分类精度和泛化性能,还具有较快的收敛速度及很好的可扩展性. 展开更多
关键词 多核学习 拟牛顿法 两步优化 支持向量机
在线阅读 下载PDF
非稀疏多核组合的支持向量回归方法 被引量:2
2
作者 胡庆辉 丁立新 +1 位作者 刘晓刚 李照奎 《四川大学学报(工程科学版)》 EI CAS CSCD 北大核心 2015年第4期91-97,共7页
为了改善支持向量回归机的性能,提出一种利用多核学习解决回归问题的算法(NS-MKR)。算法对基本核函数的组合系数施加了Lp范数的约束(p>1),以得到组合系数的非稀疏解,并采用了两步优化方法,首先求解基于加权组合核的标准支持向量回归... 为了改善支持向量回归机的性能,提出一种利用多核学习解决回归问题的算法(NS-MKR)。算法对基本核函数的组合系数施加了Lp范数的约束(p>1),以得到组合系数的非稀疏解,并采用了两步优化方法,首先求解基于加权组合核的标准支持向量回归问题,用于学习拉格朗日乘子,然后采用简单的计算,求得基本核函数的组合系数,这2个步骤交替进行,直到满足事先定义的收敛准则。在人工数据集和真实数据集上的实验表明,相对于传统的单核和稀疏多核支持向量回归方法,提出的算法有更好的泛化性能。 展开更多
关键词 多核学习 支持向量回归 非稀疏核组合 两步优化
在线阅读 下载PDF
基于递归自编码器的广告短语相关性 被引量:2
3
作者 胡庆辉 魏士伟 +1 位作者 解忠乾 任亚峰 《计算机应用》 CSCD 北大核心 2016年第1期154-157,187,共5页
针对现有广告短语相关性研究成果多采用字面匹配,忽略了短语所包含的深层语义信息,限制了任务的性能等问题,提出了采用深度学习算法研究广告短语的相关性,采用递归自编码器(RAE)对短语进行深层结构分析,使得短语向量包含深层的语义信息... 针对现有广告短语相关性研究成果多采用字面匹配,忽略了短语所包含的深层语义信息,限制了任务的性能等问题,提出了采用深度学习算法研究广告短语的相关性,采用递归自编码器(RAE)对短语进行深层结构分析,使得短语向量包含深层的语义信息,以此来构建广告语境下的短语相关性计算方法。具体地,给定一个包含若干词的序列,序列中所有相邻的两个元素尝试合并产生一个重构误差,遍历将重构误差最小的元素两两合并,形成类似哈夫曼树结构的短语树。采用梯度下降法最小化短语树的重构误差,采用余弦距离度量短语之间的相关性。实验结果显示,通过引入词语权重信息,加大了重要词语在最终短语向量表示中贡献的信息量,使得RAE更适合短语计算;比起传统LDA和BM25算法,在50%召回率的条件下,提出的算法的准确率分别提高了4.59个百分点和3.21个百分点,这证明了所提算法的有效性。 展开更多
关键词 深度学习 递归自编码器 词向量 计算广告 搜索引擎
在线阅读 下载PDF
基于Boosting框架的非稀疏多核学习方法 被引量:2
4
作者 胡庆辉 李志远 《计算机应用研究》 CSCD 北大核心 2016年第11期3219-3222,3227,共5页
针对传统的分类器集成的每次迭代通常是将单个最优个体分类器集成到强分类器中,而其他可能有辅助作用的个体分类器被简单抛弃的问题,提出了一种基于Boosting框架的非稀疏多核学习方法 MKL-Boost。利用分类器集成学习的思想,每次迭代时,... 针对传统的分类器集成的每次迭代通常是将单个最优个体分类器集成到强分类器中,而其他可能有辅助作用的个体分类器被简单抛弃的问题,提出了一种基于Boosting框架的非稀疏多核学习方法 MKL-Boost。利用分类器集成学习的思想,每次迭代时,首先从训练集中选取一个训练子集,然后利用正则化非稀疏多核学习方法训练最优个体分类器,求得的个体分类器考虑了M个基本核的最优非稀疏线性凸组合,通过对核组合系数施加LP范数约束,一些好的核得以保留,从而保留了更多的有用特征信息,差的核将会被去掉,保证了有选择性的核融合,再将基于核组合的最优个体分类器集成到强分类器中。提出的算法既具有Boosting集成学习的优点,同时具有正则化非稀疏多核学习的优点,实验表明,相对于其他Boosting算法,MKL-Boost可以在较少的迭代次数内获得较高的分类精度。 展开更多
关键词 集成学习 非稀疏多核学习 弱分类器 基本核
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部