期刊文献+
共找到2篇文章
< 1 >
每页显示 20 50 100
代价与样本相关的简约核支持向量机 被引量:3
1
作者 何海江 《计算机应用》 CSCD 北大核心 2008年第11期2863-2866,2880,共5页
针对机器学习领域中误分类代价与样本相关的情况,提出一种以最小化总代价为目标的样本相关代价敏感的简约核支持向量机sd2sSVM。首先,在GSVM框架下,将优化目标转换为无约束数学规划问题,再引入分段多项式平滑函数逼近正号函数,使用Newto... 针对机器学习领域中误分类代价与样本相关的情况,提出一种以最小化总代价为目标的样本相关代价敏感的简约核支持向量机sd2sSVM。首先,在GSVM框架下,将优化目标转换为无约束数学规划问题,再引入分段多项式平滑函数逼近正号函数,使用Newton-YUAN方法求无约束问题的唯一最优解,最后引入简约核提高解非线性问题的效率。实验结果表明,与传统的样本相关代价敏感支持向量机相比,sd2sSVM的分类精度、误分类代价相当,但训练时间、预测时间则更短。另外,讨论了参数C对sd2sSVM分类性能的影响。 展开更多
关键词 代价敏感 简约核 无约束 支持向量机 分类
在线阅读 下载PDF
快速的多项式平滑型支持向量顺序回归算法
2
作者 何海江 李方圆 《数据采集与处理》 CSCD 北大核心 2010年第3期389-395,共7页
支持向量顺序回归是一种重要的有监督排序学习算法。尽管其优化问题规模与样本数呈线性关系,但在学习大容量数据集时,训练速度仍过慢。为此,提出一种支持二次误差的多项式平滑型支持向量顺序回归(psSVOR)算法,其优化方法包括3个步骤:用... 支持向量顺序回归是一种重要的有监督排序学习算法。尽管其优化问题规模与样本数呈线性关系,但在学习大容量数据集时,训练速度仍过慢。为此,提出一种支持二次误差的多项式平滑型支持向量顺序回归(psSVOR)算法,其优化方法包括3个步骤:用两个分段多项式函数分别近似(1+x)+和(1-x)+,优化目标转变为二次可微的无约束问题,从而由Newton-YUAN方法直接求平行的多个决策超平面。给出了分段多项式平滑函数的3个性质及psSVOR的收敛定理。另外引入简约核提高非线性psSVOR的优化速度。多个公开数据集及LETOR OSHUMED的实验表明,与传统方法相比,psSVOR的顺序回归性能并不逊色,而训练速度显著快。 展开更多
关键词 排序学习 支持向量顺序回归 简约核 分段多项式 平滑
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部