期刊文献+
共找到5篇文章
< 1 >
每页显示 20 50 100
一种改进的SMO算法 被引量:4
1
作者 张召 黄国兴 鲍钰 《计算机科学》 CSCD 北大核心 2003年第8期128-129,133,共3页
In this paper we have pointed out an important source of inefficiency in SMO algorithm that is caused bythe operation with a single threshod value. We have suggested modifications of SMO algorithm that overcome thepro... In this paper we have pointed out an important source of inefficiency in SMO algorithm that is caused bythe operation with a single threshod value. We have suggested modifications of SMO algorithm that overcome theproblem by efficiently maintaining and updating two threshold parameters. Our experiments show that these modifi-cations speed up the SMO algorithm. 展开更多
关键词 smo算法 支持向量机 机器学习算法 目标函数
在线阅读 下载PDF
基于改进SMO的SVDD快速训练算法 被引量:1
2
作者 李丹阳 蔡金燕 +2 位作者 杜敏杰 朱赛 张峻宾 《中国测试》 CAS 北大核心 2015年第11期101-105,共5页
针对传统支持向量数据描述(support vector data description,SVDD)训练中存在的训练速度慢、存储核矩阵需要的空间开销大、计算量大、算法效率低等问题,提出一种基于改进序贯最小优化(SMO)算法的SVDD快速训练方法。该算法针对原有SMO... 针对传统支持向量数据描述(support vector data description,SVDD)训练中存在的训练速度慢、存储核矩阵需要的空间开销大、计算量大、算法效率低等问题,提出一种基于改进序贯最小优化(SMO)算法的SVDD快速训练方法。该算法针对原有SMO算法仅能处理单类样本的缺陷,提出一种可以处理负样本的改进方法,给出详细的计算推导过程,并针对KKT判定条件、工作集选择等关键问题进行改进。试验证明:与传统的SVDD训练算法相比,基于改进SMO算法的SVDD快速训练方法训练时间短,计算量小,分类准确度高,空间开销小,更适合于大规模数据的快速训练,具有较高的工程应用价值。 展开更多
关键词 序贯最小优化算法 快速训练 kkt条件 工作集选择 支持向量数据描述
在线阅读 下载PDF
一种新的支持向量机增量算法 被引量:1
3
作者 毛建洋 黄道 《华东理工大学学报(自然科学版)》 CAS CSCD 北大核心 2006年第8期989-991,共3页
分析了增量学习过程中支持向量和非支持向量的转化情况。在此基础上提出一种误分点回溯SVM增量算法,该算法先找出新增样本中被误分的样本,然后在原样本集寻找距误分点最近的样本作为训练集的一部分,重新构建分类器,这样能有效保留样本... 分析了增量学习过程中支持向量和非支持向量的转化情况。在此基础上提出一种误分点回溯SVM增量算法,该算法先找出新增样本中被误分的样本,然后在原样本集寻找距误分点最近的样本作为训练集的一部分,重新构建分类器,这样能有效保留样本的分类信息。实验结果表明:该算法比传统的支持向量机增量算法有更高的分类精度。 展开更多
关键词 统计学习 支持向量机 分类 增量学习 kkt条件
在线阅读 下载PDF
变样本量学习最小二乘支持向量机算法 被引量:6
4
作者 加尔肯别克 袁杰 《计算机工程》 CAS CSCD 北大核心 2019年第1期192-198,205,共8页
为增加最小二乘支持向量机(LS-SVM)算法解的稀疏性,提高其运算效率,提出一种变样本量学习LSSVM算法。从训练集中随机抽取部分样本作为初始工作集,在学习阶段将样本训练过程分为样本增量和样本减量2个阶段。在样本增量阶段,按KKT条件选... 为增加最小二乘支持向量机(LS-SVM)算法解的稀疏性,提高其运算效率,提出一种变样本量学习LSSVM算法。从训练集中随机抽取部分样本作为初始工作集,在学习阶段将样本训练过程分为样本增量和样本减量2个阶段。在样本增量阶段,按KKT条件选取特定样本加入工作集并进行训练,在样本减量阶段,采用负松弛变量剪枝策略与基于对偶目标函数差的剪枝策略实现剪枝。在此基础上,采用工作集中的剩余样本构造学习分类器。实验结果表明,相对SMO、SMO-new、ISLS-SVM算法,该算法具有稀疏性高、运算速度快、无精度损失等优点。 展开更多
关键词 最小二乘支持向量机 稀疏性 变样本量学习 预剪枝 kkt条件
在线阅读 下载PDF
面向概念漂移问题的渐进多核学习方法 被引量:1
5
作者 白东颖 易亚星 +1 位作者 王庆超 余志勇 《计算机应用》 CSCD 北大核心 2019年第9期2494-2498,共5页
针对概念漂移问题,构建数据特性随时间发生渐进变化特点的分类学习模型,提出一种基于渐进支持向量机(G-SVM)的渐进多核学习方法(G-MKL)。该方法采用支持向量机(SVM)为基本分类器,进行多区间上的子分类器耦合训练,并通过约束子分类器增... 针对概念漂移问题,构建数据特性随时间发生渐进变化特点的分类学习模型,提出一种基于渐进支持向量机(G-SVM)的渐进多核学习方法(G-MKL)。该方法采用支持向量机(SVM)为基本分类器,进行多区间上的子分类器耦合训练,并通过约束子分类器增量方式使模型适应数据渐进变化特性,最终将多个核函数以线性组合方式融入SVM求解框架。该方法综合发挥了各个核函数的优势,大大提高了模型适应性和有效性。在具有渐变特性的模拟数据集和真实数据集上将所提算法与多种经典算法进行了对比,验证了所提算法在处理非静态数据问题的有效性。 展开更多
关键词 概念漂移 支持向量机 多核学习 子分类器 kkt条件
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部