期刊文献+
共找到6篇文章
< 1 >
每页显示 20 50 100
一种训练支撑向量机的改进贯序最小优化算法 被引量:25
1
作者 孙剑 郑南宁 张志华 《软件学报》 EI CSCD 北大核心 2002年第10期2007-2013,共7页
对于大规模问题,分解方法是训练支撑向量机主要的一类方法.在很多分类问题中,有相当比例的支撑向量对应的拉格朗日乘子达到惩罚上界,而且在训练过程中到达上界的拉格朗日乘子变化平稳.利用这一统计特性,提出了一种有效的缓存策略来加速... 对于大规模问题,分解方法是训练支撑向量机主要的一类方法.在很多分类问题中,有相当比例的支撑向量对应的拉格朗日乘子达到惩罚上界,而且在训练过程中到达上界的拉格朗日乘子变化平稳.利用这一统计特性,提出了一种有效的缓存策略来加速这类分解方法,并将其具体应用于Platt的贯序最小优化(sequential minimization optimization,简称SMO) 算法中.实验结果表明,改进后的SMO算法的速度是原有算法训练的2~3倍. 展开更多
关键词 支撑向量机 贯序最小优化算法 机器学习 模式分类 二次规划 缓存策略
在线阅读 下载PDF
一种改进的序贯最小优化算法 被引量:5
2
作者 骆世广 杨晓伟 +1 位作者 吴广潮 张新华 《计算机科学》 CSCD 北大核心 2006年第11期146-148,共3页
序贯最小优化(SMO)算法是目前解决支持向量机训练问题的一种十分有效的方法,但是当面对大样本数据时,SMO训练速度比较慢。本文分析了SMO迭代过程中目标函数值的变化情况,进而提出以目标函数值的改变量作为算法终止的判定条件。几个著名... 序贯最小优化(SMO)算法是目前解决支持向量机训练问题的一种十分有效的方法,但是当面对大样本数据时,SMO训练速度比较慢。本文分析了SMO迭代过程中目标函数值的变化情况,进而提出以目标函数值的改变量作为算法终止的判定条件。几个著名的数据集的试验结果表明,该方法可以大大缩短SMO的训练时间,特别适用于大样本数据。 展开更多
关键词 支持向量机 最小优化算法
在线阅读 下载PDF
一种改进序贯最小优化算法的方法 被引量:2
3
作者 项堃 喻莹 《现代电子技术》 2013年第8期17-19,共3页
序贯最小优化算法(SMO)是支持向量机(SVM)训练算法中一种十分有效的改进方法,但针对大规模样本数据时,SMO训练速度仍比较慢。为了提高训练速度,在基本保持训练精度的前提下,提出了一种改进优化策略:即跳过部分与精度无关的向量集、提前... 序贯最小优化算法(SMO)是支持向量机(SVM)训练算法中一种十分有效的改进方法,但针对大规模样本数据时,SMO训练速度仍比较慢。为了提高训练速度,在基本保持训练精度的前提下,提出了一种改进优化策略:即跳过部分与精度无关的向量集、提前结束循环、松弛KKT条件以便收缩工作集。经过几个著名的数据集的试验结果表明,此策略可以大幅缩短SMO的训练时间,并且精度没有明显变化。 展开更多
关键词 支持向量机 最小优化算法 去除无关向量 收缩工作集
在线阅读 下载PDF
基于并行处理的序贯最小优化算法
4
作者 于红彬 曾志强 《郑州轻工业学院学报(自然科学版)》 CAS 2009年第3期28-31,共4页
以对称多处理机为硬件基础,采用并行计算的方式对序贯最小优化算法进行改进.实验表明,改进后的算法能够在不影响结果分类器分类精度的前提下,极大地提高支持向量机的训练速度,并且,样本数量越大、维度越高,采用并行算法的训练效率的提... 以对称多处理机为硬件基础,采用并行计算的方式对序贯最小优化算法进行改进.实验表明,改进后的算法能够在不影响结果分类器分类精度的前提下,极大地提高支持向量机的训练速度,并且,样本数量越大、维度越高,采用并行算法的训练效率的提高就越显著. 展开更多
关键词 支持向量机 最小优化算法 并行计算 训练效率
在线阅读 下载PDF
加快SMO算法训练速度的策略研究 被引量:4
5
作者 骆世广 骆昌日 《计算机工程与应用》 CSCD 北大核心 2007年第33期184-187,共4页
SMO(序贯最小优化算法)算法是目前解决支持向量机训练问题的一种十分有效的方法,但是当面对大样本数据时,SMO训练速度比较慢。考虑到在SVM的优化过程中并不是所有样本都能影响优化进展,提出了两种删除样本的策略:一种是基于距离,一种是... SMO(序贯最小优化算法)算法是目前解决支持向量机训练问题的一种十分有效的方法,但是当面对大样本数据时,SMO训练速度比较慢。考虑到在SVM的优化过程中并不是所有样本都能影响优化进展,提出了两种删除样本的策略:一种是基于距离,一种是基于拉格朗日乘子的值。在几个著名的数据集的试验结果表明,两种策略都可以大大缩短SMO的训练时间,特别适用于大样本数据。 展开更多
关键词 支持向量机 最小优化算法 SHRINKING
在线阅读 下载PDF
基于改进SMO的SVDD快速训练算法 被引量:1
6
作者 李丹阳 蔡金燕 +2 位作者 杜敏杰 朱赛 张峻宾 《中国测试》 CAS 北大核心 2015年第11期101-105,共5页
针对传统支持向量数据描述(support vector data description,SVDD)训练中存在的训练速度慢、存储核矩阵需要的空间开销大、计算量大、算法效率低等问题,提出一种基于改进序贯最小优化(SMO)算法的SVDD快速训练方法。该算法针对原有SMO... 针对传统支持向量数据描述(support vector data description,SVDD)训练中存在的训练速度慢、存储核矩阵需要的空间开销大、计算量大、算法效率低等问题,提出一种基于改进序贯最小优化(SMO)算法的SVDD快速训练方法。该算法针对原有SMO算法仅能处理单类样本的缺陷,提出一种可以处理负样本的改进方法,给出详细的计算推导过程,并针对KKT判定条件、工作集选择等关键问题进行改进。试验证明:与传统的SVDD训练算法相比,基于改进SMO算法的SVDD快速训练方法训练时间短,计算量小,分类准确度高,空间开销小,更适合于大规模数据的快速训练,具有较高的工程应用价值。 展开更多
关键词 最小优化算法 快速训练 KKT条件 工作集选择 支持向量数据描述
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部