期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
一种大规模支持向量机的高效求解算法 被引量:1
1
作者 冯昌 李子达 廖士中 《计算机科学》 CSCD 北大核心 2015年第9期195-198,共4页
现有大规模支持向量机求解算法需要大量的内存资源和训练时间,通常在大集群并行环境下才能实现。提出了一种大规模支持向量机(SVM)的高效求解算法,以在个人PC机求解大规模SVM。它包括3个步骤:首先对大规模样本进行子采样来降低数据规模... 现有大规模支持向量机求解算法需要大量的内存资源和训练时间,通常在大集群并行环境下才能实现。提出了一种大规模支持向量机(SVM)的高效求解算法,以在个人PC机求解大规模SVM。它包括3个步骤:首先对大规模样本进行子采样来降低数据规模;然后应用随机傅里叶映射显式地构造随机特征空间,使得可在该随机特征空间中应用线性SVM来一致逼近高斯核SVM;最后给出线性SVM在多核环境下的并行实现方法以进一步提高求解效率。标准数据集的对比实验验证了该求解算法的可行性与高效性。 展开更多
关键词 大规模支持向量机 子采样 傅里叶特征 并行线性支持向量
在线阅读 下载PDF
用LDL^T并行分解优化大规模SVM的训练效率 被引量:2
2
作者 覃华 徐燕子 《计算机工程与应用》 CSCD 北大核心 2011年第12期200-202,212,共4页
支持向量机在大规模训练集上学习时,存在学习时间长、泛化能力下降的问题。研究使用路径跟踪内点法构建面向大规模训练集的SVM学习算法,找到影响算法学习效率的关键是求解大型线性修正方程,首先使用降维法降低修正方程的维数,再使用矩阵... 支持向量机在大规模训练集上学习时,存在学习时间长、泛化能力下降的问题。研究使用路径跟踪内点法构建面向大规模训练集的SVM学习算法,找到影响算法学习效率的关键是求解大型线性修正方程,首先使用降维法降低修正方程的维数,再使用矩阵LDLT并行分解高效地求解子修正方程,达到优化大规模SVM学习效率的目的,实验结果说明SVM训练效率提升的同时不影响SVM模型的泛化能力。 展开更多
关键词 大规模支持向量机 路径跟踪内点法 矩阵LDLT并行分解
在线阅读 下载PDF
并行效率敏感的大规模SVM数据分块数选择 被引量:1
3
作者 张闯 廖士中 《数据采集与处理》 CSCD 北大核心 2018年第6期1068-1076,共9页
数据分块数的选择是并行/分布式机器学习模型选择的基本问题之一,直接影响着机器学习算法的泛化性和运行效率。现有并行/分布式机器学习方法往往根据经验或处理器个数来选择数据分块数,没有明确的数据分块数选择准则。提出一个并行效率... 数据分块数的选择是并行/分布式机器学习模型选择的基本问题之一,直接影响着机器学习算法的泛化性和运行效率。现有并行/分布式机器学习方法往往根据经验或处理器个数来选择数据分块数,没有明确的数据分块数选择准则。提出一个并行效率敏感的并行/分布式机器学习数据分块数选择准则,该准则可在保证并行/分布式机器学习模型测试精度的情况下,提高计算效率。首先推导并行/分布式机器学习模型的泛化误差与分块数目的关系。然后以此为基础,提出折衷泛化性与并行效率的数据分块数选择准则。最后,在ADMM框架下随机傅里叶特征空间中,给出采用该数据分块数选择准则的大规模支持向量机实现方案,并在高性能计算集群和大规模标准数据集上对所提出的数据分块数选择准则的有效性进行实验验证。 展开更多
关键词 大规模支持向量机 模型选择 数据分块 交替方向乘子法 傅里叶特征
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部