期刊导航
期刊开放获取
上海教育软件发展有限公..
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
2
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
一种基于Comid的非光滑损失随机坐标下降方法
被引量:
3
1
作者
陶卿
朱烨雷
+1 位作者
罗强
孔康
《电子学报》
EI
CAS
CSCD
北大核心
2013年第4期768-775,共8页
坐标下降方法以简洁的操作流程、低廉的计算代价和快速的实际收敛效果,成为处理大规模优化最有效的方法之一.但目前几乎所有的坐标下降方法都由于子问题解析求解的需要而假设损失函数的光滑性.本文在结构学习的框架下,在采用Comid方法...
坐标下降方法以简洁的操作流程、低廉的计算代价和快速的实际收敛效果,成为处理大规模优化最有效的方法之一.但目前几乎所有的坐标下降方法都由于子问题解析求解的需要而假设损失函数的光滑性.本文在结构学习的框架下,在采用Comid方法求解随机挑选单变量子问题的基础上,提出了一种新的关于非光滑损失的随机坐标下降方法.理论分析表明本文所提出的算法在一般凸条件下可以得到Ο(t-(1/2)/t)的收敛速度,在强凸条件下可以得到Ο(lnt/t)的收敛速度.实验结果表明本文所提出的算法对正则化Hinge损失问题实现了坐标优化预期的效果.
展开更多
关键词
机器学习
优化
大规模
坐标下降方法
非光滑损失
结构学习
COMID
在线阅读
下载PDF
职称材料
鲁棒支持向量机及其稀疏算法
被引量:
6
2
作者
安亚利
周水生
+1 位作者
陈丽
王保军
《西安电子科技大学学报》
EI
CAS
CSCD
北大核心
2019年第1期64-72,共9页
基于非凸光滑损失的鲁棒支持向量机分类模型对异常点具有鲁棒性,但已有求解算法需迭代求解二次规划,计算量大且收敛速度慢,不适合训练大规模数据问题。为了克服这些缺点,首先给出收敛速度更快的方法求解鲁棒支持向量机模型;然后基于最...
基于非凸光滑损失的鲁棒支持向量机分类模型对异常点具有鲁棒性,但已有求解算法需迭代求解二次规划,计算量大且收敛速度慢,不适合训练大规模数据问题。为了克服这些缺点,首先给出收敛速度更快的方法求解鲁棒支持向量机模型;然后基于最小二乘的思想,提出了一种推广的指数鲁棒最小二乘支持向量机模型及其快速收敛的求解算法,并从理论上解释了模型的鲁棒性;最后利用核矩阵的低秩近似,提出了适于处理大规模训练问题的稀疏鲁棒支持向量机算法和稀疏指数鲁棒最小二乘支持向量机算法。实验结果表明,新算法在收敛速度、测试精度和训练时间等方面均优于相关算法。
展开更多
关键词
鲁棒支持向量机
非
凸
光滑
损失
稀疏解
低秩近似
在线阅读
下载PDF
职称材料
题名
一种基于Comid的非光滑损失随机坐标下降方法
被引量:
3
1
作者
陶卿
朱烨雷
罗强
孔康
机构
中国人民解放军陆军军官学院
出处
《电子学报》
EI
CAS
CSCD
北大核心
2013年第4期768-775,共8页
基金
国家自然科学基金项目(No.61273296
No.60975040)
文摘
坐标下降方法以简洁的操作流程、低廉的计算代价和快速的实际收敛效果,成为处理大规模优化最有效的方法之一.但目前几乎所有的坐标下降方法都由于子问题解析求解的需要而假设损失函数的光滑性.本文在结构学习的框架下,在采用Comid方法求解随机挑选单变量子问题的基础上,提出了一种新的关于非光滑损失的随机坐标下降方法.理论分析表明本文所提出的算法在一般凸条件下可以得到Ο(t-(1/2)/t)的收敛速度,在强凸条件下可以得到Ο(lnt/t)的收敛速度.实验结果表明本文所提出的算法对正则化Hinge损失问题实现了坐标优化预期的效果.
关键词
机器学习
优化
大规模
坐标下降方法
非光滑损失
结构学习
COMID
Keywords
machine learning
optimization
large-scale
coordinate descent methods
non-smooth losses
structural learning
COM]D
分类号
TP301 [自动化与计算机技术—计算机系统结构]
在线阅读
下载PDF
职称材料
题名
鲁棒支持向量机及其稀疏算法
被引量:
6
2
作者
安亚利
周水生
陈丽
王保军
机构
西安电子科技大学数学与统计学院
出处
《西安电子科技大学学报》
EI
CAS
CSCD
北大核心
2019年第1期64-72,共9页
基金
国家自然科学基金(61772020)
文摘
基于非凸光滑损失的鲁棒支持向量机分类模型对异常点具有鲁棒性,但已有求解算法需迭代求解二次规划,计算量大且收敛速度慢,不适合训练大规模数据问题。为了克服这些缺点,首先给出收敛速度更快的方法求解鲁棒支持向量机模型;然后基于最小二乘的思想,提出了一种推广的指数鲁棒最小二乘支持向量机模型及其快速收敛的求解算法,并从理论上解释了模型的鲁棒性;最后利用核矩阵的低秩近似,提出了适于处理大规模训练问题的稀疏鲁棒支持向量机算法和稀疏指数鲁棒最小二乘支持向量机算法。实验结果表明,新算法在收敛速度、测试精度和训练时间等方面均优于相关算法。
关键词
鲁棒支持向量机
非
凸
光滑
损失
稀疏解
低秩近似
Keywords
robust support vector machines
nonconvex and smooth loss
sparse solution
low-rank approximation
分类号
TP391 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
一种基于Comid的非光滑损失随机坐标下降方法
陶卿
朱烨雷
罗强
孔康
《电子学报》
EI
CAS
CSCD
北大核心
2013
3
在线阅读
下载PDF
职称材料
2
鲁棒支持向量机及其稀疏算法
安亚利
周水生
陈丽
王保军
《西安电子科技大学学报》
EI
CAS
CSCD
北大核心
2019
6
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部