期刊文献+
共找到2篇文章
< 1 >
每页显示 20 50 100
一种基于Comid的非光滑损失随机坐标下降方法 被引量:3
1
作者 陶卿 朱烨雷 +1 位作者 罗强 孔康 《电子学报》 EI CAS CSCD 北大核心 2013年第4期768-775,共8页
坐标下降方法以简洁的操作流程、低廉的计算代价和快速的实际收敛效果,成为处理大规模优化最有效的方法之一.但目前几乎所有的坐标下降方法都由于子问题解析求解的需要而假设损失函数的光滑性.本文在结构学习的框架下,在采用Comid方法... 坐标下降方法以简洁的操作流程、低廉的计算代价和快速的实际收敛效果,成为处理大规模优化最有效的方法之一.但目前几乎所有的坐标下降方法都由于子问题解析求解的需要而假设损失函数的光滑性.本文在结构学习的框架下,在采用Comid方法求解随机挑选单变量子问题的基础上,提出了一种新的关于非光滑损失的随机坐标下降方法.理论分析表明本文所提出的算法在一般凸条件下可以得到Ο(t-(1/2)/t)的收敛速度,在强凸条件下可以得到Ο(lnt/t)的收敛速度.实验结果表明本文所提出的算法对正则化Hinge损失问题实现了坐标优化预期的效果. 展开更多
关键词 机器学习 优化 大规模 坐标下降方法 非光滑损失 结构学习 COMID
在线阅读 下载PDF
鲁棒支持向量机及其稀疏算法 被引量:6
2
作者 安亚利 周水生 +1 位作者 陈丽 王保军 《西安电子科技大学学报》 EI CAS CSCD 北大核心 2019年第1期64-72,共9页
基于非凸光滑损失的鲁棒支持向量机分类模型对异常点具有鲁棒性,但已有求解算法需迭代求解二次规划,计算量大且收敛速度慢,不适合训练大规模数据问题。为了克服这些缺点,首先给出收敛速度更快的方法求解鲁棒支持向量机模型;然后基于最... 基于非凸光滑损失的鲁棒支持向量机分类模型对异常点具有鲁棒性,但已有求解算法需迭代求解二次规划,计算量大且收敛速度慢,不适合训练大规模数据问题。为了克服这些缺点,首先给出收敛速度更快的方法求解鲁棒支持向量机模型;然后基于最小二乘的思想,提出了一种推广的指数鲁棒最小二乘支持向量机模型及其快速收敛的求解算法,并从理论上解释了模型的鲁棒性;最后利用核矩阵的低秩近似,提出了适于处理大规模训练问题的稀疏鲁棒支持向量机算法和稀疏指数鲁棒最小二乘支持向量机算法。实验结果表明,新算法在收敛速度、测试精度和训练时间等方面均优于相关算法。 展开更多
关键词 鲁棒支持向量机 光滑损失 稀疏解 低秩近似
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部