期刊文献+
共找到2篇文章
< 1 >
每页显示 20 50 100
“可预测的”非凸在线点对学习的遗憾界
1
作者 郎璇聪 王梅 +1 位作者 刘勇 李春生 《郑州大学学报(理学版)》 北大核心 2025年第4期55-62,共8页
在线点对学习是指损失函数依赖于一对实例的在线学习模式,泛化性是在线点对学习理论研究的重要内容。大多数关于在线点对学习使用对抗性损失函数且假设凸性,然而凸性并不符合通常的实际应用场景。针对非凸在线点对学习,给出基于稳定性... 在线点对学习是指损失函数依赖于一对实例的在线学习模式,泛化性是在线点对学习理论研究的重要内容。大多数关于在线点对学习使用对抗性损失函数且假设凸性,然而凸性并不符合通常的实际应用场景。针对非凸在线点对学习,给出基于稳定性分析的具有“可预测的”损失函数的在线点对学习遗憾界,作出相应的稳定性分析。通过稳定性和度量在线点对学习泛化能力的常用方式——遗憾之间的关系,建立“可预测的”非凸损失函数下的遗憾界。证明当学习者(leaner)能够获得离线神谕(oracle)时,“可预测的”非凸广义在线点对学习达到遗憾界O(T^(-3/2))。该结论丰富了非凸在线点对学习的理论研究,且优于现有理论保证。 展开更多
关键词 在线点对学习 非凸 稳定性 遗憾界 离线神谕
在线阅读 下载PDF
基于稳定性分析的非凸损失函数在线点对学习的遗憾界 被引量:1
2
作者 郎璇聪 李春生 +1 位作者 刘勇 王梅 《计算机研究与发展》 EI CSCD 北大核心 2023年第12期2806-2813,共8页
点对学习(pairwise learning)是指损失函数依赖于2个实例的学习任务.遗憾界对点对学习的泛化分析尤为重要.现有的在线点对学习分析只提供了凸损失函数下的遗憾界.为了弥补非凸损失函数下在线点对学习理论研究的空白,提出了基于稳定性分... 点对学习(pairwise learning)是指损失函数依赖于2个实例的学习任务.遗憾界对点对学习的泛化分析尤为重要.现有的在线点对学习分析只提供了凸损失函数下的遗憾界.为了弥补非凸损失函数下在线点对学习理论研究的空白,提出了基于稳定性分析的非凸损失函数在线点对学习的遗憾界.首先提出了一个广义的在线点对学习框架,并给出了具有非凸损失函数的在线点对学习的稳定性分析;然后,根据稳定性和遗憾界之间的关系,对非凸损失函数下的遗憾界进行研究;最后证明了当学习者能够获得离线神谕(oracle)时,具有非凸损失函数的广义在线点对学习框架实现了最佳的遗憾界O(T-^(1/2)). 展开更多
关键词 在线点对学习 非凸 稳定性 遗憾界 离线优化神谕
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部