期刊导航
期刊开放获取
上海教育软件发展有限公..
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
DBAdam:一种具有动态边界的自适应梯度下降算法
1
作者
张帅
刘曜齐
姜志侠
《长春理工大学学报(自然科学版)》
2024年第5期105-111,共7页
在神经网络中,梯度下降算法是优化网络权值阈值参数的核心部分,它在很大程度上影响着神经网络的性能。对于许多自适应算法,如AdaGrad、RMPprop、Adam等,虽然在训练前期收敛速度快,但它们的泛化性通常不如SGDM算法。为结合自适应算法和S...
在神经网络中,梯度下降算法是优化网络权值阈值参数的核心部分,它在很大程度上影响着神经网络的性能。对于许多自适应算法,如AdaGrad、RMPprop、Adam等,虽然在训练前期收敛速度快,但它们的泛化性通常不如SGDM算法。为结合自适应算法和SGDM算法各自的优点,提出了DBAdam算法。通过利用梯度和学习率信息,构造了基于自适应学习率的动态上界函数和下界函数,将学习率约束在一个可控的范围内。这样使算法能够更好地适应不同参数的梯度变化,从而加快收敛速度。基于多种深度神经网络模型在三个基准数据集上对DBAdam算法进行实验,结果表明该算法的收敛性能较好。
展开更多
关键词
神经网络
自适应算法
SGDM算法
收敛性
在线阅读
下载PDF
职称材料
题名
DBAdam:一种具有动态边界的自适应梯度下降算法
1
作者
张帅
刘曜齐
姜志侠
机构
长春理工大学数学与统计学院
吉林大学汽车工程学院
出处
《长春理工大学学报(自然科学版)》
2024年第5期105-111,共7页
基金
吉林省自然科学基金(YDZJ202201ZYTS519)。
文摘
在神经网络中,梯度下降算法是优化网络权值阈值参数的核心部分,它在很大程度上影响着神经网络的性能。对于许多自适应算法,如AdaGrad、RMPprop、Adam等,虽然在训练前期收敛速度快,但它们的泛化性通常不如SGDM算法。为结合自适应算法和SGDM算法各自的优点,提出了DBAdam算法。通过利用梯度和学习率信息,构造了基于自适应学习率的动态上界函数和下界函数,将学习率约束在一个可控的范围内。这样使算法能够更好地适应不同参数的梯度变化,从而加快收敛速度。基于多种深度神经网络模型在三个基准数据集上对DBAdam算法进行实验,结果表明该算法的收敛性能较好。
关键词
神经网络
自适应算法
SGDM算法
收敛性
Keywords
neural network
adaptive algorithm
SGDM algorithm
convergence
分类号
TP181 [自动化与计算机技术—控制理论与控制工程]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
DBAdam:一种具有动态边界的自适应梯度下降算法
张帅
刘曜齐
姜志侠
《长春理工大学学报(自然科学版)》
2024
0
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部