期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
DBAdam:一种具有动态边界的自适应梯度下降算法
1
作者 张帅 刘曜齐 姜志侠 《长春理工大学学报(自然科学版)》 2024年第5期105-111,共7页
在神经网络中,梯度下降算法是优化网络权值阈值参数的核心部分,它在很大程度上影响着神经网络的性能。对于许多自适应算法,如AdaGrad、RMPprop、Adam等,虽然在训练前期收敛速度快,但它们的泛化性通常不如SGDM算法。为结合自适应算法和S... 在神经网络中,梯度下降算法是优化网络权值阈值参数的核心部分,它在很大程度上影响着神经网络的性能。对于许多自适应算法,如AdaGrad、RMPprop、Adam等,虽然在训练前期收敛速度快,但它们的泛化性通常不如SGDM算法。为结合自适应算法和SGDM算法各自的优点,提出了DBAdam算法。通过利用梯度和学习率信息,构造了基于自适应学习率的动态上界函数和下界函数,将学习率约束在一个可控的范围内。这样使算法能够更好地适应不同参数的梯度变化,从而加快收敛速度。基于多种深度神经网络模型在三个基准数据集上对DBAdam算法进行实验,结果表明该算法的收敛性能较好。 展开更多
关键词 神经网络 自适应算法 SGDM算法 收敛性
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部