期刊文献+
共找到2篇文章
< 1 >
每页显示 20 50 100
基于AMASPGD算法的FSOC系统波前畸变校正及性能分析
1
作者 赵辉 于林仙 +2 位作者 秦玉林 付英印 李俊男 《电光与控制》 CSCD 北大核心 2024年第5期95-100,共6页
为了抑制相干自由空间光通信系统中大气湍流引起光信号波前失真的不利影响,提出了一种基于聚合动量(AM)和自适应矩边界(AdaMod)优化器的增强型随机并行梯度下降(SPGD)算法。仿真结果表明,该优化算法可以显著提高收敛速度和鲁棒性,并有... 为了抑制相干自由空间光通信系统中大气湍流引起光信号波前失真的不利影响,提出了一种基于聚合动量(AM)和自适应矩边界(AdaMod)优化器的增强型随机并行梯度下降(SPGD)算法。仿真结果表明,该优化算法可以显著提高收敛速度和鲁棒性,并有效降低波前畸变的峰谷值和均方根,从而更有效地抑制大气湍流对相干自由空间光通信(FSOC)系统混频效率和误码率的负面影响。 展开更多
关键词 自由空间光通信 聚合动量 大气湍流 随机并行梯度下降算法 波前畸变校正
在线阅读 下载PDF
基于Bagging-Down SGD算法的分布式深度网络 被引量:1
2
作者 秦超 高晓光 陈大庆 《系统工程与电子技术》 EI CSCD 北大核心 2019年第5期1021-1027,共7页
通过对大量数据进行训练并采用分布式深度学习算法可以学习到比较好的数据结构,而传统的分布式深度学习算法在处理大数据集时存在训练时间比较慢或者训练精度比较低的问题。提出Bootstrap向下聚合随机梯度下降(Bootstrap aggregating-do... 通过对大量数据进行训练并采用分布式深度学习算法可以学习到比较好的数据结构,而传统的分布式深度学习算法在处理大数据集时存在训练时间比较慢或者训练精度比较低的问题。提出Bootstrap向下聚合随机梯度下降(Bootstrap aggregating-down stochastic gradient descent,Bagging-Down SGD)算法重点来提高分布式深度网络的学习速率。Bagging-Down SGD算法通过在众多单机模型上加入速度控制器,对单机计算的参数值做统计处理,减少了参数更新的频率,并且可以使单机模型训练和参数更新在一定程度上分开,在保证训练精度的同时,提高了整个分布式模型的训练速度。该算法具有普适性,可以对多种类别的数据进行学习。 展开更多
关键词 深度网络 分布式 bootstrap向下聚合随机梯度下降 速度控制器
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部