期刊导航
期刊开放获取
上海教育软件发展有限公..
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
2
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于AMASPGD算法的FSOC系统波前畸变校正及性能分析
1
作者
赵辉
于林仙
+2 位作者
秦玉林
付英印
李俊男
《电光与控制》
CSCD
北大核心
2024年第5期95-100,共6页
为了抑制相干自由空间光通信系统中大气湍流引起光信号波前失真的不利影响,提出了一种基于聚合动量(AM)和自适应矩边界(AdaMod)优化器的增强型随机并行梯度下降(SPGD)算法。仿真结果表明,该优化算法可以显著提高收敛速度和鲁棒性,并有...
为了抑制相干自由空间光通信系统中大气湍流引起光信号波前失真的不利影响,提出了一种基于聚合动量(AM)和自适应矩边界(AdaMod)优化器的增强型随机并行梯度下降(SPGD)算法。仿真结果表明,该优化算法可以显著提高收敛速度和鲁棒性,并有效降低波前畸变的峰谷值和均方根,从而更有效地抑制大气湍流对相干自由空间光通信(FSOC)系统混频效率和误码率的负面影响。
展开更多
关键词
自由空间光通信
聚合
动量
大气湍流
随机
并行
梯度
下降
算法
波前畸变校正
在线阅读
下载PDF
职称材料
基于Bagging-Down SGD算法的分布式深度网络
被引量:
1
2
作者
秦超
高晓光
陈大庆
《系统工程与电子技术》
EI
CSCD
北大核心
2019年第5期1021-1027,共7页
通过对大量数据进行训练并采用分布式深度学习算法可以学习到比较好的数据结构,而传统的分布式深度学习算法在处理大数据集时存在训练时间比较慢或者训练精度比较低的问题。提出Bootstrap向下聚合随机梯度下降(Bootstrap aggregating-do...
通过对大量数据进行训练并采用分布式深度学习算法可以学习到比较好的数据结构,而传统的分布式深度学习算法在处理大数据集时存在训练时间比较慢或者训练精度比较低的问题。提出Bootstrap向下聚合随机梯度下降(Bootstrap aggregating-down stochastic gradient descent,Bagging-Down SGD)算法重点来提高分布式深度网络的学习速率。Bagging-Down SGD算法通过在众多单机模型上加入速度控制器,对单机计算的参数值做统计处理,减少了参数更新的频率,并且可以使单机模型训练和参数更新在一定程度上分开,在保证训练精度的同时,提高了整个分布式模型的训练速度。该算法具有普适性,可以对多种类别的数据进行学习。
展开更多
关键词
深度网络
分布式
bootstrap向下聚合随机梯度下降
速度控制器
在线阅读
下载PDF
职称材料
题名
基于AMASPGD算法的FSOC系统波前畸变校正及性能分析
1
作者
赵辉
于林仙
秦玉林
付英印
李俊男
机构
重庆邮电大学通信与信息工程学院
信号与信息处理重庆市重点实验室
出处
《电光与控制》
CSCD
北大核心
2024年第5期95-100,共6页
基金
国家自然科学基金(12104078)。
文摘
为了抑制相干自由空间光通信系统中大气湍流引起光信号波前失真的不利影响,提出了一种基于聚合动量(AM)和自适应矩边界(AdaMod)优化器的增强型随机并行梯度下降(SPGD)算法。仿真结果表明,该优化算法可以显著提高收敛速度和鲁棒性,并有效降低波前畸变的峰谷值和均方根,从而更有效地抑制大气湍流对相干自由空间光通信(FSOC)系统混频效率和误码率的负面影响。
关键词
自由空间光通信
聚合
动量
大气湍流
随机
并行
梯度
下降
算法
波前畸变校正
Keywords
free-space optical communication
aggregated momentum
atmospheric turbulence
stochastic parallel gradient descentalgorithm
wavefront distortion correction
分类号
TN929.12 [电子电信—通信与信息系统]
在线阅读
下载PDF
职称材料
题名
基于Bagging-Down SGD算法的分布式深度网络
被引量:
1
2
作者
秦超
高晓光
陈大庆
机构
西北工业大学电子信息学院
南岸大学
出处
《系统工程与电子技术》
EI
CSCD
北大核心
2019年第5期1021-1027,共7页
基金
国家自然科学基金(61573285)资助课题
文摘
通过对大量数据进行训练并采用分布式深度学习算法可以学习到比较好的数据结构,而传统的分布式深度学习算法在处理大数据集时存在训练时间比较慢或者训练精度比较低的问题。提出Bootstrap向下聚合随机梯度下降(Bootstrap aggregating-down stochastic gradient descent,Bagging-Down SGD)算法重点来提高分布式深度网络的学习速率。Bagging-Down SGD算法通过在众多单机模型上加入速度控制器,对单机计算的参数值做统计处理,减少了参数更新的频率,并且可以使单机模型训练和参数更新在一定程度上分开,在保证训练精度的同时,提高了整个分布式模型的训练速度。该算法具有普适性,可以对多种类别的数据进行学习。
关键词
深度网络
分布式
bootstrap向下聚合随机梯度下降
速度控制器
Keywords
deep network
distributed
bootstrap
aggregating-down stochastic gradient descent (Bagging-Down SGD)
speed controller
分类号
TP301.6 [自动化与计算机技术—计算机系统结构]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于AMASPGD算法的FSOC系统波前畸变校正及性能分析
赵辉
于林仙
秦玉林
付英印
李俊男
《电光与控制》
CSCD
北大核心
2024
0
在线阅读
下载PDF
职称材料
2
基于Bagging-Down SGD算法的分布式深度网络
秦超
高晓光
陈大庆
《系统工程与电子技术》
EI
CSCD
北大核心
2019
1
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部