期刊导航
期刊开放获取
上海教育软件发展有限公..
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
卷积神经网络并行方法研究
被引量:
2
1
作者
朱传家
刘鑫
方佳瑞
《计算机应用与软件》
北大核心
2020年第11期209-214,共6页
随着训练数据集的增大和神经网络的日益复杂,训练深度神经网络非常耗时,在有效的时间内训练深度神经网络成为一大挑战。卷积神经网络具有网络参数分布不均匀的特点。提出一种同时使用数据并行和模型并行的卷积神经网络并行方法,并基于...
随着训练数据集的增大和神经网络的日益复杂,训练深度神经网络非常耗时,在有效的时间内训练深度神经网络成为一大挑战。卷积神经网络具有网络参数分布不均匀的特点。提出一种同时使用数据并行和模型并行的卷积神经网络并行方法,并基于国产超级计算机系统和深度学习框架Caffe进行实验。实验结果表明,对某些全连接层,使用模型并行相比使用数据并行加速可达33倍。
展开更多
关键词
卷积神经网络
并行方法
数据并行
模型并行
国产超级计算机系统
在线阅读
下载PDF
职称材料
题名
卷积神经网络并行方法研究
被引量:
2
1
作者
朱传家
刘鑫
方佳瑞
机构
江南计算技术研究所
清华大学计算机科学与技术系
出处
《计算机应用与软件》
北大核心
2020年第11期209-214,共6页
基金
国家重点研发计划“全球变化及应对”专项基金项目(2016YFA0602200)。
文摘
随着训练数据集的增大和神经网络的日益复杂,训练深度神经网络非常耗时,在有效的时间内训练深度神经网络成为一大挑战。卷积神经网络具有网络参数分布不均匀的特点。提出一种同时使用数据并行和模型并行的卷积神经网络并行方法,并基于国产超级计算机系统和深度学习框架Caffe进行实验。实验结果表明,对某些全连接层,使用模型并行相比使用数据并行加速可达33倍。
关键词
卷积神经网络
并行方法
数据并行
模型并行
国产超级计算机系统
Keywords
CNN
Parallelism method
Data parallelism
Model parallelism
Domestic supercomputer
分类号
TP3 [自动化与计算机技术—计算机科学与技术]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
卷积神经网络并行方法研究
朱传家
刘鑫
方佳瑞
《计算机应用与软件》
北大核心
2020
2
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部