期刊文献+
共找到2篇文章
< 1 >
每页显示 20 50 100
基于“神威太湖之光”的Caffe分布式扩展研究 被引量:4
1
作者 朱传家 刘鑫 方佳瑞 《计算机应用与软件》 北大核心 2020年第1期15-20,共6页
随着深度学习的快速发展,其规模越来越大,需要的计算越来越复杂。分布式扩展技术可以有效提高大规模数据的处理能力。基于神威太湖之光超算平台对深度学习框架Caffe进行分布式扩展研究,对比同步方式下参数服务器分布式扩展方法和去中心... 随着深度学习的快速发展,其规模越来越大,需要的计算越来越复杂。分布式扩展技术可以有效提高大规模数据的处理能力。基于神威太湖之光超算平台对深度学习框架Caffe进行分布式扩展研究,对比同步方式下参数服务器分布式扩展方法和去中心化的分布式扩展方法。实验表明,同步方式下,去中心化的分布式扩展方法相比参数服务器分布式扩展方法在通信效率方面具有明显的优势,对特定的模型通信性能提高可达98倍。 展开更多
关键词 深度学习 分布式优化 Caffe 神威太湖之光
在线阅读 下载PDF
卷积神经网络并行方法研究 被引量:2
2
作者 朱传家 刘鑫 方佳瑞 《计算机应用与软件》 北大核心 2020年第11期209-214,共6页
随着训练数据集的增大和神经网络的日益复杂,训练深度神经网络非常耗时,在有效的时间内训练深度神经网络成为一大挑战。卷积神经网络具有网络参数分布不均匀的特点。提出一种同时使用数据并行和模型并行的卷积神经网络并行方法,并基于... 随着训练数据集的增大和神经网络的日益复杂,训练深度神经网络非常耗时,在有效的时间内训练深度神经网络成为一大挑战。卷积神经网络具有网络参数分布不均匀的特点。提出一种同时使用数据并行和模型并行的卷积神经网络并行方法,并基于国产超级计算机系统和深度学习框架Caffe进行实验。实验结果表明,对某些全连接层,使用模型并行相比使用数据并行加速可达33倍。 展开更多
关键词 卷积神经网络 并行方法 数据并行 模型并行 国产超级计算机系统
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部