期刊导航
期刊开放获取
上海教育软件发展有限公..
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
面向稀疏卷积神经网络的CGRA加速器研究
被引量:
1
1
作者
谭龙
严明玉
+3 位作者
吴欣欣
李文明
吴海彬
范东睿
《高技术通讯》
CAS
北大核心
2024年第2期173-186,共14页
本文针对规模日益增长和演变迅速的稀疏卷积神经网络(CNN)应用,提出一款高能效且灵活的加速结构DyCNN来提升其性能和能效。DyCNN基于兼具灵活性和高能效的粗粒度可重构架构(CGRA)设计,可以利用其指令的高并行性来高效支持CNN的操作。Dy...
本文针对规模日益增长和演变迅速的稀疏卷积神经网络(CNN)应用,提出一款高能效且灵活的加速结构DyCNN来提升其性能和能效。DyCNN基于兼具灵活性和高能效的粗粒度可重构架构(CGRA)设计,可以利用其指令的高并行性来高效支持CNN的操作。DyCNN使用基于数据感知的指令动态过滤机制来滤除各计算单元中由于稀疏CNN中权值静态稀疏性和激活值动态稀疏性产生的大量无效计算和访存指令,使它们能像执行稠密网络一样高效复用一组指令。此外DyCNN利用基于负载感知的动静结合负载调度策略解决了稀疏导致的负载不均衡问题。实验结果表明,DyCNN运行稀疏CNN与运行密集CNN相比实现了平均1.69倍性能提升和3.04倍能效提升,比先进的GPU(cuSPARSE)和Cambricon-X上的解决方案分别实现了2.78倍、1.48倍性能提升和35.62倍、1.17倍能效提升。
展开更多
关键词
稀疏卷积神经网络(CNN)
专用加速结构
粗粒度可重构架构(CGRA)
动态指令过滤
动态
负载调度
在线阅读
下载PDF
职称材料
题名
面向稀疏卷积神经网络的CGRA加速器研究
被引量:
1
1
作者
谭龙
严明玉
吴欣欣
李文明
吴海彬
范东睿
机构
中国科学院计算技术研究所处理器国家重点实验室
中国科学院大学
出处
《高技术通讯》
CAS
北大核心
2024年第2期173-186,共14页
基金
国家自然科学基金(62202451)
中国科学院青年基础研究(YSBR-029)
中国科学院青年创新促进会项目资助。
文摘
本文针对规模日益增长和演变迅速的稀疏卷积神经网络(CNN)应用,提出一款高能效且灵活的加速结构DyCNN来提升其性能和能效。DyCNN基于兼具灵活性和高能效的粗粒度可重构架构(CGRA)设计,可以利用其指令的高并行性来高效支持CNN的操作。DyCNN使用基于数据感知的指令动态过滤机制来滤除各计算单元中由于稀疏CNN中权值静态稀疏性和激活值动态稀疏性产生的大量无效计算和访存指令,使它们能像执行稠密网络一样高效复用一组指令。此外DyCNN利用基于负载感知的动静结合负载调度策略解决了稀疏导致的负载不均衡问题。实验结果表明,DyCNN运行稀疏CNN与运行密集CNN相比实现了平均1.69倍性能提升和3.04倍能效提升,比先进的GPU(cuSPARSE)和Cambricon-X上的解决方案分别实现了2.78倍、1.48倍性能提升和35.62倍、1.17倍能效提升。
关键词
稀疏卷积神经网络(CNN)
专用加速结构
粗粒度可重构架构(CGRA)
动态指令过滤
动态
负载调度
Keywords
sparse convolutional neural network(CNN)
dedicated accelerator
coarse-grained reconfigu-rable architecture(CGRA)
dynamic instruction filtering
dynamic workload balance
分类号
TP332 [自动化与计算机技术—计算机系统结构]
TP183 [自动化与计算机技术—控制理论与控制工程]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
面向稀疏卷积神经网络的CGRA加速器研究
谭龙
严明玉
吴欣欣
李文明
吴海彬
范东睿
《高技术通讯》
CAS
北大核心
2024
1
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部