-
题名智能芯片的评述和展望
被引量:15
- 1
-
-
作者
韩栋
周聖元
支天
陈云霁
陈天石
-
机构
中国科学院计算技术研究所智能处理器中心
中国科学院大学
上海寒武纪信息科技有限公司
-
出处
《计算机研究与发展》
EI
CSCD
北大核心
2019年第1期7-22,共16页
-
基金
国家重点研发计划项目(2017YFA0700902
2017YFB1003101)
+14 种基金
国家自然科学基金项目(61472396
61432016
61473275
61522211
61532016
61521092
61502446
61672491
61602441
61602446
61732002
61702478)
国家"九七三"重点基础研究发展计划基金项目(2015CB358800)
国家科技重大专项基金项目(2018ZX01031102)
中国科学院战略性先导科技专项(B类)(XDB32050200)~~
-
文摘
近年来,人工智能技术在许多商业领域获得了广泛应用,并且随着世界各地的科研人员和科研公司的重视和投入,人工智能技术在传统语音识别、图像识别、搜索/推荐引擎等领域证明了其不可取代的价值.但与此同时,人工智能技术的运算量也急剧扩增,给硬件设备的算力提出了巨大的挑战.从人工智能的基础算法以及其应用算法着手,描述了其运算方式及其运算特性.然后,介绍了近期人工智能芯片的发展方向,对目前智能芯片的主要架构进行了介绍和分析.而后,着重介绍了DianNao系列处理器的研究成果.该系列的处理器为智能芯片领域最新最先进的研究成果,其结构和设计分别面向不同的技术特征而提出,包括深度学习算法、大规模的深度学习算法、机器学习算法、用于处理二维图像的深度学习算法以及稀疏深度学习算法等.此外,还提出并设计了完备且高效的Cambricon指令集结构.最后,对人工神经网络技术的发展方向从多个角度进行了分析,包括网络结构、运算特性和硬件器件等,并基于此对未来工作可能的发展方向进行了预估和展望.
-
关键词
人工智能
加速器
FPGA
ASIC
权重量化
稀疏剪枝
-
Keywords
artificial intelligence
accelerators
FPGA
ASIC
weight quantization
sparse pruning
-
分类号
TP316
[自动化与计算机技术—计算机软件与理论]
-
-
题名二进制张量分解法简化神经网络推理计算
- 2
-
-
作者
郝一帆
杜子东
支天
-
机构
中国科学院计算技术研究所智能处理器研究中心
中国科学院大学
-
出处
《高技术通讯》
CAS
2022年第7期687-695,共9页
-
基金
国家重点研发计划(2017YFB1003101,2018AAA0103300,2017YFA0700900)
国家自然科学基金(61532016,61732007)资助项目。
-
文摘
针对现有的简化神经网络推理计算方法面临模型精度下滑及重训练带来的额外开销问题,本文提出一种在比特级减少乘积累加运算(MAC)的乘加操作数的二进制张量分解法(IBTF)。该方法利用张量分解消除多个卷积核之间由于权值比特位重复导致的计算重复,并保持计算结果不变,即无需重训练。在比特级简化模型计算的IBTF算法与量化、稀疏等数据级简化方法正交,即可以协同使用,从而进一步减少MAC计算量。实验结果表明,在多个主流神经网络中,相较于量化与稀疏后的模型,IBTF进一步使计算量减少了3.32倍,并且IBTF在不同卷积核大小、不同权值位宽及不同稀疏率的卷积运算中都发挥了显著的效果。
-
关键词
神经网络
二进制张量分解(IBTF)
乘积累加运算(MAC)
-
Keywords
neural network
identical binary tensor factorization(IBTF)
multiply-accumulate(MAC)
-
分类号
TP183
[自动化与计算机技术—控制理论与控制工程]
-
-
题名一种基于自适应PoT量化的无乘法神经网络训练方法
- 3
-
-
作者
刘畅
张蕊
支天
-
机构
中国科学院大学
中国科学院计算技术研究所智能处理器研究中心
中国科学院计算技术研究所处理器芯片全国重点实验室
-
出处
《高技术通讯》
CAS
北大核心
2024年第6期567-577,共11页
-
基金
国家重点研发计划(2018AAA0103300)
国家自然科学基金(62102399,U22A2028,U20A20227)
中国科学院稳定支持基础研究领域青年团队计划(YSBR-029)资助项目。
-
文摘
当前的深度神经网络的训练过程中需要包含大量的全精度乘累加(MAC)操作,导致神经网络模型的线性层(包含卷积层和全连接层)的计算过程所需的能耗占整体能耗的绝大部分,达90%以上。本文提出了一种自适应逐层缩放的量化训练方法,可支持在神经网络计算全流程(前向传播和后向传播)将全部线性层中的全精度乘法替换为4位定点数加法计算和1位异或运算。实验结果表明,上述方法在能耗和准确率方面都优于现有方法,可支撑在训练过程中减少达95.8%的线性层能耗,在ImageNet数据集上的卷积神经网络和在WMT En-De任务上的Transformer网络得到小于1%的精度损失。
-
关键词
神经网络
量化
训练加速
低能耗
-
Keywords
neural network
quantization
training acceleration
low energy consumption
-
分类号
TP183
[自动化与计算机技术—控制理论与控制工程]
-