-
题名基于忆阻器的图卷积神经网络加速器设计
被引量:1
- 1
-
-
作者
李冰
午康俊
王晶
李森
高岚
张伟功
倪天明
-
机构
首都师范大学交叉科学研究院
首都师范大学信息工程院
人民大学信息学院
中国运载火箭技术研究院
安徽工程大学集成电路与系统研究所
-
出处
《电子与信息学报》
EI
CSCD
北大核心
2023年第1期106-115,共10页
-
基金
国家自然科学基金(62174001,61904001)
安徽省重点研究与开发计划(202104b11020032)
安徽工程大学中青年拔尖人才计划。
-
文摘
图卷积神经网络(GCN)在社交网络、电子商务、分子结构推理等任务中的表现远超传统人工智能算法,在近年来获得广泛关注。与卷积神经网络(CNN)数据独立分布不同,图卷积神经网络更加关注数据之间特征关系的提取,通过邻接矩阵表示数据关系,因此其输入数据和操作数相比卷积神经网络而言都更加稀疏且存在大量数据传输,所以实现高效的GCN加速器是一个挑战。忆阻器(ReRAM)作为一种新兴的非易失性存储器,具有高密度、读取访问速度快、低功耗和存内计算等优点。利用忆阻器为CNN加速已经被广泛研究,但是图卷积神经网络极大的稀疏性会导致现有加速器效率低下,因此该文提出一种基于忆阻器交叉阵列的高效图卷积神经网络加速器,首先,该文分析GCN中不同操作数的计算和访存特征,提出权重和邻接矩阵到忆阻器阵列的映射方法,有效利用两种操作数的计算密集特征并避免访存密集的特征向量造成过高开销;进一步地,充分挖掘邻接矩阵的稀疏性,提出子矩阵划分算法及邻接矩阵的压缩映射方案,最大限度降低GCN的忆阻器资源需求;此外,加速器提供对稀疏计算支持,支持压缩格式为坐标表(COO)的特征向量输入,保证计算过程规则且高效地执行。实验结果显示,该文加速器相比CPU有483倍速度提升和1569倍能量节省;相比GPU也有28倍速度提升和168倍能耗节省。
-
关键词
存算一体
新型非易失性存储器
图卷积神经网络
加速器
-
Keywords
Processing in memory
New non-volatile memory
Graph Neural Network(GNN)
Accelerator
-
分类号
TN929.5
[电子电信—通信与信息系统]
TN601
[电子电信—电路与系统]
-