期刊导航
期刊开放获取
上海教育软件发展有限公..
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于舍入误差的神经网络量化方法
1
作者
郭秋丹
濮约刚
+2 位作者
张启军
丁传红
吴栋
《计算机工程与设计》
北大核心
2024年第8期2534-2539,共6页
深度神经网络需要付出高昂的计算成本,降低神经网络推理的功耗和延迟,是将神经网络集成到对功耗和计算严格要求的边缘设备上的关键所在。针对这一点,提出一种采用舍入误差的端到端神经网络训练后量化方法,缓解神经网络量化到低比特宽时...
深度神经网络需要付出高昂的计算成本,降低神经网络推理的功耗和延迟,是将神经网络集成到对功耗和计算严格要求的边缘设备上的关键所在。针对这一点,提出一种采用舍入误差的端到端神经网络训练后量化方法,缓解神经网络量化到低比特宽时带来的精度下降问题。该方法只需采用小批量且无标注的数据进行训练,且在不同的神经网络结构上都有十分不错的表现,RegNetX-3.2GF在权重和激活数的比特宽均为4的情况下分类准确率下降不到2%。
展开更多
关键词
模型压缩
网络蒸馏
网络
量化
目标识别
感知训练量化
训练
后
量化
舍入误差
在线阅读
下载PDF
职称材料
题名
基于舍入误差的神经网络量化方法
1
作者
郭秋丹
濮约刚
张启军
丁传红
吴栋
机构
中国航天科工集团第二研究院七〇六所
出处
《计算机工程与设计》
北大核心
2024年第8期2534-2539,共6页
文摘
深度神经网络需要付出高昂的计算成本,降低神经网络推理的功耗和延迟,是将神经网络集成到对功耗和计算严格要求的边缘设备上的关键所在。针对这一点,提出一种采用舍入误差的端到端神经网络训练后量化方法,缓解神经网络量化到低比特宽时带来的精度下降问题。该方法只需采用小批量且无标注的数据进行训练,且在不同的神经网络结构上都有十分不错的表现,RegNetX-3.2GF在权重和激活数的比特宽均为4的情况下分类准确率下降不到2%。
关键词
模型压缩
网络蒸馏
网络
量化
目标识别
感知训练量化
训练
后
量化
舍入误差
Keywords
model compression
network distillation
network quantization
target recognition
quantization-aware training
post-training quantization
round-error
分类号
TP389.1 [自动化与计算机技术—计算机系统结构]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于舍入误差的神经网络量化方法
郭秋丹
濮约刚
张启军
丁传红
吴栋
《计算机工程与设计》
北大核心
2024
0
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部