期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
基于舍入误差的神经网络量化方法
1
作者 郭秋丹 濮约刚 +2 位作者 张启军 丁传红 吴栋 《计算机工程与设计》 北大核心 2024年第8期2534-2539,共6页
深度神经网络需要付出高昂的计算成本,降低神经网络推理的功耗和延迟,是将神经网络集成到对功耗和计算严格要求的边缘设备上的关键所在。针对这一点,提出一种采用舍入误差的端到端神经网络训练后量化方法,缓解神经网络量化到低比特宽时... 深度神经网络需要付出高昂的计算成本,降低神经网络推理的功耗和延迟,是将神经网络集成到对功耗和计算严格要求的边缘设备上的关键所在。针对这一点,提出一种采用舍入误差的端到端神经网络训练后量化方法,缓解神经网络量化到低比特宽时带来的精度下降问题。该方法只需采用小批量且无标注的数据进行训练,且在不同的神经网络结构上都有十分不错的表现,RegNetX-3.2GF在权重和激活数的比特宽均为4的情况下分类准确率下降不到2%。 展开更多
关键词 模型压缩 网络蒸馏 网络量化 目标识别 感知训练量化 训练量化 舍入误差
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部