期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
基于知识蒸馏的卷积神经网络压缩方法
1
作者 郑筠 高朋 《沈阳工业大学学报》 北大核心 2025年第3期348-354,共7页
【目的】卷积神经网络作为深度学习领域的一项重要技术,在图像识别、目标检测、自然语言处理等多个领域展现出了卓越的性能。然而,随着模型深度和复杂度的增加,卷积神经网络模型的大小和计算需求也急剧上升,这为模型的部署和实时应用提... 【目的】卷积神经网络作为深度学习领域的一项重要技术,在图像识别、目标检测、自然语言处理等多个领域展现出了卓越的性能。然而,随着模型深度和复杂度的增加,卷积神经网络模型的大小和计算需求也急剧上升,这为模型的部署和实时应用提出了严峻挑战。【方法】为减少神经网络的大小和计算量,并提高模型的效率和可部署性,提出了基于知识蒸馏的卷积神经网络压缩方法。通过将大型复杂模型(教师网络模型)中的知识转移给小型精简模型(学生网络模型)来实现模型的压缩和加速,本文建立了性能优异的教师网络和结构更简单、参数更少的学生网络。教师网络负责提供丰富的特征表示和准确的预测结果,学生网络则通过学习教师网络行为来逼近其性能。使用标准损失函数,并通过反向传播算法迭代更新其参数,确保其在训练数据集上达到良好的性能。采用改进知识蒸馏方法获取综合阈值函数,评估教师网络和学生网络之间的知识差异,并指导学生网络的学习过程。在训练过程中,学生网络利用综合阈值函数进行监督,逐步逼近教师网络的输出,同时保持较小的模型结构和计算复杂度,从而实现了卷积神经网络的压缩处理。【结果】实验结果表明:本文方法在ImageNet和Labelme数据集上均表现出较好的模型压缩效果。其中,本文方法在压缩前后卷积神经网络输出结果的拟合度较高,表明学生网络成功学到了教师网络的关键特征;交叉熵损失值较低,在1.0左右,进一步验证了其良好的预测性能;完成卷积神经网络模型的压缩时间较短,为79.8~89.4 s,表明本文方法具有较高的计算效率。【结论】由以上结果可知,基于知识蒸馏卷积神经网络压缩方法能够有效减小模型结构、降低计算量,并保持甚至提升了模型的性能。本文方法不仅为模型压缩提供了一种新的思路,还为深度学习模型的部署和应用提供了有力支持。此外,本文方法在知识蒸馏方法上进行了改进,通过引入综合阈值函数来更全面地评估和指导模型的学习过程,在一定程度上提升了知识蒸馏的效果和效率。因此,本文方法不仅具有理论价值,还具有重要的实践意义。 展开更多
关键词 卷积神经网络压缩 改进知识蒸馏方法 判别器 学生网络 教师网络 标准损失函数 综合阈函数 交叉熵损失值
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部