期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
基于深度学习加速模型的杂乱目标实时视觉检测方法 被引量:1
1
作者 余永维 陈天皓 +1 位作者 杜柳青 方荣 《农业机械学报》 北大核心 2025年第5期617-624,共8页
在农业机械自动装配产线上,其嵌入式控制平台片上资源极其有限,而基于卷积神经网络的深度学习检测系统参数量过大,难以直接移植于嵌入式平台,为此,本文提出一种基于改进ResNet18-SSD(Single shot multi-box detector)和现场可编程门阵列... 在农业机械自动装配产线上,其嵌入式控制平台片上资源极其有限,而基于卷积神经网络的深度学习检测系统参数量过大,难以直接移植于嵌入式平台,为此,本文提出一种基于改进ResNet18-SSD(Single shot multi-box detector)和现场可编程门阵列(Field programmable gate array,FPGA)加速引擎的深度学习实时检测方法。为了降低参数量的同时提高检测模型准确性,提出基于ResNet18-SSD的深度学习快速检测模型,利用优化改进后的ResNet18网络替换SSD模型的VGG16前置网络,引入多分支同构结构和非对称并行残差结构,使其能适应遮挡、光线昏暗等复杂场景;在满足检测精度需求的情况下,采用动态定点量化的方式,对模型数据量进行缩减,以提高检测模型执行效率。针对改进ResNet18-SSD模型中消耗资源严重的卷积层,提出一种基于Winograd算法的FPGA加速引擎,提高模型检测实时性,通过软硬件协同设计,从硬件加速器与软件网络轻量化两个角度进行联合优化,实现轻量化、加速性能及复杂场景下准确性三者之间的平衡。在Xilinx FPGA嵌入式平台的实验结果表明,本文方法检测准确率达到93.5%,当工作频率为100 MHz时,单幅图像检测时间为80.232 ms,满足实时性需求。 展开更多
关键词 目标检测 FPGA 动态定点量化 Winograd算法
在线阅读 下载PDF
基于FPGA的量化CNN加速系统设计 被引量:4
2
作者 巩杰 赵烁 +1 位作者 何虎 邓宁 《计算机工程》 CAS CSCD 北大核心 2022年第3期170-174,196,共6页
深度卷积神经网络(CNN)模型中卷积层和全连接层包含大量卷积操作,导致网络规模、参数量和计算量大幅增加,部署于CPU/GPU平台时存在并行计算性能差和不适用于移动设备环境的问题,需要对卷积参数做量化处理并结合硬件进行加速设计。现场... 深度卷积神经网络(CNN)模型中卷积层和全连接层包含大量卷积操作,导致网络规模、参数量和计算量大幅增加,部署于CPU/GPU平台时存在并行计算性能差和不适用于移动设备环境的问题,需要对卷积参数做量化处理并结合硬件进行加速设计。现场可编程门阵列(FPGA)可满足CNN并行计算和低功耗的需求,并具有高度的灵活性,因此,基于FPGA设计CNN量化方法及其加速系统。提出一种通用的动态定点量化方法,同时对网络的各个层级进行不同精度的量化,以减少网络准确率损失和网络参数的存储需求。在此基础上,针对量化后的CNN设计专用加速器及其片上系统,加速网络的前向推理计算。使用ImageNet ILSVRC2012数据集,基于VGG-16与ResNet-50网络对所设计的量化方法和加速系统进行性能验证。实验结果显示,量化后VGG-16与ResNet-50的网络规模仅为原来的13.8%和24.8%,而Top-1准确率损失均在1%以内,表明量化方法效果显著,同时,加速系统在运行VGG-16时,加速效果优于其他3种FPGA实现的加速系统,峰值性能达到614.4 GOPs,最高提升4.5倍,能耗比达到113.99 GOPs/W,最高提升4.7倍。 展开更多
关键词 卷积神经网络 动态定点量化 硬件加速 现场可编程门阵列 模型压缩
在线阅读 下载PDF
面向嵌入式的卷积神经网络硬件加速器设计 被引量:4
3
作者 唐蕊 焦继业 徐华昊 《计算机工程与应用》 CSCD 北大核心 2021年第4期252-257,共6页
近年来,随着神经网络模型越来越复杂,针对卷积神经网络推理计算所需内存空间过大,限制其在嵌入式设备上部署的问题,提出一种动态多精度定点数据量化硬件结构,使用定点数代替训练后推理过程中的浮点数执行卷积运算。结果表明,采用16位动... 近年来,随着神经网络模型越来越复杂,针对卷积神经网络推理计算所需内存空间过大,限制其在嵌入式设备上部署的问题,提出一种动态多精度定点数据量化硬件结构,使用定点数代替训练后推理过程中的浮点数执行卷积运算。结果表明,采用16位动态定点量化和并行卷积运算硬件架构,与静态量化策略相比,数据准确率高达97.96%,硬件单元的面积仅为13740门,且内存占用量和带宽需求减半。相比Cortex M4使用浮点数据做卷积运算,该硬件加速单元性能提升了90%以上。 展开更多
关键词 卷积神经网络 嵌入式设备 动态多精度定点数据量化 并行卷积运算硬件架构
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部