针对安全帽检测任务中存在的目标面积小、目标被不同程度遮挡、复杂背景干扰目标等问题,提出了基于YOLOX的多感受野增强的安全帽检测算法(multiple receptive field enhancement-YOLOX,MRFE-YOLOX)。在特征融合网络中增加浅层特征融合分...针对安全帽检测任务中存在的目标面积小、目标被不同程度遮挡、复杂背景干扰目标等问题,提出了基于YOLOX的多感受野增强的安全帽检测算法(multiple receptive field enhancement-YOLOX,MRFE-YOLOX)。在特征融合网络中增加浅层特征融合分支,提升小目标特征信息流通效率,提高了小目标的检测精度;设计基于空洞卷积组与卷积注意力机制的感受野增强模块(receptive field augmentation module,RFAM),捕获了更大范围的感受野和图像特征,改善了遮挡目标漏检率高的问题;根据三分支注意力机制构建特征增强网络(feature enhancement network,FENet),抑制背景噪音对目标区域的干扰,降低了复杂背景下的目标误检率;引入空间到深度卷积(space to depth-conv,SPD-Conv)得到无信息损失的二倍下采样特征图,保留了更多的特征信息,同时减少了模型的参数量。实验结果表明,所提算法的均值平均精度相较于基线算法提升了2.78个百分点,FPS达到了102.67,满足了爆破现场安全帽实时检测的需要。展开更多
文摘针对安全帽检测任务中存在的目标面积小、目标被不同程度遮挡、复杂背景干扰目标等问题,提出了基于YOLOX的多感受野增强的安全帽检测算法(multiple receptive field enhancement-YOLOX,MRFE-YOLOX)。在特征融合网络中增加浅层特征融合分支,提升小目标特征信息流通效率,提高了小目标的检测精度;设计基于空洞卷积组与卷积注意力机制的感受野增强模块(receptive field augmentation module,RFAM),捕获了更大范围的感受野和图像特征,改善了遮挡目标漏检率高的问题;根据三分支注意力机制构建特征增强网络(feature enhancement network,FENet),抑制背景噪音对目标区域的干扰,降低了复杂背景下的目标误检率;引入空间到深度卷积(space to depth-conv,SPD-Conv)得到无信息损失的二倍下采样特征图,保留了更多的特征信息,同时减少了模型的参数量。实验结果表明,所提算法的均值平均精度相较于基线算法提升了2.78个百分点,FPS达到了102.67,满足了爆破现场安全帽实时检测的需要。
文摘针对安全帽检测算法的快速且精准需求,提出了一种实时安全帽检测算法。首先,针对基于边界框回归损失函数容易出现梯度消失(Gradient Vanish)的问题,本文提出外接圆半径差(Circumcircle Radius Difference,CRD)损失函数;然后,针对复杂多尺度特征融合层制约检测速度的问题,提出了一种轻量化的小目标聚焦型(Focus on Small Object,FSO)特征融合层;最后本文结合YOLO网络、CRD和FSO形成YOLO-CRD-FSO(YCF)检测模型,实现实时安全帽检测。实验结果表明,在Jetson Xavier NX设备上检测分辨率为640×640的视频,YCF的检测速度达到43.4帧/秒,比当前最新锐的YOLO-V5模型的速度快了近2帧/秒,且均值平均精度提升了近1%。说明YCF检测模型综合优化了边界框回归损失函数和特征融合层,获得了良好的安全帽检测效果。