为了解决施工场景下安全帽佩戴检测时,由于人员密集、遮挡和复杂背景等原因造成的小目标漏检和错检的问题,提出一种基于YOLOv8n的双重注意力机制的跨层多尺度安全帽佩戴检测算法。首先,设计微小目标检测头,以提高模型对小目标的检测能力...为了解决施工场景下安全帽佩戴检测时,由于人员密集、遮挡和复杂背景等原因造成的小目标漏检和错检的问题,提出一种基于YOLOv8n的双重注意力机制的跨层多尺度安全帽佩戴检测算法。首先,设计微小目标检测头,以提高模型对小目标的检测能力;其次,在特征提取网络中嵌入双重注意力机制,从而更加关注复杂场景下目标信息的特征捕获;然后,将特征融合网络替换成重参数化泛化特征金字塔网络(RepGFPN)改进后的跨层多尺度特征融合结构S-GFPN(Selective layer Generalized Feature Pyramid Network),以实现小目标特征层信息和其他特征层的多尺度融合,并建立长期的依赖关系,从而抑制背景信息的干扰;最后,采用MPDIOU(Intersection Over Union with Minimum Point Distance)损失函数来解决尺度变化不敏感的问题。在公开数据集GDUT-HWD上的实验结果表明,改进后的模型比YOLOv8n的mAP@0.5提升了3.4个百分点,对蓝色、黄色、白色和红色安全帽的检测精度分别提升了2.0、1.1、4.6和9.1个百分点,在密集、遮挡、小目标、反光和黑暗这5类复杂场景下的可视化检测效果也优于YOLOv8n,为实际施工场景中安全帽佩戴检测提供了一种有效方法。展开更多
针对小目标检测领域中的尺度变化、复杂背景干扰、漏检和误检等挑战性问题,提出了改进YOLOv7的小目标检测方法。在YOLOv7目标检测框架的基础上,加入了新的自适应特征收集再分配模块(adaptive feature collection and redistribution,AF...针对小目标检测领域中的尺度变化、复杂背景干扰、漏检和误检等挑战性问题,提出了改进YOLOv7的小目标检测方法。在YOLOv7目标检测框架的基础上,加入了新的自适应特征收集再分配模块(adaptive feature collection and redistribution,AFCR)。该模块能够实现对多尺度特征的有效融合,从而增强模型对小目标的检测能力,并丰富输出特征的上下文信息。进一步地,运用特征蒸馏技术,使得学生模型能够从教师模型中学习关键特征表示,避免跨阶段的语义差异带来的负面影响,从而显著提升模型的泛化性和鲁棒性。在CCTSDB、FloW-Img和TinyPerson三个公开小目标检测数据集上的实验结果表明,提出的方法分别实现了96.4%、84.9%和33.0%的检测准确率,相较于原始YOLOv7方法,mAP@0.5分别提升了6.5、3.9和2.9个百分点。展开更多
文摘为了解决施工场景下安全帽佩戴检测时,由于人员密集、遮挡和复杂背景等原因造成的小目标漏检和错检的问题,提出一种基于YOLOv8n的双重注意力机制的跨层多尺度安全帽佩戴检测算法。首先,设计微小目标检测头,以提高模型对小目标的检测能力;其次,在特征提取网络中嵌入双重注意力机制,从而更加关注复杂场景下目标信息的特征捕获;然后,将特征融合网络替换成重参数化泛化特征金字塔网络(RepGFPN)改进后的跨层多尺度特征融合结构S-GFPN(Selective layer Generalized Feature Pyramid Network),以实现小目标特征层信息和其他特征层的多尺度融合,并建立长期的依赖关系,从而抑制背景信息的干扰;最后,采用MPDIOU(Intersection Over Union with Minimum Point Distance)损失函数来解决尺度变化不敏感的问题。在公开数据集GDUT-HWD上的实验结果表明,改进后的模型比YOLOv8n的mAP@0.5提升了3.4个百分点,对蓝色、黄色、白色和红色安全帽的检测精度分别提升了2.0、1.1、4.6和9.1个百分点,在密集、遮挡、小目标、反光和黑暗这5类复杂场景下的可视化检测效果也优于YOLOv8n,为实际施工场景中安全帽佩戴检测提供了一种有效方法。
文摘针对小目标检测领域中的尺度变化、复杂背景干扰、漏检和误检等挑战性问题,提出了改进YOLOv7的小目标检测方法。在YOLOv7目标检测框架的基础上,加入了新的自适应特征收集再分配模块(adaptive feature collection and redistribution,AFCR)。该模块能够实现对多尺度特征的有效融合,从而增强模型对小目标的检测能力,并丰富输出特征的上下文信息。进一步地,运用特征蒸馏技术,使得学生模型能够从教师模型中学习关键特征表示,避免跨阶段的语义差异带来的负面影响,从而显著提升模型的泛化性和鲁棒性。在CCTSDB、FloW-Img和TinyPerson三个公开小目标检测数据集上的实验结果表明,提出的方法分别实现了96.4%、84.9%和33.0%的检测准确率,相较于原始YOLOv7方法,mAP@0.5分别提升了6.5、3.9和2.9个百分点。