为了解决施工场景下安全帽佩戴检测时,由于人员密集、遮挡和复杂背景等原因造成的小目标漏检和错检的问题,提出一种基于YOLOv8n的双重注意力机制的跨层多尺度安全帽佩戴检测算法。首先,设计微小目标检测头,以提高模型对小目标的检测能力...为了解决施工场景下安全帽佩戴检测时,由于人员密集、遮挡和复杂背景等原因造成的小目标漏检和错检的问题,提出一种基于YOLOv8n的双重注意力机制的跨层多尺度安全帽佩戴检测算法。首先,设计微小目标检测头,以提高模型对小目标的检测能力;其次,在特征提取网络中嵌入双重注意力机制,从而更加关注复杂场景下目标信息的特征捕获;然后,将特征融合网络替换成重参数化泛化特征金字塔网络(RepGFPN)改进后的跨层多尺度特征融合结构S-GFPN(Selective layer Generalized Feature Pyramid Network),以实现小目标特征层信息和其他特征层的多尺度融合,并建立长期的依赖关系,从而抑制背景信息的干扰;最后,采用MPDIOU(Intersection Over Union with Minimum Point Distance)损失函数来解决尺度变化不敏感的问题。在公开数据集GDUT-HWD上的实验结果表明,改进后的模型比YOLOv8n的mAP@0.5提升了3.4个百分点,对蓝色、黄色、白色和红色安全帽的检测精度分别提升了2.0、1.1、4.6和9.1个百分点,在密集、遮挡、小目标、反光和黑暗这5类复杂场景下的可视化检测效果也优于YOLOv8n,为实际施工场景中安全帽佩戴检测提供了一种有效方法。展开更多
针对目前无人机航拍图像小目标检测算法存在的漏检、误检、精度与速度不平衡等问题,提出复合特征与多尺度融合的无人机小目标检测算法CM-YOLOv8s(composite and multi-scale YOLOv8s)。通过在空间金字塔池化模块引入通道特征,实现目标...针对目前无人机航拍图像小目标检测算法存在的漏检、误检、精度与速度不平衡等问题,提出复合特征与多尺度融合的无人机小目标检测算法CM-YOLOv8s(composite and multi-scale YOLOv8s)。通过在空间金字塔池化模块引入通道特征,实现目标复合特征质量提升;通过重建模型颈部结构,提高目标细节特征的保留比例;通过设计DRHead检测头,实现多尺度特征检测图融合,增强多尺度目标检测适应性;通过采用Wise-IoU损失函数提升模型收敛速度。相比于基准算法,改进后的CM-YOLOv8s算法参数量仅为3.5×10^(6),参数量降低了69%。实验结果表明,提出的CM-YOLOv8s算法在数据集VisDrone2019上的mAP50显著提升了6.8个百分点;同时,在UAV-DT和DIOR数据集上验证了提出算法的泛化性和有效性。展开更多
文摘为了解决施工场景下安全帽佩戴检测时,由于人员密集、遮挡和复杂背景等原因造成的小目标漏检和错检的问题,提出一种基于YOLOv8n的双重注意力机制的跨层多尺度安全帽佩戴检测算法。首先,设计微小目标检测头,以提高模型对小目标的检测能力;其次,在特征提取网络中嵌入双重注意力机制,从而更加关注复杂场景下目标信息的特征捕获;然后,将特征融合网络替换成重参数化泛化特征金字塔网络(RepGFPN)改进后的跨层多尺度特征融合结构S-GFPN(Selective layer Generalized Feature Pyramid Network),以实现小目标特征层信息和其他特征层的多尺度融合,并建立长期的依赖关系,从而抑制背景信息的干扰;最后,采用MPDIOU(Intersection Over Union with Minimum Point Distance)损失函数来解决尺度变化不敏感的问题。在公开数据集GDUT-HWD上的实验结果表明,改进后的模型比YOLOv8n的mAP@0.5提升了3.4个百分点,对蓝色、黄色、白色和红色安全帽的检测精度分别提升了2.0、1.1、4.6和9.1个百分点,在密集、遮挡、小目标、反光和黑暗这5类复杂场景下的可视化检测效果也优于YOLOv8n,为实际施工场景中安全帽佩戴检测提供了一种有效方法。
文摘针对因遮挡和自相似性导致的从单张RGB图像估计三维手部姿态不精确的问题,提出结合注意力机制和多尺度特征融合的三维手部姿态估计算法。首先,提出结合扩张卷积和CBAM(Convolutional Block Attention Module)注意力机制的感受强化模块(SEM),以替换沙漏网络(HGNet)中的基本块(Basicblock),在扩大感受野的同时增强对空间信息的敏感性,从而提高手部特征的提取能力;其次,设计一种结合SPCNet(Spatial Preserve and Contentaware Network)和Soft-Attention改进的多尺度信息融合模块SS-MIFM(SPCNet and Soft-attention-Multi-scale Information Fusion Module),在充分考虑空间内容感知机制的情况下,有效地聚合多级特征,并显著提高二维手部关键点检测的准确性;最后,利用2.5D姿态转换模块将二维姿态转换为三维姿态,从而避免二维关键点坐标直接回归计算三维姿态信息导致的空间丢失问题。实验结果表明,在InterHand2.6M数据集上,所提算法的双手关节点平均误差(MPJPE)、单手MPJPE和根节点平均误差(MRRPE)分别达到了12.32、9.96和29.57 mm;在RHD(Rendered Hand pose Dataset)上,与InterNet和QMGR-Net算法相比,所提算法的终点误差(EPE)分别降低了2.68和0.38 mm。以上结果说明了所提算法能够更准确地估计手部姿态,且在一些双手交互和遮挡的场景下有更高的鲁棒性。
文摘针对目前无人机航拍图像小目标检测算法存在的漏检、误检、精度与速度不平衡等问题,提出复合特征与多尺度融合的无人机小目标检测算法CM-YOLOv8s(composite and multi-scale YOLOv8s)。通过在空间金字塔池化模块引入通道特征,实现目标复合特征质量提升;通过重建模型颈部结构,提高目标细节特征的保留比例;通过设计DRHead检测头,实现多尺度特征检测图融合,增强多尺度目标检测适应性;通过采用Wise-IoU损失函数提升模型收敛速度。相比于基准算法,改进后的CM-YOLOv8s算法参数量仅为3.5×10^(6),参数量降低了69%。实验结果表明,提出的CM-YOLOv8s算法在数据集VisDrone2019上的mAP50显著提升了6.8个百分点;同时,在UAV-DT和DIOR数据集上验证了提出算法的泛化性和有效性。