针对热扎带钢表面缺陷面积较小、形态多样、边界模糊且背景复杂的问题,提出一种热轧带钢表面缺陷检测模型SFSP-YOLOv7。首先,通过改进k-means++聚类算法调整先验框维度,使用交并比(intersection over union, IoU)距离替换欧氏距离度量,...针对热扎带钢表面缺陷面积较小、形态多样、边界模糊且背景复杂的问题,提出一种热轧带钢表面缺陷检测模型SFSP-YOLOv7。首先,通过改进k-means++聚类算法调整先验框维度,使用交并比(intersection over union, IoU)距离替换欧氏距离度量,引入遗传算法(genetic algorithm, GA)以获得更具代表性的锚框尺寸,并提升模型的回归速度和小面积缺陷检测的精确度。其次,对于边界模糊且背景复杂的缺陷,提出一种目标检测边界框损失函数FocalSIoU,以减少模型中不必要特征的学习,加快检测速度,提升预测框的回归效果。最后,设计一种多尺度特征融合模块(multi-scale feature fusion module, MFFM),通过多尺度信息融合增强模型特征提取能力,提高小目标的检测精确度,并改善模型检测误检率。在模型Head结构中引入空到深(space to depth, SPD)卷积模块对模型进行改进,避免细粒度信息的丢失,降低目标漏检率。通过NEU-DET数据集进行验证,结果表明,SFSP-YOLOv7模型检测的平均精度均值(mean average precision, mAP)为78.3%,相比原YOLOv7模型提升了5.0个百分点,表明提出的检测方法具有有效性。展开更多
文摘针对因遮挡和自相似性导致的从单张RGB图像估计三维手部姿态不精确的问题,提出结合注意力机制和多尺度特征融合的三维手部姿态估计算法。首先,提出结合扩张卷积和CBAM(Convolutional Block Attention Module)注意力机制的感受强化模块(SEM),以替换沙漏网络(HGNet)中的基本块(Basicblock),在扩大感受野的同时增强对空间信息的敏感性,从而提高手部特征的提取能力;其次,设计一种结合SPCNet(Spatial Preserve and Contentaware Network)和Soft-Attention改进的多尺度信息融合模块SS-MIFM(SPCNet and Soft-attention-Multi-scale Information Fusion Module),在充分考虑空间内容感知机制的情况下,有效地聚合多级特征,并显著提高二维手部关键点检测的准确性;最后,利用2.5D姿态转换模块将二维姿态转换为三维姿态,从而避免二维关键点坐标直接回归计算三维姿态信息导致的空间丢失问题。实验结果表明,在InterHand2.6M数据集上,所提算法的双手关节点平均误差(MPJPE)、单手MPJPE和根节点平均误差(MRRPE)分别达到了12.32、9.96和29.57 mm;在RHD(Rendered Hand pose Dataset)上,与InterNet和QMGR-Net算法相比,所提算法的终点误差(EPE)分别降低了2.68和0.38 mm。以上结果说明了所提算法能够更准确地估计手部姿态,且在一些双手交互和遮挡的场景下有更高的鲁棒性。