为了解决施工场景下安全帽佩戴检测时,由于人员密集、遮挡和复杂背景等原因造成的小目标漏检和错检的问题,提出一种基于YOLOv8n的双重注意力机制的跨层多尺度安全帽佩戴检测算法。首先,设计微小目标检测头,以提高模型对小目标的检测能力...为了解决施工场景下安全帽佩戴检测时,由于人员密集、遮挡和复杂背景等原因造成的小目标漏检和错检的问题,提出一种基于YOLOv8n的双重注意力机制的跨层多尺度安全帽佩戴检测算法。首先,设计微小目标检测头,以提高模型对小目标的检测能力;其次,在特征提取网络中嵌入双重注意力机制,从而更加关注复杂场景下目标信息的特征捕获;然后,将特征融合网络替换成重参数化泛化特征金字塔网络(RepGFPN)改进后的跨层多尺度特征融合结构S-GFPN(Selective layer Generalized Feature Pyramid Network),以实现小目标特征层信息和其他特征层的多尺度融合,并建立长期的依赖关系,从而抑制背景信息的干扰;最后,采用MPDIOU(Intersection Over Union with Minimum Point Distance)损失函数来解决尺度变化不敏感的问题。在公开数据集GDUT-HWD上的实验结果表明,改进后的模型比YOLOv8n的mAP@0.5提升了3.4个百分点,对蓝色、黄色、白色和红色安全帽的检测精度分别提升了2.0、1.1、4.6和9.1个百分点,在密集、遮挡、小目标、反光和黑暗这5类复杂场景下的可视化检测效果也优于YOLOv8n,为实际施工场景中安全帽佩戴检测提供了一种有效方法。展开更多
随着预训练语言模型在自然语言处理(NLP)任务上的应用,意图检测(ID)和槽位填充(SF)联合建模提高了口语理解的性能。现有方法大多关注意图和槽位的相互作用,忽略了差异文本序列建模对口语理解(SLU)任务的影响。因此,提出一种基于多任务...随着预训练语言模型在自然语言处理(NLP)任务上的应用,意图检测(ID)和槽位填充(SF)联合建模提高了口语理解的性能。现有方法大多关注意图和槽位的相互作用,忽略了差异文本序列建模对口语理解(SLU)任务的影响。因此,提出一种基于多任务学习的意图检测和槽位填充联合方法(IDSFML)。首先,使用随机掩盖mask策略构造差异文本,设计结合自编码器和注意力机制的神经网络(AEA)结构,为口语理解任务融入差异文本序列的特征;其次,设计相似性分布任务,使差异文本和原始文本的表征相似;最后,联合训练ID、SF和差异文本序列相似性分布三个任务。在航班旅行信息系统(ATIS)和SNIPS数据集上的实验结果表明,IDSFML与表现次优的基线方法SASGBC(Self-Attention and Slot-Gated on top of BERT with CRF)相比,槽位填充F1值分别提升了1.9和1.6个百分点,意图检测准确率分别提升了0.2和0.4个百分点,提高了口语理解任务的准确率。展开更多
文摘为了解决施工场景下安全帽佩戴检测时,由于人员密集、遮挡和复杂背景等原因造成的小目标漏检和错检的问题,提出一种基于YOLOv8n的双重注意力机制的跨层多尺度安全帽佩戴检测算法。首先,设计微小目标检测头,以提高模型对小目标的检测能力;其次,在特征提取网络中嵌入双重注意力机制,从而更加关注复杂场景下目标信息的特征捕获;然后,将特征融合网络替换成重参数化泛化特征金字塔网络(RepGFPN)改进后的跨层多尺度特征融合结构S-GFPN(Selective layer Generalized Feature Pyramid Network),以实现小目标特征层信息和其他特征层的多尺度融合,并建立长期的依赖关系,从而抑制背景信息的干扰;最后,采用MPDIOU(Intersection Over Union with Minimum Point Distance)损失函数来解决尺度变化不敏感的问题。在公开数据集GDUT-HWD上的实验结果表明,改进后的模型比YOLOv8n的mAP@0.5提升了3.4个百分点,对蓝色、黄色、白色和红色安全帽的检测精度分别提升了2.0、1.1、4.6和9.1个百分点,在密集、遮挡、小目标、反光和黑暗这5类复杂场景下的可视化检测效果也优于YOLOv8n,为实际施工场景中安全帽佩戴检测提供了一种有效方法。
文摘随着预训练语言模型在自然语言处理(NLP)任务上的应用,意图检测(ID)和槽位填充(SF)联合建模提高了口语理解的性能。现有方法大多关注意图和槽位的相互作用,忽略了差异文本序列建模对口语理解(SLU)任务的影响。因此,提出一种基于多任务学习的意图检测和槽位填充联合方法(IDSFML)。首先,使用随机掩盖mask策略构造差异文本,设计结合自编码器和注意力机制的神经网络(AEA)结构,为口语理解任务融入差异文本序列的特征;其次,设计相似性分布任务,使差异文本和原始文本的表征相似;最后,联合训练ID、SF和差异文本序列相似性分布三个任务。在航班旅行信息系统(ATIS)和SNIPS数据集上的实验结果表明,IDSFML与表现次优的基线方法SASGBC(Self-Attention and Slot-Gated on top of BERT with CRF)相比,槽位填充F1值分别提升了1.9和1.6个百分点,意图检测准确率分别提升了0.2和0.4个百分点,提高了口语理解任务的准确率。