针对无人机航拍图像中存在小目标、目标遮挡、背景复杂的问题,提出一种基于高效特征提取和大感受野的目标检测网络(efficient feature and large receptive field network,EFLF-Net)。通过优化检测层架构降低小目标漏检率;在主干网络融...针对无人机航拍图像中存在小目标、目标遮挡、背景复杂的问题,提出一种基于高效特征提取和大感受野的目标检测网络(efficient feature and large receptive field network,EFLF-Net)。通过优化检测层架构降低小目标漏检率;在主干网络融合新的构建模块以提升特征提取效率;引入内容感知特征重组模块和大型选择性核网络,增强颈部网络对遮挡目标的上下文感知能力;采用Wise-IoU损失函数优化边界框回归稳定性。在VisDrone2019数据集上的实验结果表明,EFLF-Net较基准模型在平均精度上提高了5.2%。与已有代表性的目标检测算法相比,该方法对存在小目标、目标相互遮挡和复杂背景的无人机航拍图像有更好的检测效果。展开更多
针对无人机航拍图像中背景丰富,多个小目标聚集导致的误检、漏检,以及置信度不高等问题,本文提出一种改进YOLOX(You Only Look Once X)的目标检测算法。首先,设计一种提取高频特征信息的注意力机制(LE-MSA),避免小目标特征消失在冗余信...针对无人机航拍图像中背景丰富,多个小目标聚集导致的误检、漏检,以及置信度不高等问题,本文提出一种改进YOLOX(You Only Look Once X)的目标检测算法。首先,设计一种提取高频特征信息的注意力机制(LE-MSA),避免小目标特征消失在冗余信息中;其次,为防止样本类别不均衡导致检测效果差的问题,引入VarifocalLoss损失函数,与BCEWithLogitsLoss损失函数共同参与分类准确度和目标框定位精度的提升;最后,提出一种包含自适应小目标增强和区域增强方法在内的多策略数据增强方法,提高模型的泛化能力。试验结果表明,LE-YOLOX算法表现出良好的检测能力,其检测精度达到90.78%,优于Faster R-CNN(71.30%)、YOLOv5(88.15%)、YOLOv8(87.63%)、YOLOv10(86.1%)和YOLOX(87.82%);同时,改进YOLOX在实际检测时能够有效解决无人机航拍图像下密集小目标的误检和漏检问题,具有较强的小目标识别和密集目标处理能力。展开更多
针对视觉算法在检测航拍图像中密集小目标时容易受到目标重叠、遮挡等情况干扰的现象,提出了一种基于高阶空间特征(目标形状、位置等信息的高级表示)提取的Transformer检测头HSF-TPH(Transformer prediction head with high-order spati...针对视觉算法在检测航拍图像中密集小目标时容易受到目标重叠、遮挡等情况干扰的现象,提出了一种基于高阶空间特征(目标形状、位置等信息的高级表示)提取的Transformer检测头HSF-TPH(Transformer prediction head with high-order spatial feature extraction)。所提检测头中将自注意力机制中的二阶交互扩展到三阶以生成高阶空间特征,提取更有区分度的空间关系,突出每一个小目标在空间上的语义信息。同时,为了缓解骨干网络过度下采样对小目标信息的压缩,设计了一种高分辨率特征图生成机制,增加头部网络的输入特征分辨率,以提升HSFTPH检测密集小目标的效果。设计了新的损失函数USIoU,降低算法位置偏差敏感性。在VisDrone2019数据集上开展实验证明,所提算法在面积最小、密度最高的人类目标的检测任务中实现了mAP50指标10个百分点以上的性能提升。展开更多
文摘针对无人机航拍图像中存在小目标、目标遮挡、背景复杂的问题,提出一种基于高效特征提取和大感受野的目标检测网络(efficient feature and large receptive field network,EFLF-Net)。通过优化检测层架构降低小目标漏检率;在主干网络融合新的构建模块以提升特征提取效率;引入内容感知特征重组模块和大型选择性核网络,增强颈部网络对遮挡目标的上下文感知能力;采用Wise-IoU损失函数优化边界框回归稳定性。在VisDrone2019数据集上的实验结果表明,EFLF-Net较基准模型在平均精度上提高了5.2%。与已有代表性的目标检测算法相比,该方法对存在小目标、目标相互遮挡和复杂背景的无人机航拍图像有更好的检测效果。
文摘针对无人机航拍图像中背景丰富,多个小目标聚集导致的误检、漏检,以及置信度不高等问题,本文提出一种改进YOLOX(You Only Look Once X)的目标检测算法。首先,设计一种提取高频特征信息的注意力机制(LE-MSA),避免小目标特征消失在冗余信息中;其次,为防止样本类别不均衡导致检测效果差的问题,引入VarifocalLoss损失函数,与BCEWithLogitsLoss损失函数共同参与分类准确度和目标框定位精度的提升;最后,提出一种包含自适应小目标增强和区域增强方法在内的多策略数据增强方法,提高模型的泛化能力。试验结果表明,LE-YOLOX算法表现出良好的检测能力,其检测精度达到90.78%,优于Faster R-CNN(71.30%)、YOLOv5(88.15%)、YOLOv8(87.63%)、YOLOv10(86.1%)和YOLOX(87.82%);同时,改进YOLOX在实际检测时能够有效解决无人机航拍图像下密集小目标的误检和漏检问题,具有较强的小目标识别和密集目标处理能力。
文摘针对视觉算法在检测航拍图像中密集小目标时容易受到目标重叠、遮挡等情况干扰的现象,提出了一种基于高阶空间特征(目标形状、位置等信息的高级表示)提取的Transformer检测头HSF-TPH(Transformer prediction head with high-order spatial feature extraction)。所提检测头中将自注意力机制中的二阶交互扩展到三阶以生成高阶空间特征,提取更有区分度的空间关系,突出每一个小目标在空间上的语义信息。同时,为了缓解骨干网络过度下采样对小目标信息的压缩,设计了一种高分辨率特征图生成机制,增加头部网络的输入特征分辨率,以提升HSFTPH检测密集小目标的效果。设计了新的损失函数USIoU,降低算法位置偏差敏感性。在VisDrone2019数据集上开展实验证明,所提算法在面积最小、密度最高的人类目标的检测任务中实现了mAP50指标10个百分点以上的性能提升。