南京航空航天大学(Nanjing University of Aeronautics and Astronautics,NUAA)雷达探测与成像团队利用自主研发的无人机载微小型合成孔径雷达(Synthetic aperture radar,SAR)系统针对不同型号的坦克、装甲车和战机等十余类典型军事目...南京航空航天大学(Nanjing University of Aeronautics and Astronautics,NUAA)雷达探测与成像团队利用自主研发的无人机载微小型合成孔径雷达(Synthetic aperture radar,SAR)系统针对不同型号的坦克、装甲车和战机等十余类典型军事目标构建了圆周SAR数据集。通过对多次外场试验数据的高精度成像处理,在多俯仰角单基圆周SAR图像数据集的基础上,扩展了不同双基角组合的双基圆周SAR图像数据集。基于该数据集,本文结合团队在SAR图像目标检测和识别方法及应用方面的研究成果,对基于深度学习的SAR目标检测识别技术进行了回顾和综述,对比了不同神经网络模型在南航无人机载圆周SAR数据集上的检测和识别性能。具体地,在目标检测方面,利用SAR图像固有属性获得目标位置信息并结合单阶段轻量级检测算法,提出利用信息分布规律并结合全局注意力机制捕捉小目标位置信息的检测算法,以提高复杂背景下的小目标检测准确率和效率。在目标识别方面,在通过SAR图像先验信息抑制干扰噪声的基础上,提出利用SAR目标多视角信息联合Transformer的目标识别算法,通过设计视角正则化项以约束多视角之间的关联性从而实现不同视角间的特征融合,提高SAR小目标识别的准确率。从无人机载微型SAR系统对地面目标进行实时检测和识别的实际需求出发,本文还探讨了轻量化检测和识别网络在数字信号处理(Digital signal processing,DSP)平台上的部署方案,同时展示了初步试验结果。最后,本文展望了SAR目标智能检测和识别领域面临的挑战和发展趋势。展开更多
为精准识别与分类不同花期杭白菊,满足自动化采摘要求,该研究提出一种基于改进YOLOv8s的杭白菊检测模型-YOLOv8s-RDL。首先,该研究将颈部网络(neck)的C2f(faster implementation of CSP bottleneck with 2 convolutions)模块替换为RCS-O...为精准识别与分类不同花期杭白菊,满足自动化采摘要求,该研究提出一种基于改进YOLOv8s的杭白菊检测模型-YOLOv8s-RDL。首先,该研究将颈部网络(neck)的C2f(faster implementation of CSP bottleneck with 2 convolutions)模块替换为RCS-OSA(one-shot aggregation of reparameterized convolution based on channel shuffle)模块,以提升骨干网络(backbone)特征融合效率;其次,将检测头更换为DyHead(dynamic head),并融合DCNv3(deformable convolutional networks v3),借助多头自注意力机制增强目标检测头的表达能力;最后,采用LAMP(layer-adaptive magnitude-based pruning)通道剪枝算法减少参数量,降低模型复杂度。试验结果表明,YOLOv8s-RDL模型在菊米和胎菊的花期分类中平均精度分别达到96.3%和97.7%,相较于YOLOv8s模型,分别提升了3.8和1.5个百分点,同时权重文件大小较YOLOv8s减小了6 MB。该研究引入TIDE(toolkit for identifying detection and segmentation errors)评估指标,结果显示,YOLOv8s-RDL模型分类错误和背景检测错误相较YOLOv8s模型分别降低0.55和1.26。该研究为杭白菊分花期自动化采摘提供了理论依据和技术支撑。展开更多
文摘南京航空航天大学(Nanjing University of Aeronautics and Astronautics,NUAA)雷达探测与成像团队利用自主研发的无人机载微小型合成孔径雷达(Synthetic aperture radar,SAR)系统针对不同型号的坦克、装甲车和战机等十余类典型军事目标构建了圆周SAR数据集。通过对多次外场试验数据的高精度成像处理,在多俯仰角单基圆周SAR图像数据集的基础上,扩展了不同双基角组合的双基圆周SAR图像数据集。基于该数据集,本文结合团队在SAR图像目标检测和识别方法及应用方面的研究成果,对基于深度学习的SAR目标检测识别技术进行了回顾和综述,对比了不同神经网络模型在南航无人机载圆周SAR数据集上的检测和识别性能。具体地,在目标检测方面,利用SAR图像固有属性获得目标位置信息并结合单阶段轻量级检测算法,提出利用信息分布规律并结合全局注意力机制捕捉小目标位置信息的检测算法,以提高复杂背景下的小目标检测准确率和效率。在目标识别方面,在通过SAR图像先验信息抑制干扰噪声的基础上,提出利用SAR目标多视角信息联合Transformer的目标识别算法,通过设计视角正则化项以约束多视角之间的关联性从而实现不同视角间的特征融合,提高SAR小目标识别的准确率。从无人机载微型SAR系统对地面目标进行实时检测和识别的实际需求出发,本文还探讨了轻量化检测和识别网络在数字信号处理(Digital signal processing,DSP)平台上的部署方案,同时展示了初步试验结果。最后,本文展望了SAR目标智能检测和识别领域面临的挑战和发展趋势。
文摘为精准识别与分类不同花期杭白菊,满足自动化采摘要求,该研究提出一种基于改进YOLOv8s的杭白菊检测模型-YOLOv8s-RDL。首先,该研究将颈部网络(neck)的C2f(faster implementation of CSP bottleneck with 2 convolutions)模块替换为RCS-OSA(one-shot aggregation of reparameterized convolution based on channel shuffle)模块,以提升骨干网络(backbone)特征融合效率;其次,将检测头更换为DyHead(dynamic head),并融合DCNv3(deformable convolutional networks v3),借助多头自注意力机制增强目标检测头的表达能力;最后,采用LAMP(layer-adaptive magnitude-based pruning)通道剪枝算法减少参数量,降低模型复杂度。试验结果表明,YOLOv8s-RDL模型在菊米和胎菊的花期分类中平均精度分别达到96.3%和97.7%,相较于YOLOv8s模型,分别提升了3.8和1.5个百分点,同时权重文件大小较YOLOv8s减小了6 MB。该研究引入TIDE(toolkit for identifying detection and segmentation errors)评估指标,结果显示,YOLOv8s-RDL模型分类错误和背景检测错误相较YOLOv8s模型分别降低0.55和1.26。该研究为杭白菊分花期自动化采摘提供了理论依据和技术支撑。