在机器视觉感知系统中,从不完整的被遮挡的目标对象中鲁棒重建三维场景及其语义信息至关重要.目前常用方法一般将这两个功能分开处理,本文将二者结合,提出了一种基于深度图及分离池化技术的场景复原及语义分类网络,依据深度图中的RGB-D...在机器视觉感知系统中,从不完整的被遮挡的目标对象中鲁棒重建三维场景及其语义信息至关重要.目前常用方法一般将这两个功能分开处理,本文将二者结合,提出了一种基于深度图及分离池化技术的场景复原及语义分类网络,依据深度图中的RGB-D信息,完成对三维目标场景的重建与分类.首先,构建了一种CPU端到GPU端的深度卷积神经网络模型,将从传感器采样的深度图像作为输入,深度学习摄像机投影区域内的上下文目标场景信息,网络的输出为使用改进的截断式带符号距离函数(Truncated signed distance function, TSDF)编码后的体素级语义标注.然后,使用分离池化技术改进卷积神经网络的池化层粒度结构,设计带细粒度池化的语义分类损失函数,用于回馈网络的语义分类重定位.最后,为增强卷积神经网络的深度学习能力,构建了一种带有语义标注的三维目标场景数据集,以此加强本文所提网络的深度学习鲁棒性.实验结果表明,与目前较先进的网络模型对比,本文网络的重建规模扩大了2.1%,所提深度卷积网络对缺失场景的复原效果较好,同时保证了语义分类的精准度.展开更多
为了解决无人机航拍图片玉米植株中心检测所面临的诸多挑战,包括植株遮挡、形态多样、光照变化以及视觉混淆等问题,提升检测精度和模型的鲁棒性,开发了一种基于YOLO-TSCAS(YOLO with triplet-attention,saliencyadaptive,and centroid a...为了解决无人机航拍图片玉米植株中心检测所面临的诸多挑战,包括植株遮挡、形态多样、光照变化以及视觉混淆等问题,提升检测精度和模型的鲁棒性,开发了一种基于YOLO-TSCAS(YOLO with triplet-attention,saliencyadaptive,and centroid awareness for scenes)模型的玉米植株中心检测算法。该算法通过三重注意力模块、显著性裁剪混合数据增强方法、自适应池化技术和选择性多单元激活函数等技术手段,有效提高了检测精度和鲁棒性。采用三重注意力模块解决目标遮挡和视觉混淆问题,使模型能够更好地关注植株中心区域。采用显著性裁剪混合数据增强方法,在训练过程中引入不同的环境和光照变化,增强了模型对复杂场景的适应能力。结合自适应池化技术提高空间分辨率,有助于捕捉更精细的特征信息,提高检测的准确性。采用选择性多单元激活函数进一步增强了网络的学习能力,使模型能够更好地适应各种场景下的植株中心检测任务。实验结果表明,与现有的YOLOX算法相比,YOLO-TSCAS算法在平均准确率和平均F1值上分别提高了22.73个百分点和0.255,并且平均对数漏检率也显著降低了0.35。与其他流行的检测模型相比,在两类植株中心目标检测精度上也取得了最佳效果。展开更多
文摘在机器视觉感知系统中,从不完整的被遮挡的目标对象中鲁棒重建三维场景及其语义信息至关重要.目前常用方法一般将这两个功能分开处理,本文将二者结合,提出了一种基于深度图及分离池化技术的场景复原及语义分类网络,依据深度图中的RGB-D信息,完成对三维目标场景的重建与分类.首先,构建了一种CPU端到GPU端的深度卷积神经网络模型,将从传感器采样的深度图像作为输入,深度学习摄像机投影区域内的上下文目标场景信息,网络的输出为使用改进的截断式带符号距离函数(Truncated signed distance function, TSDF)编码后的体素级语义标注.然后,使用分离池化技术改进卷积神经网络的池化层粒度结构,设计带细粒度池化的语义分类损失函数,用于回馈网络的语义分类重定位.最后,为增强卷积神经网络的深度学习能力,构建了一种带有语义标注的三维目标场景数据集,以此加强本文所提网络的深度学习鲁棒性.实验结果表明,与目前较先进的网络模型对比,本文网络的重建规模扩大了2.1%,所提深度卷积网络对缺失场景的复原效果较好,同时保证了语义分类的精准度.
文摘为了解决无人机航拍图片玉米植株中心检测所面临的诸多挑战,包括植株遮挡、形态多样、光照变化以及视觉混淆等问题,提升检测精度和模型的鲁棒性,开发了一种基于YOLO-TSCAS(YOLO with triplet-attention,saliencyadaptive,and centroid awareness for scenes)模型的玉米植株中心检测算法。该算法通过三重注意力模块、显著性裁剪混合数据增强方法、自适应池化技术和选择性多单元激活函数等技术手段,有效提高了检测精度和鲁棒性。采用三重注意力模块解决目标遮挡和视觉混淆问题,使模型能够更好地关注植株中心区域。采用显著性裁剪混合数据增强方法,在训练过程中引入不同的环境和光照变化,增强了模型对复杂场景的适应能力。结合自适应池化技术提高空间分辨率,有助于捕捉更精细的特征信息,提高检测的准确性。采用选择性多单元激活函数进一步增强了网络的学习能力,使模型能够更好地适应各种场景下的植株中心检测任务。实验结果表明,与现有的YOLOX算法相比,YOLO-TSCAS算法在平均准确率和平均F1值上分别提高了22.73个百分点和0.255,并且平均对数漏检率也显著降低了0.35。与其他流行的检测模型相比,在两类植株中心目标检测精度上也取得了最佳效果。