期刊文献+
共找到92篇文章
< 1 2 5 >
每页显示 20 50 100
自动驾驶中的3D目标检测研究进展
1
作者 陈建 苏思教 +1 位作者 黄立勤 赵铁松 《电子学报》 北大核心 2025年第6期2131-2156,共26页
近年来,自动驾驶因其在提升道路安全、提高交通效率等方面展现出巨大的潜力而受到越来越多的关注.在现代自动驾驶系统中,感知系统扮演着至关重要的角色,其目标是准确地估计周围环境的状态,并为预测和规划提供可靠的观测信息.其中,3D目... 近年来,自动驾驶因其在提升道路安全、提高交通效率等方面展现出巨大的潜力而受到越来越多的关注.在现代自动驾驶系统中,感知系统扮演着至关重要的角色,其目标是准确地估计周围环境的状态,并为预测和规划提供可靠的观测信息.其中,3D目标检测作为感知系统的重要组成部分,旨在预测自动驾驶车辆周围物体的位置、大小和类别.本文归纳了近年来自动驾驶领域中3D目标检测的研究进展,从单模态检测和多模态融合检测两个角度出发,介绍了使用不同传感器进行单模态方法和多模态融合方法的优势和不足.此外,本文还对比了各种代表性算法在公共数据集上的性能,总结了当前常用训练策略,并讨论了该领域未来的发展趋势. 展开更多
关键词 自动驾驶 3d目标检测 单模态 多模态融合
在线阅读 下载PDF
基于ConvNeXt和可变形交叉注意力的多模态3D目标检测方法
2
作者 周鹏 宋志强 +2 位作者 胡凯 宋利鹏 李明阳 《电子测量技术》 北大核心 2025年第12期63-70,共8页
近年来,随着新能源汽车的快速发展,3D目标检测作为自动驾驶技术的核心基础正变得愈发重要。融合雷达点云与图像等多模态信息的策略,能够显著提升目标检测的准确性与鲁棒性。受BEVDet启发,本研究提出了一种基于BEV(鸟瞰图)视角的改进多... 近年来,随着新能源汽车的快速发展,3D目标检测作为自动驾驶技术的核心基础正变得愈发重要。融合雷达点云与图像等多模态信息的策略,能够显著提升目标检测的准确性与鲁棒性。受BEVDet启发,本研究提出了一种基于BEV(鸟瞰图)视角的改进多模态融合3D目标检测方法。该方法采用ConvNeXt网络结合FPN-DCN结构高效提取图像特征,并通过可变形交叉注意力机制实现图像与点云数据的深度融合,从而进一步提升模型的检测精度。在nuScenes自动驾驶数据集上的实验表明,本研究模型性能优异,在测试集上的NDS达到了64.9%,显著超越了大多数现有检测方法。 展开更多
关键词 自动驾驶 3d目标检测 多模态融合 可变形交叉注意力机制
在线阅读 下载PDF
基于极坐标的环视视觉稀疏化时序3D目标检测
3
作者 魏超 随淑鑫 李路兴 《汽车工程》 北大核心 2025年第6期1198-1206,共9页
在自动驾驶领域,针对基于环视视觉的3D目标检测方法准确性和实时性之间的矛盾,本文提出了一种极坐标参数化的基于稀疏查询的时序3D目标检测方法 PolarSparse4D,该模型由图像编码器、3D锚框解码器以及辅助训练的质量检测分支组成。首先... 在自动驾驶领域,针对基于环视视觉的3D目标检测方法准确性和实时性之间的矛盾,本文提出了一种极坐标参数化的基于稀疏查询的时序3D目标检测方法 PolarSparse4D,该模型由图像编码器、3D锚框解码器以及辅助训练的质量检测分支组成。首先为避免参数归一化带来的检测距离限制,设计了3D锚框中心距离与方位角参数解耦的特征编码方式。其次,通过设计锚框空间信息交互自注意力模块以及锚框时序信息融合模块,高效高精度地完成了极坐标系下环视相机图像时空信息融合过程。最后,通过设计锚框参数质量检测分支,显著提高了检测精度和模型收敛速度。在nuScenes数据集上进行实验验证,本文模型的mAP和NDS均得到了极大的提升,分别为41.3%和52.5%,模型速度为19.2 FPS,证明了本方法在精度和速度方面的优越性和有效性。 展开更多
关键词 3d目标检测 环视视觉 极坐标参数化 自动驾驶
在线阅读 下载PDF
通信延迟下车辆协同感知的3D目标检测方法
4
作者 卢敏 胡振宇 《计算机工程与应用》 北大核心 2025年第7期278-287,共10页
针对车辆协同感知3D目标检测在通信延迟条件下精度较低的问题,提出一种通信延迟下车辆协同感知的3D目标检测方法。设计时空预测模块,提取通信延迟车辆历史感知特征序列中的时空特征,以预测当前时刻的感知特征,基于预测特征构建感知融合... 针对车辆协同感知3D目标检测在通信延迟条件下精度较低的问题,提出一种通信延迟下车辆协同感知的3D目标检测方法。设计时空预测模块,提取通信延迟车辆历史感知特征序列中的时空特征,以预测当前时刻的感知特征,基于预测特征构建感知融合模块,利用注意力机制动态融合感知特征,以降低预测误差影响,提高检测精度。该方法在OPV2V、V2XSet和V2V4Real数据集上进行实验,与Where2Comm、V2VNet等主流协同感知方法相比。实验结果表明,在所对比的方法中,Where2Comm在不同延迟下的3D目标检测平均精度最优,该方法相比Where2Comm在400 ms下的平均精度分别提高了5.9、3.9和1.5个百分点。 展开更多
关键词 协同感知 3d目标检测 通信延迟 时空序列预测 注意力机制 特征融合
在线阅读 下载PDF
面向道路交通场景的高效3D目标检测
5
作者 陆军 鲁林超 +1 位作者 翟晓阳 刘霜 《智能系统学报》 北大核心 2025年第1期91-100,共10页
针对当前两阶段的点云目标检测算法PointRCNN:3D object proposal generation and detection from point cloud在点云降采样阶段时间开销大以及低效性的问题,本研究基于PointRCNN网络提出RandLA-RCNN(random sampling and an effectivel... 针对当前两阶段的点云目标检测算法PointRCNN:3D object proposal generation and detection from point cloud在点云降采样阶段时间开销大以及低效性的问题,本研究基于PointRCNN网络提出RandLA-RCNN(random sampling and an effectivelocal feature aggregator with region-based convolu-tional neural networks)架构。首先,利用随机采样方法在处理庞大点云数据时的高效性,对大场景点云数据进行下采样;然后,通过对输入点云的每个近邻点的空间位置编码,有效提高从每个点的邻域提取局部特征的能力,并利用基于注意力机制的池化规则聚合局部特征向量,获取全局特征;最后使用由多个局部空间编码单元和注意力池化单元叠加形成的扩展残差模块,来进一步增强每个点的全局特征,避免关键点信息丢失。实验结果表明,该检测算法在保留PointRCNN网络对3D目标的检测优势的同时,相比PointRCNN检测速度提升近两倍,达到16 f/s的推理速度。 展开更多
关键词 深度学习 3d目标检测 点云 随机采样 局部特征聚合 注意力机制 自动驾驶
在线阅读 下载PDF
BM3D-YOLOv8-s:前视声呐图像目标检测算法 被引量:1
6
作者 陈美龙 赵新华 叶秀芬 《仪器仪表学报》 北大核心 2025年第2期234-246,共13页
前视声呐作为海洋探测的重要传感器之一,能够远距离探测水下目标,被广泛应用于目标检测和跟踪领域中。然而,声呐数据采集时受海洋环境噪声影响,噪声分布不均匀,使得声呐图像的目标探测精度低。采用传统卷积神经网络对前视声呐目标进行... 前视声呐作为海洋探测的重要传感器之一,能够远距离探测水下目标,被广泛应用于目标检测和跟踪领域中。然而,声呐数据采集时受海洋环境噪声影响,噪声分布不均匀,使得声呐图像的目标探测精度低。采用传统卷积神经网络对前视声呐目标进行跟踪时,因为声呐图像序列帧率较低、目标特征不清晰,容易出现目标丢失问题。针对前视声呐图像噪声污染严重的问题,结合前视声呐图像的特点,提出了一种改进的BM3D算法,减少3D转换处理的计算量,在基础估计的相似块匹配距离计算过程中,采用曼哈顿距离替代欧氏距离,更好地处理声呐图像中不同类型和强度的噪声;针对目标丢失问题,提出了基于YOLOv8-s改进网络的前视声呐图像目标检测算法,包括基于ConvNeXt的C2N改进算法、添加浅特征检测头和归一化Wasserstein距离(NWD)损失函数的改进。进行了声呐图像数据采集,并进行了实验验证。实验结果表明,改进后模型的准确率为87.2%,mAP0.5为85.4%。与改进前的YOLOv8-s模型相比,虽然模型大小只增加了4.6 MB,但是精度增加了5.1个百分点,mAP@0.5增加了4个百分点,对比其他检测模型实验结果,改进后的YOLOv8-s能够有效提升声呐图像的目标检测精度。 展开更多
关键词 前视声呐 噪声 BM3d 目标检测 YOLOv8-s
在线阅读 下载PDF
基于多尺度特征融合和边缘增强的多传感器融合3D目标检测算法
7
作者 刘建国 陈文 +5 位作者 赵奕凡 周琪 颜伏伍 尹智帅 郑灏 吴友华 《重庆大学学报》 北大核心 2025年第8期78-85,共8页
基于BEV(bird’s eye view)多传感器融合的自动驾驶感知算法近年来取得重大进展,持续促进自动驾驶的发展。在多传感器融合感知算法研究中,多视角图像向BEV视角的转换和多模态特征融合一直是BEV感知算法的重点和难点。笔者提出MSEPE-CRN(... 基于BEV(bird’s eye view)多传感器融合的自动驾驶感知算法近年来取得重大进展,持续促进自动驾驶的发展。在多传感器融合感知算法研究中,多视角图像向BEV视角的转换和多模态特征融合一直是BEV感知算法的重点和难点。笔者提出MSEPE-CRN(multi-scale feature fusion and edge and point enhancement-camera radar net),一种用于3D目标检测的相机与毫米波雷达融合感知算法,利用边缘特征和点云提高深度预测的精度,实现多视角图像向BEV特征的精确转换。同时,引入多尺度可变形大核注意力机制进行模态融合,解决因不同传感器特征差异过大导致的错位。在nuScenes开源数据集上的实验结果表明,与基准网络相比,mAP提升2.17%、NDS提升1.93%、mATE提升2.58%、mAOE提升8.08%、mAVE提升2.13%,该算法可有效提高车辆对路面上运动障碍物的感知能力,具有实用价值。 展开更多
关键词 3d目标检测 Bird’s eye view 多模态融合 深度预测
在线阅读 下载PDF
MonoDI:基于融合深度实例的单目3D目标检测
8
作者 赵科 董浩然 业宁 《数据采集与处理》 北大核心 2025年第5期1322-1332,共11页
单目3D目标检测旨在定位输入单个2D图像中物体的3D边界框,这在缺乏图像深度信息的情况下是一个极具困难的任务。针对2D图像在推理时的深度信息缺失以及深度图背景噪声干扰导致检测效果不佳的问题,提出一种融合深度实例的单目3D目标检测... 单目3D目标检测旨在定位输入单个2D图像中物体的3D边界框,这在缺乏图像深度信息的情况下是一个极具困难的任务。针对2D图像在推理时的深度信息缺失以及深度图背景噪声干扰导致检测效果不佳的问题,提出一种融合深度实例的单目3D目标检测方法MonoDI。其关键思想在于利用有效的深度估计网络所生成的深度信息结合实例分割掩码得到深度实例,再与2D图像信息融合来帮助物体3D信息的回归。为了更好地利用深度实例信息,设计了一个迭代深度感知注意力融合模块(iterative Depth aware attention fusion module,iDAAFM),将深度实例特征与2D图像特征融合以得到含有物体清晰边界和深度信息的特征表示;另外,在训练和推理过程引入残差卷积结构代替一般的单一卷积结构,以保证网络在处理融合信息时的稳定与高效。同时,设计了一个3D边界框不确定性辅助任务,在训练中帮助任务学习边界框的生成,提高单目3D目标检测任务的精度。在KITTI数据集上对此方法进行验证,实验结果表明,MonoDI在3D目标检测任务中中等难度情况下的车辆类别的检测精度比基线提高了4.41个百分点,且优于MonoCon、MonoLSS等对比方法,同时在KITTI-nuScenes跨数据集实验中取得了较优的结果。 展开更多
关键词 单目3d目标检测 实例分割 特征融合 残差卷积 辅助学习
在线阅读 下载PDF
基于跨域时空特征匹配的路端3D目标检测无监督学习方法研究
9
作者 龚伟 王亚飞 +2 位作者 汪博文 李泽星 孙家铭 《汽车工程》 北大核心 2025年第9期1665-1673,1699,共10页
路端3D目标检测能提供广域交通参与者信息,可有效赋能单车自动驾驶。一般而言,在新的路口部署感知系统需要采集大量数据并进行人工标注以保证训练模型的检测精度,部署耗时长且成本高。针对上述问题,本文提出了一种面向路侧端的无监督域... 路端3D目标检测能提供广域交通参与者信息,可有效赋能单车自动驾驶。一般而言,在新的路口部署感知系统需要采集大量数据并进行人工标注以保证训练模型的检测精度,部署耗时长且成本高。针对上述问题,本文提出了一种面向路侧端的无监督域自适应算法,通过现有高质量标注路端数据与未知路端场景数据的跨域时空特征匹配,实现高效网络知识迁移与高准确率3D目标检测。首先,构建了考虑跨域训练数据分布均衡的源域训练模型(RoadPillars),能有效减少模型对原有数据分布的过拟合,提升模型泛化性。其次,设计了考虑连续序列信息空间一致性的跨域迁移框架,确保迁移过程稳定鲁棒。在3个不同路端场景和雷达类型的公开数据集展开的两组迁移测试结果显示,本文无监督域适应算法相较于目前最新方法的平均精度提升了24.2%和8.0%,有效增强了路端感知中目标检测模型的泛化性与可靠性。 展开更多
关键词 路端感知 3d目标检测 迁移学习 无监督域适应 特征匹配
在线阅读 下载PDF
PUDet:基于生成上采样网络的3D目标检测方法
10
作者 许丽梅 周治国 周学华 《仪器仪表学报》 北大核心 2025年第8期228-243,共16页
基于LiDAR的3D目标检测在性能上表现出色,但前景目标点云分布不均匀,往往削弱了其几何特征的表达。同时,远距离目标通常点数稀少,进一步影响检测效果。为此,提出了一种创新框架PUDet,将生成模型融入判别式检测器中。利用带有先验知识的... 基于LiDAR的3D目标检测在性能上表现出色,但前景目标点云分布不均匀,往往削弱了其几何特征的表达。同时,远距离目标通常点数稀少,进一步影响检测效果。为此,提出了一种创新框架PUDet,将生成模型融入判别式检测器中。利用带有先验知识的点云上采样网络,增强前景目标的几何细节,从而帮助检测器实现更精确的预测。PUDet包含2个关键模块:针对近距离目标的LDEM,通过优化点云分布来提升检测效果并降低计算成本;针对远距离目标的DDAM,通过增加点密度更清晰地勾勒物体轮廓。为了验证几何轮廓的优化效果,在增强前后分别对近距离和远距离目标的均匀损失进行了实验对比,证明了LDEM和DDAM的有效性。本研究还通过目标点云的注意力图展示了模型对关键区域的关注程度,从而进一步分析了精度提升的内在机制。在KITTI测试集上的实验结果表明,PUDet将基线模型CT3D的mAP提升了1.84个百分点。本研究为3D目标检测领域提供了一种新的方法,并为自动驾驶等应用场景中的精确目标识别和处理提供了更准确、可靠的支持。 展开更多
关键词 3d目标检测 自动驾驶 点云上采样 激光雷达(LidAR)点云
在线阅读 下载PDF
融合多尺度特征和自适应NMS的3D目标检测
11
作者 张李辉 刘紫燕 《电子测量技术》 北大核心 2025年第4期191-198,共8页
3D目标检测是自动驾驶感知系统的关键技术之一,能准确检测驾驶环境的状态从而保证行车安全。针对自动驾驶场景中行人和骑行者等小目标的3D检测精度较低的问题,提出一种基于多尺度特征和自适应非极大值抑制的3D目标检测算法。首先,设计... 3D目标检测是自动驾驶感知系统的关键技术之一,能准确检测驾驶环境的状态从而保证行车安全。针对自动驾驶场景中行人和骑行者等小目标的3D检测精度较低的问题,提出一种基于多尺度特征和自适应非极大值抑制的3D目标检测算法。首先,设计多尺度特征提取器,以获取大、中、小尺度的特征。其次,设计多尺度检测头以生成不同尺寸目标的候选框,从而补充小目标候选框。为了平衡多尺度候选框的数量,设计一种基于ANMS的候选框筛选算法,提高了对不同尺寸目标的检测精度。在KITTI数据集上的结果表明,改进算法在确保汽车类目标检测精度的同时,对行人和骑行者的检测精度达到62.57%和73.30%,比基线算法高2.04%和1.33%,验证了改进算法在小目标检测方面具有较好的3D检测性能。 展开更多
关键词 3d目标检测 多尺度特征 自适应非极大值抑制
在线阅读 下载PDF
基于注意力残差网络和混合池化的3D目标检测
12
作者 王涛 薛庆水 +1 位作者 王栋 张旭 《电子测量技术》 北大核心 2025年第17期44-53,共10页
针对3D目标检测任务中行人和骑行者的检测精度较低问题,以Voxel-RCNN为基准算法进行改进,提出了一种基于注意力残差网络和混合池化的3D目标检测算法来提升检测精度。首先,设计了一种融合残差网络和注意力机制的新型2D骨干网络,通过残差... 针对3D目标检测任务中行人和骑行者的检测精度较低问题,以Voxel-RCNN为基准算法进行改进,提出了一种基于注意力残差网络和混合池化的3D目标检测算法来提升检测精度。首先,设计了一种融合残差网络和注意力机制的新型2D骨干网络,通过残差网络结构来增强模型对不同目标尺寸的适应性,同时引入注意力机制以聚焦于关键区域,提高特征表示能力;其次,提出了一种新型的MLP池化方法,同时设计了一种结合卷积的注意力池化方式,两种池化方法不仅能够有效保留小目标的局部几何细节信息,还能增强全局语义特征表达能力,从而进一步提升对复杂场景中多样性目标的捕捉能力。在公开数据集KITTI上的实验结果表明,Pedestrian和Cyclist类别的平均精度(mAP3D)分别达到了54.06%、76.85%,相比较于基准算法提升了3.43%、3.03%。该实验结果证明了所提方法的有效性。 展开更多
关键词 3d目标检测 注意力残差网络 注意力机制 混合池化 目标检测
在线阅读 下载PDF
一种基于YOLOv7的3D目标检测算法
13
作者 周启迪 李伟 +3 位作者 宋宇萍 唐超 刘青 邹伟林 《南京理工大学学报》 北大核心 2025年第3期374-380,共7页
目前基于雷达点云的3D目标检测算法在准确度上能达到令人满意的效果,但是速度慢,很难达到自动驾驶场景下对于实时性的要求。该文在Complex-YOLO基础上进行改进,将点云数据编码投影到鸟瞰图上后,使用YOLOv7算法进行检测并通过施加注意力... 目前基于雷达点云的3D目标检测算法在准确度上能达到令人满意的效果,但是速度慢,很难达到自动驾驶场景下对于实时性的要求。该文在Complex-YOLO基础上进行改进,将点云数据编码投影到鸟瞰图上后,使用YOLOv7算法进行检测并通过施加注意力机制对不同通道的权重进行重新分配,再利用完全交并比(CIoU)损失改进模型损失函数。在KITTI数据集上的实验表明,基于YOLOv7的3D目标检测算法检测速度可以达到70.4FPS,并且在简单和中等难度的样本检测中能获得不错的性能。 展开更多
关键词 深度学习 3d目标检测 YOLOv7 注意力机制 自动驾驶
在线阅读 下载PDF
基于多尺度网络与轴向注意力的3D目标检测算法
14
作者 颜承志 陈颖 +1 位作者 钟凯 高寒 《计算机应用》 北大核心 2025年第8期2537-2545,共9页
在3D目标检测中小目标诸如行人和骑行者的检测精确度较低,这是自动驾驶感知系统中存在的挑战性问题。为了准确估计周围环境的状态从而提高行车安全,对Voxel R-CNN(Voxel Region-based Convolutional Neural Network)算法进行改进,提出... 在3D目标检测中小目标诸如行人和骑行者的检测精确度较低,这是自动驾驶感知系统中存在的挑战性问题。为了准确估计周围环境的状态从而提高行车安全,对Voxel R-CNN(Voxel Region-based Convolutional Neural Network)算法进行改进,提出一种基于多尺度网络与轴向注意力的3D目标检测算法。首先,在主干网络中构建多尺度网络和像素级融合模块(PFM)获取更丰富和精准的特征表示,从而增强算法在复杂场景下的鲁棒性和泛化能力;其次,设计适用于具有3D空间维度特征的轴向注意力,并将它应用于感兴趣区域(RoI)的多尺度池化特征,以在有效捕捉局部和全局特征的同时保留3D空间结构中的重要信息,从而提升算法的目标检测和分类的精度和效率;最后,将一种旋转解耦的交并比(RDIoU)方法纳入回归和分类分支,从而使网络学习更精确的边界框,并解决分类和回归之间的对齐问题。在KITTI公开数据集上的实验结果表明,所提算法对行人和骑行者的平均精度均值(mAP)分别达到了62.25%和79.36%,与基准算法Voxel R-CNN相比分别提高了4.02和3.15个百分点,显示出了改进算法在难感知目标检测上的有效性。 展开更多
关键词 3d目标检测 多尺度网络 特征融合 轴向注意力 损失函数
在线阅读 下载PDF
基于上下文信息增强和深度引导的单目3D目标检测
15
作者 于家艺 吴秦 《浙江大学学报(工学版)》 北大核心 2025年第1期89-99,共11页
为了充分利用单目图像提供的特征信息,提出上下文信息增强和深度引导的单目3D目标检测方法.设计高效的上下文信息增强模块,使用多个大核卷积自适应地增强多尺度目标的上下文信息,利用深度可分离卷积和条形卷积操作有效减少大核卷积的参... 为了充分利用单目图像提供的特征信息,提出上下文信息增强和深度引导的单目3D目标检测方法.设计高效的上下文信息增强模块,使用多个大核卷积自适应地增强多尺度目标的上下文信息,利用深度可分离卷积和条形卷积操作有效减少大核卷积的参数量和计算复杂度.统计分析3D目标框各个属性的预测误差,发现3D目标框的长度和深度属性预测不准确是导致预测框偏差大的主要原因.设计深度误差加权损失函数,在训练过程中进行目标的长度和深度预测监督,提高长度和深度属性的预测精度,进而提升3D预测框的准确性.在KITTI数据集上开展实验,结果表明,所提方法在数据集的多个级别上的平均准确度高于现有的单目3D目标检测方法. 展开更多
关键词 单目3d目标检测 大核卷积 深度可分离卷积 条形卷积 多尺度目标
在线阅读 下载PDF
一种多层多模态融合3D目标检测方法 被引量:8
16
作者 周治国 马文浩 《电子学报》 EI CAS CSCD 北大核心 2024年第3期696-708,共13页
在自动驾驶感知系统中视觉传感器与激光雷达是关键的信息来源,但在目前的3D目标检测任务中大部分纯点云的网络检测能力都优于图像和激光点云融合的网络,现有的研究将其原因总结为图像与雷达信息的视角错位以及异构特征难以匹配,单阶段... 在自动驾驶感知系统中视觉传感器与激光雷达是关键的信息来源,但在目前的3D目标检测任务中大部分纯点云的网络检测能力都优于图像和激光点云融合的网络,现有的研究将其原因总结为图像与雷达信息的视角错位以及异构特征难以匹配,单阶段融合算法难以充分融合二者的特征.为此,本文提出一种新的多层多模态融合的3D目标检测方法:首先,前融合阶段通过在2D检测框形成的锥视区内对点云进行局部顺序的色彩信息(Red Green Blue,RGB)涂抹编码;然后将编码后点云输入融合了自注意力机制上下文感知的通道扩充PointPillars检测网络;后融合阶段将2D候选框与3D候选框在非极大抑制之前编码为两组稀疏张量,利用相机激光雷达对象候选融合网络得出最终的3D目标检测结果.在KITTI数据集上进行的实验表明,本融合检测方法相较于纯点云网络的基线上有了显著的性能提升,平均mAP提高了6.24%. 展开更多
关键词 自动驾驶 多传感器融合 3d目标检测 点云编码 自注意力机制
在线阅读 下载PDF
基于深度与实例分割融合的单目3D目标检测方法 被引量:1
17
作者 孙逊 冯睿锋 陈彦如 《计算机应用》 CSCD 北大核心 2024年第7期2208-2215,共8页
针对单目3D目标检测在视角变化引起的物体大小变化以及物体遮挡等情况下效果不佳的问题,提出一种融合深度信息和实例分割掩码的新型单目3D目标检测方法。首先,通过深度-掩码注意力融合(DMAF)模块,将深度信息与实例分割掩码结合,以提供... 针对单目3D目标检测在视角变化引起的物体大小变化以及物体遮挡等情况下效果不佳的问题,提出一种融合深度信息和实例分割掩码的新型单目3D目标检测方法。首先,通过深度-掩码注意力融合(DMAF)模块,将深度信息与实例分割掩码结合,以提供更准确的物体边界;其次,引入动态卷积,并利用DMAF模块得到的融合特征引导动态卷积核的生成,以处理不同尺度的物体;再次,在损失函数中引入2D-3D边界框一致性损失函数,调整预测的3D边界框与对应的2D检测框高度一致,以提高实例分割和3D目标检测任务的效果;最后,通过消融实验验证该方法的有效性,并在KITTI测试集上对该方法进行验证。实验结果表明,与仅使用深度估计图和实例分割掩码的方法相比,在中等难度下对车辆类别检测的平均精度提高了6.36个百分点,且3D目标检测和鸟瞰图目标检测任务的效果均优于D4LCN(Depth-guided Dynamic-Depthwise-Dilated Local Convolutional Network)、M3D-RPN(Monocular 3D Region Proposal Network)等对比方法。 展开更多
关键词 单目3d目标检测 深度学习 动态卷积 实例分割
在线阅读 下载PDF
LiDar点云指导下特征分布趋同与语义关联的3D目标检测 被引量:2
18
作者 郑锦 蒋博韬 +1 位作者 彭微 王森 《电子学报》 EI CAS CSCD 北大核心 2024年第5期1700-1715,共16页
针对现有基于伪点云的3D目标检测算法精度远低于基于真实激光雷达(Light Detection and ranging,LiDar)点云的3D目标检测,本文研究伪点云重构,并提出适合伪点云的3D目标检测网络.考虑到由图像深度转换得到的伪点云稠密且随深度增大逐渐... 针对现有基于伪点云的3D目标检测算法精度远低于基于真实激光雷达(Light Detection and ranging,LiDar)点云的3D目标检测,本文研究伪点云重构,并提出适合伪点云的3D目标检测网络.考虑到由图像深度转换得到的伪点云稠密且随深度增大逐渐稀疏,本文提出深度相关伪点云稀疏化方法,在减少后续计算量的同时保留中远距离更多的有效伪点云,实现伪点云重构.本文提出LiDar点云指导下特征分布趋同与语义关联的3D目标检测网络,在网络训练时引入LiDar点云分支来指导伪点云目标特征的生成,使生成的伪点云特征分布趋同于LiDar点云特征分布,从而降低数据源不一致造成的检测性能损失;针对RPN(Region Proposal Network)网络获取的3D候选框内的伪点云间语义关联不足的问题,设计注意力感知模块,在伪点云特征表示中通过注意力机制嵌入点间的语义关联关系,提升3D目标检测精度.在KITTI 3D目标检测数据集上的实验结果表明:现有的3D目标检测网络采用重构后的伪点云,检测精度提升了2.61%;提出的特征分布趋同与语义关联的3D目标检测网络,将基于伪点云的3D目标检测精度再提升0.57%,相比其他优秀的3D目标检测方法在检测精度上也有提升. 展开更多
关键词 3d目标检测 伪点云 语义关联 分布趋同 注意力感知
在线阅读 下载PDF
多关键点约束与深度估计辅助的单目3D目标检测算法 被引量:2
19
作者 郑锦 王森 +1 位作者 李航 周裕海 《计算机学报》 EI CAS CSCD 北大核心 2024年第12期2803-2818,共16页
当前主流的单目相机3D目标检测网络采用关键点检测范式,存在关键点预测与深度估计不准确的问题,限制了单目3D检测器的性能表现.本文提出一种多关键点约束与深度估计辅助的单目3D目标检测算法Mono-Aux,利用3D检测框的角点投影点、上表面... 当前主流的单目相机3D目标检测网络采用关键点检测范式,存在关键点预测与深度估计不准确的问题,限制了单目3D检测器的性能表现.本文提出一种多关键点约束与深度估计辅助的单目3D目标检测算法Mono-Aux,利用3D检测框的角点投影点、上表面与下表面中心投影点作为3D框中心投影点的补充,通过多关键点约束提升关键点预测精度;提出一种LiDAR-Free解耦深度估计方法,在不引入激光点云数据的同时通过几何关系推导引入额外的深度估计辅助监督信号,提升深度估计的准确性.多关键点约束与深度估计辅助仅在训练阶段使用,推理阶段不引入额外的计算成本.在KITTI3D目标检测验证集和测试集上的结果显示,相较于MonoDLE基线网络,提出的MonoAux算法在目标检测精度上分别提高3.87%和4.64%,与其他SOTA方法相比,本文方法也具有显著的性能优势,甚至优于部分使用额外数据的方法. 展开更多
关键词 3d目标检测 关键点预测 角点投影点 深度估计 激光点云
在线阅读 下载PDF
隐式3D表征学习的星表障碍物检测方法
20
作者 杨文飞 姜涵 +3 位作者 潘晓扬 李茂登 周晔 张天柱 《深空探测学报(中英文)》 北大核心 2025年第2期172-178,共7页
传统的基于图像的障碍物检测只能定位其在图像平面的二维位置,需再结合双目立体匹配获取深度信息才可确定障碍物的实际空间位置,双目立体匹配具有计算量大且面临复杂环境匹配准确性下降的难题,提出一种基于隐式3D表征学习的星表障碍物... 传统的基于图像的障碍物检测只能定位其在图像平面的二维位置,需再结合双目立体匹配获取深度信息才可确定障碍物的实际空间位置,双目立体匹配具有计算量大且面临复杂环境匹配准确性下降的难题,提出一种基于隐式3D表征学习的星表障碍物检测方法。该方法将每个点潜在的三维坐标编码为图像特征,生成的隐式三维空间特征能有效建立2D图像到3D空间的隐式转换,从而直接预测障碍物的空间位置。并在“勇气号”(Spirit)采集的火星地表图像进行了实验验证,结果表明所提出的方法可有效地识别地外天体表面岩石障碍物的位置和尺寸,检测准确率达到了85.5%。所提方法为星表障碍物的检测提供了新思路,有望为月球/火星探测器自主巡视探测提供技术支撑。 展开更多
关键词 地外星表障碍物检测 3d位置编码 3d目标检测
在线阅读 下载PDF
上一页 1 2 5 下一页 到第
使用帮助 返回顶部