期刊文献+
共找到83篇文章
< 1 2 5 >
每页显示 20 50 100
基于ConvNeXt和可变形交叉注意力的多模态3D目标检测方法
1
作者 周鹏 宋志强 +2 位作者 胡凯 宋利鹏 李明阳 《电子测量技术》 北大核心 2025年第12期63-70,共8页
近年来,随着新能源汽车的快速发展,3D目标检测作为自动驾驶技术的核心基础正变得愈发重要。融合雷达点云与图像等多模态信息的策略,能够显著提升目标检测的准确性与鲁棒性。受BEVDet启发,本研究提出了一种基于BEV(鸟瞰图)视角的改进多... 近年来,随着新能源汽车的快速发展,3D目标检测作为自动驾驶技术的核心基础正变得愈发重要。融合雷达点云与图像等多模态信息的策略,能够显著提升目标检测的准确性与鲁棒性。受BEVDet启发,本研究提出了一种基于BEV(鸟瞰图)视角的改进多模态融合3D目标检测方法。该方法采用ConvNeXt网络结合FPN-DCN结构高效提取图像特征,并通过可变形交叉注意力机制实现图像与点云数据的深度融合,从而进一步提升模型的检测精度。在nuScenes自动驾驶数据集上的实验表明,本研究模型性能优异,在测试集上的NDS达到了64.9%,显著超越了大多数现有检测方法。 展开更多
关键词 自动驾驶 3d目标检测 多模态融合 可变形交叉注意力机制
在线阅读 下载PDF
基于极坐标的环视视觉稀疏化时序3D目标检测
2
作者 魏超 随淑鑫 李路兴 《汽车工程》 北大核心 2025年第6期1198-1206,共9页
在自动驾驶领域,针对基于环视视觉的3D目标检测方法准确性和实时性之间的矛盾,本文提出了一种极坐标参数化的基于稀疏查询的时序3D目标检测方法 PolarSparse4D,该模型由图像编码器、3D锚框解码器以及辅助训练的质量检测分支组成。首先... 在自动驾驶领域,针对基于环视视觉的3D目标检测方法准确性和实时性之间的矛盾,本文提出了一种极坐标参数化的基于稀疏查询的时序3D目标检测方法 PolarSparse4D,该模型由图像编码器、3D锚框解码器以及辅助训练的质量检测分支组成。首先为避免参数归一化带来的检测距离限制,设计了3D锚框中心距离与方位角参数解耦的特征编码方式。其次,通过设计锚框空间信息交互自注意力模块以及锚框时序信息融合模块,高效高精度地完成了极坐标系下环视相机图像时空信息融合过程。最后,通过设计锚框参数质量检测分支,显著提高了检测精度和模型收敛速度。在nuScenes数据集上进行实验验证,本文模型的mAP和NDS均得到了极大的提升,分别为41.3%和52.5%,模型速度为19.2 FPS,证明了本方法在精度和速度方面的优越性和有效性。 展开更多
关键词 3d目标检测 环视视觉 极坐标参数化 自动驾驶
在线阅读 下载PDF
通信延迟下车辆协同感知的3D目标检测方法
3
作者 卢敏 胡振宇 《计算机工程与应用》 北大核心 2025年第7期278-287,共10页
针对车辆协同感知3D目标检测在通信延迟条件下精度较低的问题,提出一种通信延迟下车辆协同感知的3D目标检测方法。设计时空预测模块,提取通信延迟车辆历史感知特征序列中的时空特征,以预测当前时刻的感知特征,基于预测特征构建感知融合... 针对车辆协同感知3D目标检测在通信延迟条件下精度较低的问题,提出一种通信延迟下车辆协同感知的3D目标检测方法。设计时空预测模块,提取通信延迟车辆历史感知特征序列中的时空特征,以预测当前时刻的感知特征,基于预测特征构建感知融合模块,利用注意力机制动态融合感知特征,以降低预测误差影响,提高检测精度。该方法在OPV2V、V2XSet和V2V4Real数据集上进行实验,与Where2Comm、V2VNet等主流协同感知方法相比。实验结果表明,在所对比的方法中,Where2Comm在不同延迟下的3D目标检测平均精度最优,该方法相比Where2Comm在400 ms下的平均精度分别提高了5.9、3.9和1.5个百分点。 展开更多
关键词 协同感知 3d目标检测 通信延迟 时空序列预测 注意力机制 特征融合
在线阅读 下载PDF
面向道路交通场景的高效3D目标检测
4
作者 陆军 鲁林超 +1 位作者 翟晓阳 刘霜 《智能系统学报》 北大核心 2025年第1期91-100,共10页
针对当前两阶段的点云目标检测算法PointRCNN:3D object proposal generation and detection from point cloud在点云降采样阶段时间开销大以及低效性的问题,本研究基于PointRCNN网络提出RandLA-RCNN(random sampling and an effectivel... 针对当前两阶段的点云目标检测算法PointRCNN:3D object proposal generation and detection from point cloud在点云降采样阶段时间开销大以及低效性的问题,本研究基于PointRCNN网络提出RandLA-RCNN(random sampling and an effectivelocal feature aggregator with region-based convolu-tional neural networks)架构。首先,利用随机采样方法在处理庞大点云数据时的高效性,对大场景点云数据进行下采样;然后,通过对输入点云的每个近邻点的空间位置编码,有效提高从每个点的邻域提取局部特征的能力,并利用基于注意力机制的池化规则聚合局部特征向量,获取全局特征;最后使用由多个局部空间编码单元和注意力池化单元叠加形成的扩展残差模块,来进一步增强每个点的全局特征,避免关键点信息丢失。实验结果表明,该检测算法在保留PointRCNN网络对3D目标的检测优势的同时,相比PointRCNN检测速度提升近两倍,达到16 f/s的推理速度。 展开更多
关键词 深度学习 3d目标检测 点云 随机采样 局部特征聚合 注意力机制 自动驾驶
在线阅读 下载PDF
基于多尺度特征融合和边缘增强的多传感器融合3D目标检测算法
5
作者 刘建国 陈文 +5 位作者 赵奕凡 周琪 颜伏伍 尹智帅 郑灏 吴友华 《重庆大学学报》 北大核心 2025年第8期78-85,共8页
基于BEV(bird’s eye view)多传感器融合的自动驾驶感知算法近年来取得重大进展,持续促进自动驾驶的发展。在多传感器融合感知算法研究中,多视角图像向BEV视角的转换和多模态特征融合一直是BEV感知算法的重点和难点。笔者提出MSEPE-CRN(... 基于BEV(bird’s eye view)多传感器融合的自动驾驶感知算法近年来取得重大进展,持续促进自动驾驶的发展。在多传感器融合感知算法研究中,多视角图像向BEV视角的转换和多模态特征融合一直是BEV感知算法的重点和难点。笔者提出MSEPE-CRN(multi-scale feature fusion and edge and point enhancement-camera radar net),一种用于3D目标检测的相机与毫米波雷达融合感知算法,利用边缘特征和点云提高深度预测的精度,实现多视角图像向BEV特征的精确转换。同时,引入多尺度可变形大核注意力机制进行模态融合,解决因不同传感器特征差异过大导致的错位。在nuScenes开源数据集上的实验结果表明,与基准网络相比,mAP提升2.17%、NDS提升1.93%、mATE提升2.58%、mAOE提升8.08%、mAVE提升2.13%,该算法可有效提高车辆对路面上运动障碍物的感知能力,具有实用价值。 展开更多
关键词 3d目标检测 Bird’s eye view 多模态融合 深度预测
在线阅读 下载PDF
BM3D-YOLOv8-s:前视声呐图像目标检测算法
6
作者 陈美龙 赵新华 叶秀芬 《仪器仪表学报》 北大核心 2025年第2期234-246,共13页
前视声呐作为海洋探测的重要传感器之一,能够远距离探测水下目标,被广泛应用于目标检测和跟踪领域中。然而,声呐数据采集时受海洋环境噪声影响,噪声分布不均匀,使得声呐图像的目标探测精度低。采用传统卷积神经网络对前视声呐目标进行... 前视声呐作为海洋探测的重要传感器之一,能够远距离探测水下目标,被广泛应用于目标检测和跟踪领域中。然而,声呐数据采集时受海洋环境噪声影响,噪声分布不均匀,使得声呐图像的目标探测精度低。采用传统卷积神经网络对前视声呐目标进行跟踪时,因为声呐图像序列帧率较低、目标特征不清晰,容易出现目标丢失问题。针对前视声呐图像噪声污染严重的问题,结合前视声呐图像的特点,提出了一种改进的BM3D算法,减少3D转换处理的计算量,在基础估计的相似块匹配距离计算过程中,采用曼哈顿距离替代欧氏距离,更好地处理声呐图像中不同类型和强度的噪声;针对目标丢失问题,提出了基于YOLOv8-s改进网络的前视声呐图像目标检测算法,包括基于ConvNeXt的C2N改进算法、添加浅特征检测头和归一化Wasserstein距离(NWD)损失函数的改进。进行了声呐图像数据采集,并进行了实验验证。实验结果表明,改进后模型的准确率为87.2%,mAP0.5为85.4%。与改进前的YOLOv8-s模型相比,虽然模型大小只增加了4.6 MB,但是精度增加了5.1个百分点,mAP@0.5增加了4个百分点,对比其他检测模型实验结果,改进后的YOLOv8-s能够有效提升声呐图像的目标检测精度。 展开更多
关键词 前视声呐 噪声 BM3d 目标检测 YOLOv8-s
在线阅读 下载PDF
融合多尺度特征和自适应NMS的3D目标检测
7
作者 张李辉 刘紫燕 《电子测量技术》 北大核心 2025年第4期191-198,共8页
3D目标检测是自动驾驶感知系统的关键技术之一,能准确检测驾驶环境的状态从而保证行车安全。针对自动驾驶场景中行人和骑行者等小目标的3D检测精度较低的问题,提出一种基于多尺度特征和自适应非极大值抑制的3D目标检测算法。首先,设计... 3D目标检测是自动驾驶感知系统的关键技术之一,能准确检测驾驶环境的状态从而保证行车安全。针对自动驾驶场景中行人和骑行者等小目标的3D检测精度较低的问题,提出一种基于多尺度特征和自适应非极大值抑制的3D目标检测算法。首先,设计多尺度特征提取器,以获取大、中、小尺度的特征。其次,设计多尺度检测头以生成不同尺寸目标的候选框,从而补充小目标候选框。为了平衡多尺度候选框的数量,设计一种基于ANMS的候选框筛选算法,提高了对不同尺寸目标的检测精度。在KITTI数据集上的结果表明,改进算法在确保汽车类目标检测精度的同时,对行人和骑行者的检测精度达到62.57%和73.30%,比基线算法高2.04%和1.33%,验证了改进算法在小目标检测方面具有较好的3D检测性能。 展开更多
关键词 3d目标检测 多尺度特征 自适应非极大值抑制
在线阅读 下载PDF
一种基于YOLOv7的3D目标检测算法
8
作者 周启迪 李伟 +3 位作者 宋宇萍 唐超 刘青 邹伟林 《南京理工大学学报》 北大核心 2025年第3期374-380,共7页
目前基于雷达点云的3D目标检测算法在准确度上能达到令人满意的效果,但是速度慢,很难达到自动驾驶场景下对于实时性的要求。该文在Complex-YOLO基础上进行改进,将点云数据编码投影到鸟瞰图上后,使用YOLOv7算法进行检测并通过施加注意力... 目前基于雷达点云的3D目标检测算法在准确度上能达到令人满意的效果,但是速度慢,很难达到自动驾驶场景下对于实时性的要求。该文在Complex-YOLO基础上进行改进,将点云数据编码投影到鸟瞰图上后,使用YOLOv7算法进行检测并通过施加注意力机制对不同通道的权重进行重新分配,再利用完全交并比(CIoU)损失改进模型损失函数。在KITTI数据集上的实验表明,基于YOLOv7的3D目标检测算法检测速度可以达到70.4FPS,并且在简单和中等难度的样本检测中能获得不错的性能。 展开更多
关键词 深度学习 3d目标检测 YOLOv7 注意力机制 自动驾驶
在线阅读 下载PDF
基于多尺度网络与轴向注意力的3D目标检测算法
9
作者 颜承志 陈颖 +1 位作者 钟凯 高寒 《计算机应用》 北大核心 2025年第8期2537-2545,共9页
在3D目标检测中小目标诸如行人和骑行者的检测精确度较低,这是自动驾驶感知系统中存在的挑战性问题。为了准确估计周围环境的状态从而提高行车安全,对Voxel R-CNN(Voxel Region-based Convolutional Neural Network)算法进行改进,提出... 在3D目标检测中小目标诸如行人和骑行者的检测精确度较低,这是自动驾驶感知系统中存在的挑战性问题。为了准确估计周围环境的状态从而提高行车安全,对Voxel R-CNN(Voxel Region-based Convolutional Neural Network)算法进行改进,提出一种基于多尺度网络与轴向注意力的3D目标检测算法。首先,在主干网络中构建多尺度网络和像素级融合模块(PFM)获取更丰富和精准的特征表示,从而增强算法在复杂场景下的鲁棒性和泛化能力;其次,设计适用于具有3D空间维度特征的轴向注意力,并将它应用于感兴趣区域(RoI)的多尺度池化特征,以在有效捕捉局部和全局特征的同时保留3D空间结构中的重要信息,从而提升算法的目标检测和分类的精度和效率;最后,将一种旋转解耦的交并比(RDIoU)方法纳入回归和分类分支,从而使网络学习更精确的边界框,并解决分类和回归之间的对齐问题。在KITTI公开数据集上的实验结果表明,所提算法对行人和骑行者的平均精度均值(mAP)分别达到了62.25%和79.36%,与基准算法Voxel R-CNN相比分别提高了4.02和3.15个百分点,显示出了改进算法在难感知目标检测上的有效性。 展开更多
关键词 3d目标检测 多尺度网络 特征融合 轴向注意力 损失函数
在线阅读 下载PDF
基于上下文信息增强和深度引导的单目3D目标检测
10
作者 于家艺 吴秦 《浙江大学学报(工学版)》 北大核心 2025年第1期89-99,共11页
为了充分利用单目图像提供的特征信息,提出上下文信息增强和深度引导的单目3D目标检测方法.设计高效的上下文信息增强模块,使用多个大核卷积自适应地增强多尺度目标的上下文信息,利用深度可分离卷积和条形卷积操作有效减少大核卷积的参... 为了充分利用单目图像提供的特征信息,提出上下文信息增强和深度引导的单目3D目标检测方法.设计高效的上下文信息增强模块,使用多个大核卷积自适应地增强多尺度目标的上下文信息,利用深度可分离卷积和条形卷积操作有效减少大核卷积的参数量和计算复杂度.统计分析3D目标框各个属性的预测误差,发现3D目标框的长度和深度属性预测不准确是导致预测框偏差大的主要原因.设计深度误差加权损失函数,在训练过程中进行目标的长度和深度预测监督,提高长度和深度属性的预测精度,进而提升3D预测框的准确性.在KITTI数据集上开展实验,结果表明,所提方法在数据集的多个级别上的平均准确度高于现有的单目3D目标检测方法. 展开更多
关键词 单目3d目标检测 大核卷积 深度可分离卷积 条形卷积 多尺度目标
在线阅读 下载PDF
一种多层多模态融合3D目标检测方法 被引量:6
11
作者 周治国 马文浩 《电子学报》 EI CAS CSCD 北大核心 2024年第3期696-708,共13页
在自动驾驶感知系统中视觉传感器与激光雷达是关键的信息来源,但在目前的3D目标检测任务中大部分纯点云的网络检测能力都优于图像和激光点云融合的网络,现有的研究将其原因总结为图像与雷达信息的视角错位以及异构特征难以匹配,单阶段... 在自动驾驶感知系统中视觉传感器与激光雷达是关键的信息来源,但在目前的3D目标检测任务中大部分纯点云的网络检测能力都优于图像和激光点云融合的网络,现有的研究将其原因总结为图像与雷达信息的视角错位以及异构特征难以匹配,单阶段融合算法难以充分融合二者的特征.为此,本文提出一种新的多层多模态融合的3D目标检测方法:首先,前融合阶段通过在2D检测框形成的锥视区内对点云进行局部顺序的色彩信息(Red Green Blue,RGB)涂抹编码;然后将编码后点云输入融合了自注意力机制上下文感知的通道扩充PointPillars检测网络;后融合阶段将2D候选框与3D候选框在非极大抑制之前编码为两组稀疏张量,利用相机激光雷达对象候选融合网络得出最终的3D目标检测结果.在KITTI数据集上进行的实验表明,本融合检测方法相较于纯点云网络的基线上有了显著的性能提升,平均mAP提高了6.24%. 展开更多
关键词 自动驾驶 多传感器融合 3d目标检测 点云编码 自注意力机制
在线阅读 下载PDF
基于深度与实例分割融合的单目3D目标检测方法 被引量:1
12
作者 孙逊 冯睿锋 陈彦如 《计算机应用》 CSCD 北大核心 2024年第7期2208-2215,共8页
针对单目3D目标检测在视角变化引起的物体大小变化以及物体遮挡等情况下效果不佳的问题,提出一种融合深度信息和实例分割掩码的新型单目3D目标检测方法。首先,通过深度-掩码注意力融合(DMAF)模块,将深度信息与实例分割掩码结合,以提供... 针对单目3D目标检测在视角变化引起的物体大小变化以及物体遮挡等情况下效果不佳的问题,提出一种融合深度信息和实例分割掩码的新型单目3D目标检测方法。首先,通过深度-掩码注意力融合(DMAF)模块,将深度信息与实例分割掩码结合,以提供更准确的物体边界;其次,引入动态卷积,并利用DMAF模块得到的融合特征引导动态卷积核的生成,以处理不同尺度的物体;再次,在损失函数中引入2D-3D边界框一致性损失函数,调整预测的3D边界框与对应的2D检测框高度一致,以提高实例分割和3D目标检测任务的效果;最后,通过消融实验验证该方法的有效性,并在KITTI测试集上对该方法进行验证。实验结果表明,与仅使用深度估计图和实例分割掩码的方法相比,在中等难度下对车辆类别检测的平均精度提高了6.36个百分点,且3D目标检测和鸟瞰图目标检测任务的效果均优于D4LCN(Depth-guided Dynamic-Depthwise-Dilated Local Convolutional Network)、M3D-RPN(Monocular 3D Region Proposal Network)等对比方法。 展开更多
关键词 单目3d目标检测 深度学习 动态卷积 实例分割
在线阅读 下载PDF
隐式3D表征学习的星表障碍物检测方法
13
作者 杨文飞 姜涵 +3 位作者 潘晓扬 李茂登 周晔 张天柱 《深空探测学报(中英文)》 北大核心 2025年第2期172-178,共7页
传统的基于图像的障碍物检测只能定位其在图像平面的二维位置,需再结合双目立体匹配获取深度信息才可确定障碍物的实际空间位置,双目立体匹配具有计算量大且面临复杂环境匹配准确性下降的难题,提出一种基于隐式3D表征学习的星表障碍物... 传统的基于图像的障碍物检测只能定位其在图像平面的二维位置,需再结合双目立体匹配获取深度信息才可确定障碍物的实际空间位置,双目立体匹配具有计算量大且面临复杂环境匹配准确性下降的难题,提出一种基于隐式3D表征学习的星表障碍物检测方法。该方法将每个点潜在的三维坐标编码为图像特征,生成的隐式三维空间特征能有效建立2D图像到3D空间的隐式转换,从而直接预测障碍物的空间位置。并在“勇气号”(Spirit)采集的火星地表图像进行了实验验证,结果表明所提出的方法可有效地识别地外天体表面岩石障碍物的位置和尺寸,检测准确率达到了85.5%。所提方法为星表障碍物的检测提供了新思路,有望为月球/火星探测器自主巡视探测提供技术支撑。 展开更多
关键词 地外星表障碍物检测 3d位置编码 3d目标检测
在线阅读 下载PDF
LiDar点云指导下特征分布趋同与语义关联的3D目标检测 被引量:1
14
作者 郑锦 蒋博韬 +1 位作者 彭微 王森 《电子学报》 EI CAS CSCD 北大核心 2024年第5期1700-1715,共16页
针对现有基于伪点云的3D目标检测算法精度远低于基于真实激光雷达(Light Detection and ranging,LiDar)点云的3D目标检测,本文研究伪点云重构,并提出适合伪点云的3D目标检测网络.考虑到由图像深度转换得到的伪点云稠密且随深度增大逐渐... 针对现有基于伪点云的3D目标检测算法精度远低于基于真实激光雷达(Light Detection and ranging,LiDar)点云的3D目标检测,本文研究伪点云重构,并提出适合伪点云的3D目标检测网络.考虑到由图像深度转换得到的伪点云稠密且随深度增大逐渐稀疏,本文提出深度相关伪点云稀疏化方法,在减少后续计算量的同时保留中远距离更多的有效伪点云,实现伪点云重构.本文提出LiDar点云指导下特征分布趋同与语义关联的3D目标检测网络,在网络训练时引入LiDar点云分支来指导伪点云目标特征的生成,使生成的伪点云特征分布趋同于LiDar点云特征分布,从而降低数据源不一致造成的检测性能损失;针对RPN(Region Proposal Network)网络获取的3D候选框内的伪点云间语义关联不足的问题,设计注意力感知模块,在伪点云特征表示中通过注意力机制嵌入点间的语义关联关系,提升3D目标检测精度.在KITTI 3D目标检测数据集上的实验结果表明:现有的3D目标检测网络采用重构后的伪点云,检测精度提升了2.61%;提出的特征分布趋同与语义关联的3D目标检测网络,将基于伪点云的3D目标检测精度再提升0.57%,相比其他优秀的3D目标检测方法在检测精度上也有提升. 展开更多
关键词 3d目标检测 伪点云 语义关联 分布趋同 注意力感知
在线阅读 下载PDF
多关键点约束与深度估计辅助的单目3D目标检测算法 被引量:1
15
作者 郑锦 王森 +1 位作者 李航 周裕海 《计算机学报》 EI CAS CSCD 北大核心 2024年第12期2803-2818,共16页
当前主流的单目相机3D目标检测网络采用关键点检测范式,存在关键点预测与深度估计不准确的问题,限制了单目3D检测器的性能表现.本文提出一种多关键点约束与深度估计辅助的单目3D目标检测算法Mono-Aux,利用3D检测框的角点投影点、上表面... 当前主流的单目相机3D目标检测网络采用关键点检测范式,存在关键点预测与深度估计不准确的问题,限制了单目3D检测器的性能表现.本文提出一种多关键点约束与深度估计辅助的单目3D目标检测算法Mono-Aux,利用3D检测框的角点投影点、上表面与下表面中心投影点作为3D框中心投影点的补充,通过多关键点约束提升关键点预测精度;提出一种LiDAR-Free解耦深度估计方法,在不引入激光点云数据的同时通过几何关系推导引入额外的深度估计辅助监督信号,提升深度估计的准确性.多关键点约束与深度估计辅助仅在训练阶段使用,推理阶段不引入额外的计算成本.在KITTI3D目标检测验证集和测试集上的结果显示,相较于MonoDLE基线网络,提出的MonoAux算法在目标检测精度上分别提高3.87%和4.64%,与其他SOTA方法相比,本文方法也具有显著的性能优势,甚至优于部分使用额外数据的方法. 展开更多
关键词 3d目标检测 关键点预测 角点投影点 深度估计 激光点云
在线阅读 下载PDF
基于多分支特征融合的车载激光雷达3D目标检测算法 被引量:1
16
作者 金伟正 孙原 李方玉 《实验技术与管理》 CAS 北大核心 2024年第1期37-43,共7页
该文基于多分支特征融合的3D目标检测算法将无序的点云划分为规则的体素,利用体素特征编码模块和卷积神经网络学习体素特征,再将稀疏的3D数据压缩为稠密的二维鸟瞰图,最后通过2D骨干网络的粗糙分支和精细分支对多尺度鸟瞰图特征进行深... 该文基于多分支特征融合的3D目标检测算法将无序的点云划分为规则的体素,利用体素特征编码模块和卷积神经网络学习体素特征,再将稀疏的3D数据压缩为稠密的二维鸟瞰图,最后通过2D骨干网络的粗糙分支和精细分支对多尺度鸟瞰图特征进行深度融合。该文实现了对多尺度特征的语义信息、纹理信息和上下文信息的聚合,得到了更加精确的原始空间位置信息、物体分类、位置回归和朝向预测,在KITTI数据集上取得优异的平均精度,并在保持一定帧率的同时具有较强的稳健性。 展开更多
关键词 激光雷达点云 3d目标检测 感受域 特征融合
在线阅读 下载PDF
基于点云稀疏空间特征聚合激励的单阶段3D目标检测模型 被引量:1
17
作者 鲁斌 孙洋 杨振宇 《计算机辅助设计与图形学学报》 EI CSCD 北大核心 2024年第5期721-733,共13页
针对目前基于点云的3D目标检测中单阶段体素法存在感受野固定、特征尺度单一,导致模型对点云特征学习不够充分、模型检测效果存在瓶颈等问题,提出了一种可端对端训练的基于体素的单阶段3D目标检测模型.首先,利用多尺度稀疏空间特征聚合... 针对目前基于点云的3D目标检测中单阶段体素法存在感受野固定、特征尺度单一,导致模型对点云特征学习不够充分、模型检测效果存在瓶颈等问题,提出了一种可端对端训练的基于体素的单阶段3D目标检测模型.首先,利用多尺度稀疏空间特征聚合模块,聚合点云在不同稀疏空间尺度上的特征,使特征充分保留点云的空间信息;然后,对特征进行分层激励,通过多尺度感受野对特征进行分层学习,强化特征的表达能力,降低噪声信息对检测结果的影响;最后,将特征输入检测头进行候选框的分类和回归.在公开的自动驾驶数据集KITTI上与主流单阶段3D目标检测模型进行了对比实验,包含对3类目标共9个的难度等级目标的检测.所提模型在其中5个等级中的平均准确率有明显提升,尤其对点云稀疏的目标,表现出较好的检测效果.实验结果表明,所提模型能够充分提取点云空间信息并有效地学习点云多尺度特征. 展开更多
关键词 3d目标检测 激光雷达点云 多尺度稀疏空间特征聚合 分层激励
在线阅读 下载PDF
基于NNC-EPNet的多模态融合3D目标检测
18
作者 冯霞 梁宇龙 +1 位作者 卢敏 左海超 《北京交通大学学报》 CSCD 北大核心 2024年第5期78-87,共10页
针对目前多模态融合3D目标检测方法难以有效融合目标对应图像特征的问题,通过引入近邻修正(Nearest Neighbor Correction,NNC)方法减轻目标点云稀疏和非目标点云的影响,提出一种多模态3D目标检测方法NNC-EPNet.首先,设计近邻修正模块NNC... 针对目前多模态融合3D目标检测方法难以有效融合目标对应图像特征的问题,通过引入近邻修正(Nearest Neighbor Correction,NNC)方法减轻目标点云稀疏和非目标点云的影响,提出一种多模态3D目标检测方法NNC-EPNet.首先,设计近邻修正模块NNC,利用增强后的近邻点云特征修正采样点云,减少点云数据中的噪声,增强目标点云特征,从而更好地融合目标图像特征;其次,设计基于Transformer的多模态特征融合编码器(Mutil-Modal Fusion Transformer,MFT),采用交叉注意力机制融合图像特征和点云特征,并且引入点云注意力机制聚合全局上下文信息,以提升特征表达能力;最后,分别在自动驾驶标准数据集KITTI和Waymo上进行对比实验.实验结果表明:NNC-EPNet方法在KITTI数据集上的平均精度均值达到84.47%,与基线算法相比,在容易、中等和困难3种难度场景下的检测精度分别提高了2.00%、3.25%和5.68%;在Waymo数据集上的加权平均精度达到74.48%,与基线算法相比,提升了2.49%.研究结果证明了设计的两个模块NNC和MFT能够有效提升3D目标检测性能. 展开更多
关键词 3d目标检测 多模态 特征融合 点云修正 注意力机制
在线阅读 下载PDF
基于Contextual Transformer的自动驾驶单目3D目标检测
19
作者 厍向阳 颜唯佳 董立红 《计算机工程与应用》 CSCD 北大核心 2024年第19期178-189,共12页
针对当前单目3D目标检测中存在的漏检和多尺度目标检测效果不佳的问题,提出了一种基于Contextual Transformer的自动驾驶单目3D目标检测算法(CM-RTM3D)。在ResNet-50网络中引入Contextual Transformer(CoT),构建ResNet-Transformer架构... 针对当前单目3D目标检测中存在的漏检和多尺度目标检测效果不佳的问题,提出了一种基于Contextual Transformer的自动驾驶单目3D目标检测算法(CM-RTM3D)。在ResNet-50网络中引入Contextual Transformer(CoT),构建ResNet-Transformer架构以提取特征。设计多尺度空间感知模块(MSP),通过尺度空间响应操作改善浅层特征的丢失情况,嵌入沿水平和竖直两个空间方向的坐标注意力机制(CA),使用softmax函数生成各尺度的重要性软权重。在偏移损失中采用Huber损失函数代替L1损失函数。实验结果表明:在KITTI自动驾驶数据集上,相较于RTM3D算法,该算法在简单、中等、困难三个难度级别下,AP3D分别提升了4.84、3.82、5.36个百分点,APBEV分别提升了4.75、6.26、3.56个百分点。 展开更多
关键词 自动驾驶 单目3d目标检测 Contextual Transformer 多尺度感知 坐标注意力机制
在线阅读 下载PDF
自动驾驶中基于深度学习的3D目标检测方法综述 被引量:2
20
作者 梁振明 黄影平 +1 位作者 宋卓恒 丁建华 《上海理工大学学报》 CAS CSCD 北大核心 2024年第2期103-119,共17页
随着激光雷达传感器和深度学习技术的快速发展,针对自动驾驶3D目标检测算法的研究呈现爆发式增长。为了探究3D目标检测技术的发展和演变,对该领域中基于深度学习的3D检测算法进行了综述。根据车载传感器的不同,将当前基于深度学习的自... 随着激光雷达传感器和深度学习技术的快速发展,针对自动驾驶3D目标检测算法的研究呈现爆发式增长。为了探究3D目标检测技术的发展和演变,对该领域中基于深度学习的3D检测算法进行了综述。根据车载传感器的不同,将当前基于深度学习的自动驾驶3D目标检测算法分为基于相机RGB图像、基于激光雷达点云、基于RGB图像–激光雷达点云融合的3D目标检测3种类型。在此基础上,分析了各类算法的技术原理及其发展历程,并根据平均检测精度(mAP)指标,对比了它们的性能差异与模型优缺点。最后,总结和展望了当前自动驾驶3D目标检测中仍然面临的技术挑战及未来发展趋势。 展开更多
关键词 3d目标检测 深度学习 自动驾驶 RGB图像 激光雷达点云 多传感器融合
在线阅读 下载PDF
上一页 1 2 5 下一页 到第
使用帮助 返回顶部