期刊文献+
共找到5篇文章
< 1 >
每页显示 20 50 100
基于多尺度特征融合和边缘增强的多传感器融合3D目标检测算法
1
作者 刘建国 陈文 +5 位作者 赵奕凡 周琪 颜伏伍 尹智帅 郑灏 吴友华 《重庆大学学报》 北大核心 2025年第8期78-85,共8页
基于BEV(bird’s eye view)多传感器融合的自动驾驶感知算法近年来取得重大进展,持续促进自动驾驶的发展。在多传感器融合感知算法研究中,多视角图像向BEV视角的转换和多模态特征融合一直是BEV感知算法的重点和难点。笔者提出MSEPE-CRN(... 基于BEV(bird’s eye view)多传感器融合的自动驾驶感知算法近年来取得重大进展,持续促进自动驾驶的发展。在多传感器融合感知算法研究中,多视角图像向BEV视角的转换和多模态特征融合一直是BEV感知算法的重点和难点。笔者提出MSEPE-CRN(multi-scale feature fusion and edge and point enhancement-camera radar net),一种用于3D目标检测的相机与毫米波雷达融合感知算法,利用边缘特征和点云提高深度预测的精度,实现多视角图像向BEV特征的精确转换。同时,引入多尺度可变形大核注意力机制进行模态融合,解决因不同传感器特征差异过大导致的错位。在nuScenes开源数据集上的实验结果表明,与基准网络相比,mAP提升2.17%、NDS提升1.93%、mATE提升2.58%、mAOE提升8.08%、mAVE提升2.13%,该算法可有效提高车辆对路面上运动障碍物的感知能力,具有实用价值。 展开更多
关键词 3D目标检测 birds eye view 多模态融合 深度预测
在线阅读 下载PDF
一种改进的鸟瞰图视角下相机/激光雷达融合感知算法
2
作者 夏若炎 徐晓苏 《仪器仪表学报》 北大核心 2025年第5期170-182,共13页
在自动驾驶感知任务中,通过将不同模态的信息投影到统一的空间表示,实现基于鸟瞰图的相机和激光雷达特征多模态融合已成为主流研究范式。虽然BEVFusion等代表性框架能够实现较高的三维目标检测精度,但其在二维图像特征向BEV空间的视角... 在自动驾驶感知任务中,通过将不同模态的信息投影到统一的空间表示,实现基于鸟瞰图的相机和激光雷达特征多模态融合已成为主流研究范式。虽然BEVFusion等代表性框架能够实现较高的三维目标检测精度,但其在二维图像特征向BEV空间的视角转换过程中依赖深度预测,该模块不仅模型复杂、参数冗余,还存在推理效率低、内存消耗高等问题,对硬件资源提出了较高的要求,限制了模型在边缘设备或资源受限场景中的部署与应用。针对上述问题,在BEVFusion框架基础上,围绕视角转换过程的精度与效率瓶颈展开研究,提出了一种融合相机与激光雷达信息的BEV视觉特征优化算法。该算法利用激光雷达提供的深度信息替代图像深度预测,通过将其嵌入图像特征表达过程,实现对原有视角转换路径的结构性简化,并对BEV空间构建与池化模块进行了精简重构,有效降低了计算复杂度。实验结果表明,在保持三维物体检测精度不变的前提下,优化后方案将关键模块推理时间缩短至原方案的16%,端到端推理速度提升83%,峰值显存占用降低27%,同时显著减轻了对输入图像分辨率的限制,增强了模型对算力资源的适应能力,提升了其在实际部署中的可行性。 展开更多
关键词 激光雷达 相机 融合感知 鸟瞰图 模型优化
在线阅读 下载PDF
基于鸟瞰图融合的多级旋转等变目标检测网络 被引量:1
3
作者 刘宏纬 邵东恒 +3 位作者 杨剑 魏宪 李科 游雄 《计算机工程》 CAS CSCD 北大核心 2024年第11期246-257,共12页
随着自动驾驶系统的发展,针对道路场景下的3D目标检测受到研究人员的广泛关注。然而,大多数基于单一传感器或者多传感器融合的目标检测方法未考虑实际道路场景中车辆旋转,使得捕获的场景同步旋转,从而导致目标检测性能降低。针对这类问... 随着自动驾驶系统的发展,针对道路场景下的3D目标检测受到研究人员的广泛关注。然而,大多数基于单一传感器或者多传感器融合的目标检测方法未考虑实际道路场景中车辆旋转,使得捕获的场景同步旋转,从而导致目标检测性能降低。针对这类问题,提出一种基于多传感器融合的多级全局旋转等变目标检测网络架构,以缓解场景旋转造成的目标检测困难,从而提高目标检测性能。首先,对体素内部进行各点之间距离编码,增强局部点云几何信息,并提取体素的全局旋转等变特征;其次,引入图像的语义信息并提取全局旋转等变特征,进一步提高网络性能;最后,将具有旋转等变性的点云和图像信息在鸟瞰图上进行融合,并嵌入群等变网络提取融合鸟瞰图级全局旋转等变特征。实验结果表明,该网络架构在nuScenes验证集上达到了68.7%的平均精度均值(mAP)和71.7的nuScenes检测分数(NDS),以及平均角度误差均值(mAOE)降低到0.288,相比主流的目标检测方法,其实现了网络架构本身的旋转等变性并在性能上得到了提升,此外,各个组件对于整体网络架构的目标检测性能提升都起到了重要作用。 展开更多
关键词 多传感器融合 体素 鸟瞰图 旋转等变 3D目标检测
在线阅读 下载PDF
基于循环跨视图转换和多状态特征融合的鸟瞰图生成方法 被引量:2
4
作者 刘明杰 何峥言 +2 位作者 陈俊生 刘平 朴昌浩 《仪器仪表学报》 EI CAS CSCD 北大核心 2024年第10期133-142,共10页
针对多数基于多视角透视图的鸟瞰图(BEV)生成算法难以实现对语义不一致多状态关联特征的提取,以及模型性能与复杂度的平衡等问题,提出一种基于轻量级Transformer的BEV生成模型。该模型采用端到端的单阶段训练策略,通过建立交通场景中动... 针对多数基于多视角透视图的鸟瞰图(BEV)生成算法难以实现对语义不一致多状态关联特征的提取,以及模型性能与复杂度的平衡等问题,提出一种基于轻量级Transformer的BEV生成模型。该模型采用端到端的单阶段训练策略,通过建立交通场景中动态车辆和静态道路信息的关联,滤除生成视图中的噪声。基于此,一方面设计面向多尺度特征的Transformer循环跨视图转换模块,通过注意力机制实现对输入的位置编码和表征学习,捕捉特征序列中不同位置的依赖关系,提升BEV特征的鲁棒性;另一方面设计面向语义不一致的多状态BEV特征融合模块,提取静态道路和动态车辆的关联信息,提升生成BEV视图的精度。在NuScenes数据集上进行实验,结果表明,方法在确保低模型复杂度的前提下,达到了先进的BEV视图生成性能。动态车辆和静态道路的语义分割精度分别达到了43.2%和82.0%。 展开更多
关键词 视图转换 轻量化Transformer模型 鸟瞰图 透视图
在线阅读 下载PDF
全景鸟瞰图像中车道线颜色识别方法 被引量:2
5
作者 罗康 韩军 《电子测量技术》 2019年第13期80-85,共6页
车道线颜色是一种特殊的车道属性信息,是驾驶员文明驾驶和安全驾驶决策的重要依据,而现有的研究只是基于视觉的车道线检测,并未对其进行颜色识别,为此提出一种全景鸟瞰图像中车道线颜色识别方法。首先对全景鸟瞰图像中检测到的车道线进... 车道线颜色是一种特殊的车道属性信息,是驾驶员文明驾驶和安全驾驶决策的重要依据,而现有的研究只是基于视觉的车道线检测,并未对其进行颜色识别,为此提出一种全景鸟瞰图像中车道线颜色识别方法。首先对全景鸟瞰图像中检测到的车道线进行兴趣点提取,然后将兴趣点三维RGB像素信息转换为二维信息数据,最后利用mean-shift算法聚类寻找质心,依据不同颜色的二维信息中的分布特征识别车道线颜色。实验结果表明该方法对全景鸟瞰图像中的车道线颜色识别有很好的正确率。 展开更多
关键词 全景图像 鸟瞰图像 车道线 MEAN-sHIFT算法 颜色识别
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部