期刊文献+
共找到12篇文章
< 1 >
每页显示 20 50 100
基于改进实例分割的室内动态视觉SLAM方法
1
作者 梁荣光 袁杰 +1 位作者 赵瑛瑛 曹学伟 《计算机工程与科学》 北大核心 2025年第3期504-512,共9页
针对视觉SLAM在动态场景中存在数据关联误匹配以及实例分割物体存在误检的问题,提出一种基于改进实例分割的室内动态点特征检测的方法。首先,改进YOLOv7-seg算法,设计了双梯度路径聚合网络D-ELAN和空洞注意力机制DwCBAM,获得当前图像帧... 针对视觉SLAM在动态场景中存在数据关联误匹配以及实例分割物体存在误检的问题,提出一种基于改进实例分割的室内动态点特征检测的方法。首先,改进YOLOv7-seg算法,设计了双梯度路径聚合网络D-ELAN和空洞注意力机制DwCBAM,获得当前图像帧中物体准确的轮廓信息。其次,判断动态物体后,从SLAM前端图像帧中剔除动态点特征。最后,利用静态点来构建误差优化模型。实验结果表明:改进后算法相比YOLOv7-seg的mAP平均增加了2.3%。在TUM数据集上,该方法的SLAM绝对轨迹误差相比ORB-SLAM2平均减少95.91%。 展开更多
关键词 视觉SLAM 实例分割 动态剔除 位姿估计
在线阅读 下载PDF
基于改进YOLOv5s的动态视觉SLAM算法
2
作者 蒋畅江 刘朋 舒鹏 《北京航空航天大学学报》 北大核心 2025年第3期763-771,共9页
针对室内动态场景中存在的动态目标会降低同步定位与地图构建(SLAM)系统的鲁棒性和相机定位精度问题,提出了一种基于目标检测网络的动态视觉SLAM算法。选择YOLOv5系列中深度和特征图宽度最小的YOLOv5s作为目标检测网络,并将其主干网络... 针对室内动态场景中存在的动态目标会降低同步定位与地图构建(SLAM)系统的鲁棒性和相机定位精度问题,提出了一种基于目标检测网络的动态视觉SLAM算法。选择YOLOv5系列中深度和特征图宽度最小的YOLOv5s作为目标检测网络,并将其主干网络替换为PPLCNet轻量级网络,在VOC2007+VOC2012数据集训练后,由实验结果可知,PP-LCNet-YOLOv5s模型较YOLOv5s模型网络参数量减少了41.89%,运行速度加快了39.13%。在视觉SLAM系统的跟踪线程中引入由改进的目标检测网络和稀疏光流法结合的并行线程,用于剔除动态特征点,仅利用静态特征点进行特征匹配和相机位姿估计。实验结果表明,所提算法在动态场景下的相机定位精度较ORB-SLAM3提升了92.38%。 展开更多
关键词 同步定位与地图构建 目标检测 动态特征点剔除 定位精度 光流法
在线阅读 下载PDF
基于视觉理论的动态点云剔除算法
3
作者 陈跃龙 许仁波 +2 位作者 董杰 蒋林 周和文 《农业装备与车辆工程》 2024年第9期102-107,115,共7页
针对动态场景下构建的点云地图中包含大量动态目标的错误点云问题,提出一种基于视觉理论将三维点云转换视觉图像的动态点云剔除算法。通过对当前帧和包含动态点云的噪声地图做点云的地面分割和高度分割,将点云的深度信息转换成视觉可用... 针对动态场景下构建的点云地图中包含大量动态目标的错误点云问题,提出一种基于视觉理论将三维点云转换视觉图像的动态点云剔除算法。通过对当前帧和包含动态点云的噪声地图做点云的地面分割和高度分割,将点云的深度信息转换成视觉可用的图像信息,利用视觉理论中的背景差分法对当前帧和噪声地图进行深度图像对比,筛选出初始动态点云并计算动态分数;根据动态分数对初始动态点云进行自适应最近邻搜索以剔除动态目标。实验结果表明,所提算法的动态点云剔除率可达94%以上,整体得分为96.34,能有效剔除场景中的动态目标。 展开更多
关键词 视觉理论 动态点云剔除 深度图像 背景差分法 自适应最近邻搜索
在线阅读 下载PDF
动态场景中基于神经网络特征提取的SLAM
4
作者 孙润 刘百川 +2 位作者 闫伊琳 徐卫星 和望利 《控制工程》 北大核心 2025年第7期1233-1240,共8页
传统同时定位与地图构建(simultaneous localization and mapping,SLAM)在弱纹理场景中的鲁棒性差,在动态场景中受动态物体干扰。针对这些问题,提出了动态视觉SLAM。首先,在视觉前端使用几何对应网络2(geometric correspondence network... 传统同时定位与地图构建(simultaneous localization and mapping,SLAM)在弱纹理场景中的鲁棒性差,在动态场景中受动态物体干扰。针对这些问题,提出了动态视觉SLAM。首先,在视觉前端使用几何对应网络2(geometric correspondence network version 2,GCNv2)提取特征点并生成二值描述子,提高SLAM在弱纹理场景中的鲁棒性;然后,引入目标检测网络对动态物体进行检测,获取当前帧的语义信息,结合多视图几何剔除动态物体,去除动态物体对SLAM的干扰。实验结果表明:在弱纹理场景中,所提方法可以持续提取足够数量的高质量特征点;在存在动态物体干扰的场景中,所提方法的绝对位姿误差和相对位姿误差较小;在静态场景中,所提方法的性能仍然较优。 展开更多
关键词 SLAM 视觉里程计 弱纹理场景 目标检测 动态特征点剔除 多视图几何
在线阅读 下载PDF
面向动态环境的巡检机器人轻量级语义视觉SLAM框架
5
作者 余浩扬 李艳生 +1 位作者 肖凌励 周继源 《电子与信息学报》 北大核心 2025年第10期3979-3992,共14页
为提升巡检机器人在城市动态环境中的定位精度与鲁棒性,该文提出一种基于第3代定向快速与旋转简要同步定位与建图系统(ORB-SLAM3)的轻量级语义视觉同步定位与建图(SLAM)框架。该框架通过紧耦合所提出的轻量级语义分割模型(DHSR-YOLOSeg... 为提升巡检机器人在城市动态环境中的定位精度与鲁棒性,该文提出一种基于第3代定向快速与旋转简要同步定位与建图系统(ORB-SLAM3)的轻量级语义视觉同步定位与建图(SLAM)框架。该框架通过紧耦合所提出的轻量级语义分割模型(DHSR-YOLOSeg)输出的语义信息,实现动态特征点的精准剔除与稳健跟踪,从而有效缓解动态目标干扰带来的特征漂移与建图误差累积问题。DHSR-YOLOSeg基于YOLO第11代轻量级分割模型(YOLOv11n-seg)架构,融合动态卷积模块(C3k2_DynamicConv)、轻量特征融合模块(DyCANet)与复用共享卷积分割(RSCS)头,在分割精度小幅提升的同时,有效降低了计算资源开销,整体展现出良好的轻量化与高效性。在COCO数据集上,相较于基础模型,DHSR-YOLOSeg实现参数量减少13.8%、109次浮点运算(GFLOPs)降低23.1%、平均精度指标(mAP50)提升约2%;在KITTI数据集上,DHSR-YOLOSeg相比其他主流分割模型及YOLO系列不同版本,在保持较高分割精度的同时,进一步压缩了模型参数量与计算开销,系统整体帧率得到有效提升。同时,所提语义SLAM系统通过动态特征点剔除有效提升了定位精度,平均轨迹误差相比ORB-SLAM3降低8.78%;在此基础上,系统平均每帧处理时间较主流方法如DS-SLAM和DynaSLAM分别降低约18.55%与41.83%。研究结果表明,该语义视觉SLAM框架兼具实时性与部署效率,显著提升了动态环境下的定位稳定性与感知能力。 展开更多
关键词 巡检机器人 语义分割 视觉同步定位与建图 动态特征点剔除
在线阅读 下载PDF
面向昏暗动态场景下的VSLAM算法
6
作者 孙骞 许自强 +2 位作者 刘瓦 邹珺婧 陈浩 《实验技术与管理》 CAS 北大核心 2024年第11期16-25,共10页
视觉同步定位与建图(VSLAM)在地下探索机器人和搜救机器人等领域中具有广泛的应用。然而,机器人在完成相关任务时,常常需要处在昏暗动态场景中,此时传统VSLAM算法精度较低,而现有的面向昏暗动态场景的VSLAM算法则往往难以满足实时性的... 视觉同步定位与建图(VSLAM)在地下探索机器人和搜救机器人等领域中具有广泛的应用。然而,机器人在完成相关任务时,常常需要处在昏暗动态场景中,此时传统VSLAM算法精度较低,而现有的面向昏暗动态场景的VSLAM算法则往往难以满足实时性的要求。为解决这一问题,该文提出了一种面向昏暗动态场景的实时VSLAM算法。该算法基于ORB-SLAM3架构,首先利用基于Retinex理论的图像增强技术对输入图像进行预处理,从而提升算法在低光照条件下的稳定性;然后,结合YOLOv5物体检测技术,通过高斯分布分析和LK光流技术,对YOLO检测框内的动态特征点进行精准过滤,保留框内的静态特征点。在TUM、Bonn以及实测数据集上进行了验证。实验结果表明,相比ORB-SLAM3,该算法在高动态环境中的绝对轨迹误差(ATE)提升了至少86.93%,在低动态环境中也提升了27.61%。与同类型的VSLAM算法相比,该文所提算法在保持较高定位精度的同时,处理速度更快,实现了精确性和实时性的良好平衡。 展开更多
关键词 视觉同步定位与建图 动态剔除 LK光流 高斯分布 图像处理
在线阅读 下载PDF
动态特征剔除的无人系统视觉/惯性导航方法 被引量:4
7
作者 多靖赟 赵龙 +1 位作者 赵毅琳 李俊韬 《电子测量与仪器学报》 CSCD 北大核心 2023年第12期126-135,共10页
为降低动态环境对视觉/惯性导航系统定位精度与稳定性的影响,提出了一种动态特征剔除的视觉/惯性导航方法。该方法在视觉/惯性导航系统VINS框架基础上,以结构相似度作为成本量生成端到端网络,检测环境中的动态区域;通过特征光流矢量对... 为降低动态环境对视觉/惯性导航系统定位精度与稳定性的影响,提出了一种动态特征剔除的视觉/惯性导航方法。该方法在视觉/惯性导航系统VINS框架基础上,以结构相似度作为成本量生成端到端网络,检测环境中的动态区域;通过特征光流矢量对已检测到的动态区域进行对称光流筛选,剔除该区域内的动态特征;融合视觉和惯性测量构造代价函数,通过非线性优化方法有效估计无人系统状态。实验结果表明,动态特征剔除后的视觉/惯性导航方法具有良好的定位精度和稳定性,其位置均方根误差在EuRoC公开数据集和实际场景采集数据上分别为0.081和1.982 m,仅为VINS的35.5%和24.9%。该方法可在复杂应用环境中提供精确的位置信息,且在低成本无人系统导航定位方面具有良好的实用价值。 展开更多
关键词 视觉/惯性导航 动态特征剔除 结构相似度 端到端网络 对称光流
在线阅读 下载PDF
有效点较少的动态场景下单目视觉SLAM算法
8
作者 孙平 闫冬 《沈阳工业大学学报》 CAS 北大核心 2022年第4期431-437,共7页
为了解决有效点较少的动态复杂场景下视觉SLAM准确定位问题,提出了一种基于自适应RANSAC动态特征点剔除的单目视觉SLAM算法.通过ARANSAC算法估计图像间的透视变换矩阵,并扭曲上一帧获得一个估计图像,使上一帧中的点转换到当前帧的坐标系... 为了解决有效点较少的动态复杂场景下视觉SLAM准确定位问题,提出了一种基于自适应RANSAC动态特征点剔除的单目视觉SLAM算法.通过ARANSAC算法估计图像间的透视变换矩阵,并扭曲上一帧获得一个估计图像,使上一帧中的点转换到当前帧的坐标系下.通过计算特征点在估计图像和当前帧的光流值,区分并剔除ORB-SLAM2中的动态特征点,从而消除动态物体对SLAM定位性能的影响.利用TUM数据集的动态序列对本文算法进行仿真,并与ORB-SLAM2算法进行对比.结果表明,视觉SLAM算法绝对轨迹误差的标准偏差降低84.00%~96.11%,平移和旋转漂移的标准偏差最佳效果分别降低94.00%和96.44%,明显减少了视觉SLAM算法位姿估计的误差.本文算法能够在有效点较少的动态场景下,消除动态物体对视觉SLAM定位性能的影响,提高定位精度. 展开更多
关键词 单目 视觉SLAM 动态场景 ARANSAC算法 光流 透视变换 动态特征点剔除
在线阅读 下载PDF
室内动态环境下基于深度学习的视觉里程计 被引量:5
9
作者 李博 段中兴 《小型微型计算机系统》 CSCD 北大核心 2023年第1期49-55,共7页
传统的视觉同步定位与建图(Visual Simultaneous Localization and Mapping,VSLAM)算法大多基于外部环境为静态的假设,在动态环境下受到动态物体的干扰很容易出现相机位姿估计不准确,稳定性差等情况.为解决这一问题,提出了一种面向室内... 传统的视觉同步定位与建图(Visual Simultaneous Localization and Mapping,VSLAM)算法大多基于外部环境为静态的假设,在动态环境下受到动态物体的干扰很容易出现相机位姿估计不准确,稳定性差等情况.为解决这一问题,提出了一种面向室内动态场景的视觉里程计,该算法在ORB-SLAM 2的视觉里程计基础上结合YOLOv4目标检测网络,在提取图像特征点的同时进行目标检测获取图像中的语义信息,根据语义信息确定动态物体的范围.此外,提出一种动态特征点剔除策略,先根据目标检测结果剔除动态目标上的特征点,接着分别利用对极几何约束与光流约束对图像中可能残余的动态点彻底过滤,后续依靠剩余的静态点完成对相机位姿的精确求解.经过在TUM数据集上实验证明,相比ORB-SLAM 2,在高动态场景下改进后的系统绝对轨迹误差和相对位姿误差平均减小了90%以上,定位精度大幅度提高,并且系统跟踪线程处理每帧图像平均所用时间在85ms左右,能够实时运行. 展开更多
关键词 视觉SLAM 视觉里程计 室内动态环境 YOLOv4 动态特征点剔除
在线阅读 下载PDF
基于LK光流与实例分割的联合动态一致性vSLAM算法 被引量:1
10
作者 刘强 袁杰 匡本发 《现代电子技术》 2023年第19期34-40,共7页
随着机器人的工作环境趋向于非结构环境变化,对视觉SLAM技术提出了更高的要求,既需要视觉SLAM能够在静态环境中对机器人精确地估计相机位姿,又需要视觉SLAM能够适应动态环境。针对上述问题,提出一种光流与实例分割相结合的视觉SLAM算法... 随着机器人的工作环境趋向于非结构环境变化,对视觉SLAM技术提出了更高的要求,既需要视觉SLAM能够在静态环境中对机器人精确地估计相机位姿,又需要视觉SLAM能够适应动态环境。针对上述问题,提出一种光流与实例分割相结合的视觉SLAM算法。首先对当前帧图像进行特征提取与实例分割,在特征提取完成后对其进行稀疏光流;然后根据实例分割结果与先验语义信息对物体赋予运动初值,并计算非动态物体的光流位移增量、动态物体光流位移增量和潜在动态物体光流位移增量;其次利用光流信息与实例分割掩码进行联合动态一致性检查,并剔除运动物体上提取的特征点;最后利用静态特征估计机器人位姿。用TUM数据集测试该算法,结果显示该算法在低动态环境下绝对轨迹误差较ORB-SLAM2能够减少52.04%,在高动态环境下绝对轨迹误差较ORB-SLAM2能够减少98.11%。在真实环境下对该算法进行评估,实验结果表明,该算法对物体的运动状态有精准的判定,这有助于提高算法的定位精度。 展开更多
关键词 视觉SLAM YOLOv7 深度学习 LK光流 动态特征剔除 非结构环境 机器视觉 语义信息
在线阅读 下载PDF
基于信息融合的智能推料机器人设计与试验 被引量:4
11
作者 张勤 任海林 胡嘉辉 《农业机械学报》 EI CAS CSCD 北大核心 2023年第6期78-84,93,共8页
饲料的定期推送是奶牛饲喂过程中的重要环节,针对现有推料机器人功能单一,无法满足奶牛饲喂需求的问题,开发了奶牛智能推料机器人。构建奶牛、饲料和牛栏参照物识别与分割的YOLACT模型,融合掩膜图像、深度图与ORB-SLAM3定位信息,实现觅... 饲料的定期推送是奶牛饲喂过程中的重要环节,针对现有推料机器人功能单一,无法满足奶牛饲喂需求的问题,开发了奶牛智能推料机器人。构建奶牛、饲料和牛栏参照物识别与分割的YOLACT模型,融合掩膜图像、深度图与ORB-SLAM3定位信息,实现觅食奶牛的快速定位与机器人导航信息的提取;基于信息融合提出智能推料算法,根据觅食奶牛的定位信息、投料时间信息、机器人的导航信息,自动选择工作模式,控制机器人沿着预定的轨迹,实现推料、集料送料、清料等多模式推料功能,满足奶牛个性化自由采食需求,提升饲料利用率。试验结果表明:觅食奶牛的位置识别定位精度为±0.1 m,奶牛识别率为100%,机器人导航精度为±0.8 cm,智能推料准确率为100%,算法运行速率为12 f/s,满足复杂环境下机器人智能推料的要求。 展开更多
关键词 奶牛 智能推料 机器人 实例分割 动态物体剔除 视觉SLAM
在线阅读 下载PDF
融合空洞卷积神经网络的语义SLAM研究 被引量:1
12
作者 潘琢金 戴旭文 +1 位作者 魏鑫磊 王传云 《现代电子技术》 北大核心 2020年第22期152-156,共5页
为了解决传统视觉SLAM算法受动态环境因素影响较大、对设备的算力要求高的问题,该文提出一种融合ORB-SLAM2、语义标签以及全局性稠密光流法的视觉SLAM算法。该方法采用空洞卷积神经网络的语义分割模块为双目图像添加语义标签,识别物体... 为了解决传统视觉SLAM算法受动态环境因素影响较大、对设备的算力要求高的问题,该文提出一种融合ORB-SLAM2、语义标签以及全局性稠密光流法的视觉SLAM算法。该方法采用空洞卷积神经网络的语义分割模块为双目图像添加语义标签,识别物体类别。再结合相邻帧间位置信息对图像的动态点进行剔除。最后使用Octo-map优化定位与建图,实现动态环境下地图的建立与实时更新。实验结果证明,该文提出的算法在动态环境下的特征点提取速度和质量相较传统视觉SLAM算法有一定提高。 展开更多
关键词 语义SLAM 空洞卷积神经网络 语义标签 动态剔除 地图构建 结果分析
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部