现有大多数视觉同步定位与地图构建(Simultaneous Localization and Mapping, SLAM)方法大部分基于静态环境假设,导致其在动态环境中的定位精度显著下降。为解决这一问题,本文提出一种结合目标检测和光流方法的对象级动态SLAM方法。该...现有大多数视觉同步定位与地图构建(Simultaneous Localization and Mapping, SLAM)方法大部分基于静态环境假设,导致其在动态环境中的定位精度显著下降。为解决这一问题,本文提出一种结合目标检测和光流方法的对象级动态SLAM方法。该方法使用目标检测获取对象信息,结合光流和对象重投影技术来识别对象的动静属性,并剔除动态对象上的特征点。随后,寻找检测对象和地图中对象的最佳匹配关系。然后,在关键帧中优化静态对象,同时提出一种动态二次曲面优化策略,用于在对象地图中优化动态二次曲面模型,并追踪动态对象的运动轨迹。最后,重建稠密静态背景。在Bonn和TUM数据集上的实验表明,本文方法的绝对位姿精度提升约44.3%,相对位姿精度提升约19.0%。实验结果表明,本文方法在动态场景中能够实现更精确、更稳健的定位。为进一步验证系统的在线性能,本文还在真实动态场景中对该系统进行了测试,并达到了预期的结果。展开更多
文摘现有大多数视觉同步定位与地图构建(Simultaneous Localization and Mapping, SLAM)方法大部分基于静态环境假设,导致其在动态环境中的定位精度显著下降。为解决这一问题,本文提出一种结合目标检测和光流方法的对象级动态SLAM方法。该方法使用目标检测获取对象信息,结合光流和对象重投影技术来识别对象的动静属性,并剔除动态对象上的特征点。随后,寻找检测对象和地图中对象的最佳匹配关系。然后,在关键帧中优化静态对象,同时提出一种动态二次曲面优化策略,用于在对象地图中优化动态二次曲面模型,并追踪动态对象的运动轨迹。最后,重建稠密静态背景。在Bonn和TUM数据集上的实验表明,本文方法的绝对位姿精度提升约44.3%,相对位姿精度提升约19.0%。实验结果表明,本文方法在动态场景中能够实现更精确、更稳健的定位。为进一步验证系统的在线性能,本文还在真实动态场景中对该系统进行了测试,并达到了预期的结果。