-
题名基于多视角RGB-D图像帧数据融合的室内场景理解
被引量:10
- 1
-
-
作者
李祥攀
张彪
孙凤池
刘杰
-
机构
南开大学计算机学院
南开大学软件学院
南开大学人工智能学院
-
出处
《计算机研究与发展》
EI
CSCD
北大核心
2020年第6期1218-1226,共9页
-
基金
国家自然科学基金项目(61873327)。
-
文摘
对于智能机器人来说,正确地理解环境是一项非常重要且充满挑战性的能力,从而成为机器人学领域一个关键问题.随着服务机器人进入家庭成为趋势,让机器人能够依靠自身搭载的传感器和场景理解算法,以自主、可靠的方式感知并理解其所处的环境,识别环境中的各类物体及其相互关系,并建立环境模型,成为自主完成任务和实现人机器人智能交互的前提.在规模较大的室内空间中,由于机器人常用的RGB-D(RGB depth)视觉传感器(同时获取彩色图像和深度信息)视野有限,使之难以直接获取包含整个区域的单帧图像,但机器人能够运动到不同位置,采集多种视角的图像数据,这些数据总体上能够覆盖整个场景.在此背景下,提出了基于多视角RGB-D图像帧信息融合的室内场景理解算法,在单帧RGB-D图像上进行物体检测和物体关系提取,在多帧RGB-D图像上进行物体实例检测,同时构建对应整个场景的物体关系拓扑图模型.通过对RGB-D图像帧进行划分,提取图像单元的颜色直方图特征,并提出基于最长公共子序列的跨帧物体实例检测方法,确定多帧图像之间的物体对应关联,解决了RGB-D摄像机视角变化影响图像帧融合的问题.最后,在NYUv2(NYU depth dataset v2)数据集上验证了本文算法的有效性.
-
关键词
物体检测
物体实例检测
RGB-D图像
物体关系拓扑图
场景理解
-
Keywords
object detection
object instance detection
RGB-D image
object-relation topological map
scene understanding
-
分类号
TP391.41
[自动化与计算机技术—计算机应用技术]
-