期刊导航
期刊开放获取
上海教育软件发展有限公..
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
3
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
模糊化多视觉信息融合的视觉跟踪策略
被引量:
2
1
作者
张国亮
谢宗武
+2 位作者
蒋再男
王捷
刘宏
《西安交通大学学报》
EI
CAS
CSCD
北大核心
2009年第8期33-37,共5页
为了提高视觉跟踪系统在空间环境对外界变化的适应能力,提出一种模糊化多视觉信息融合的视觉跟踪策略.该策略综合了多个反映目标特征的视觉信息,通过对选择的每一项子特征集进行模糊化处理,提高了识别的智能化程度.针对运动物体分割阈...
为了提高视觉跟踪系统在空间环境对外界变化的适应能力,提出一种模糊化多视觉信息融合的视觉跟踪策略.该策略综合了多个反映目标特征的视觉信息,通过对选择的每一项子特征集进行模糊化处理,提高了识别的智能化程度.针对运动物体分割阈值受噪声干扰的问题,提出一种结合人口统计与区域生长的区域分割方法,实现了运动区域特征的稳定聚类.相对于传统的局部特征识别方法,这种多特征融合技术适合应用于复杂的动态环境,冗余信息间的互相补充可确保特征在不确定环境中的识别.试验结果表明,该策略能够实现鲁棒的特征提取和跟踪,尤其当出现被跟踪物体部分遮挡以及外界发生光线变化时,视觉跟踪系统仍能够实现稳定、快速的识别.
展开更多
关键词
多
视觉信息融合
空间机器人
视觉
跟踪
在线阅读
下载PDF
职称材料
基于视觉-惯导信息融合的采场支架姿态感知方法
2
作者
邢轲轲
程敬义
+5 位作者
许忠鑫
万志军
薛民体
闫万梓
包阔
易俊杰
《工矿自动化》
北大核心
2025年第3期32-38,共7页
针对目前采场支架姿态感知中惯导方法存在漂移误差大、解算精度低,以及视觉方法存在相机易受粉尘与设备遮挡而位姿识别误差大等问题,提出了一种基于视觉-惯导信息融合的采场支架姿态感知方法。首先将四特征点红外标靶固定于支架底座凸台...
针对目前采场支架姿态感知中惯导方法存在漂移误差大、解算精度低,以及视觉方法存在相机易受粉尘与设备遮挡而位姿识别误差大等问题,提出了一种基于视觉-惯导信息融合的采场支架姿态感知方法。首先将四特征点红外标靶固定于支架底座凸台,将双目相机分别固定于支架顶梁与掩护梁,采用基于Canny-最小二乘法的靶标识别方法和基于四特征点的BA-PnP算法解算顶梁、掩护梁相对底座的俯仰角、横滚角。然后将惯性测量单元固定于液压支架顶梁、掩护梁、底座,通过惯性测量单元中MEMS陀螺仪和加速度计的互补滤波方法解算顶梁、掩护梁、底座在世界坐标系下的俯仰角、横滚角。最后将视觉系统解算的姿态角与惯导解算的姿态角进行扩展卡尔曼滤波多源信息融合,利用视觉信息的低频稳定性抑制惯性测量单元的累计误差,得到精确的采场支架姿态。采用基于视觉、惯导和视觉-惯导信息融合3种支架姿态感知方法进行对比实验,结果表明:①初始静止状态下,3种方法的精度均较高,但随着支架运行循环次数增加,基于视觉、惯导的感知结果逐渐偏离真值。②基于视觉、惯导和视觉-惯导信息融合方法的顶梁相对底座的俯仰角感知均方根误差分别为0.201,0.190,0.081°,掩护梁相对底座的俯仰角感知均方根误差分别为0.340,0.297,0.162°。③基于视觉-惯导信息融合方法解算的液压支架立柱伸缩长度的均方根误差为13.682 mm,满足现场需求。基于视觉-惯导信息融合的采场支架姿态感知方法可为液压支架智能化控制提供更准确的姿态参数。
展开更多
关键词
液压支架姿态感知
视觉
惯导
信息
融合
惯性测量单元
扩展卡尔曼滤波
光束平差-透视点定位姿态估计算法
IMU
在线阅读
下载PDF
职称材料
融合视觉信息的语义导航实体搜索算法
被引量:
1
3
作者
江涛
杨观赐
李杨
《组合机床与自动化加工技术》
北大核心
2022年第2期10-14,19,共6页
为解决家庭服务机器人在实体搜索缺乏语义信息的问题,研究融合视觉信息的语义导航实体搜索算法。首先,提出基于Places205-AlexNet的场景自适应识别算法,以促进机器人对场景标注的自适应性;其次,设计实体在语义地图上的位置映射方法,帮...
为解决家庭服务机器人在实体搜索缺乏语义信息的问题,研究融合视觉信息的语义导航实体搜索算法。首先,提出基于Places205-AlexNet的场景自适应识别算法,以促进机器人对场景标注的自适应性;其次,设计实体在语义地图上的位置映射方法,帮助机器人能以人的生活习惯理解人类居住环境,具备室内物体识别能力;然后,为了获取场景信息和物体语义信息,提出了面向语义导航的实体语义知识库构建方法,使机器人进行实体搜索时能更容易定位到场景;最后,在给出基于面向语义导航的实体语义知识库构建方法的基础上,提出了融合视觉信息的语义导航实体搜索算法。实验数据表明,机器人执行实体搜索的导航准确率均在0.75以上,这证明所提出的算法能够获得较准确的场景信息和实体语义信息。
展开更多
关键词
语义地图
实体搜索
视觉信息融合
语义导航
服务机器人
在线阅读
下载PDF
职称材料
题名
模糊化多视觉信息融合的视觉跟踪策略
被引量:
2
1
作者
张国亮
谢宗武
蒋再男
王捷
刘宏
机构
哈尔滨工业大学机器人技术与系统国家重点实验室
出处
《西安交通大学学报》
EI
CAS
CSCD
北大核心
2009年第8期33-37,共5页
基金
国家高技术研究发展计划资助项目(2006AA04Z225)
教育部长江学者和创新团队发展计划资助项目(IRT0423)
文摘
为了提高视觉跟踪系统在空间环境对外界变化的适应能力,提出一种模糊化多视觉信息融合的视觉跟踪策略.该策略综合了多个反映目标特征的视觉信息,通过对选择的每一项子特征集进行模糊化处理,提高了识别的智能化程度.针对运动物体分割阈值受噪声干扰的问题,提出一种结合人口统计与区域生长的区域分割方法,实现了运动区域特征的稳定聚类.相对于传统的局部特征识别方法,这种多特征融合技术适合应用于复杂的动态环境,冗余信息间的互相补充可确保特征在不确定环境中的识别.试验结果表明,该策略能够实现鲁棒的特征提取和跟踪,尤其当出现被跟踪物体部分遮挡以及外界发生光线变化时,视觉跟踪系统仍能够实现稳定、快速的识别.
关键词
多
视觉信息融合
空间机器人
视觉
跟踪
Keywords
multi visual cue integration
space robot
visual tracking
分类号
TP242.6 [自动化与计算机技术—检测技术与自动化装置]
在线阅读
下载PDF
职称材料
题名
基于视觉-惯导信息融合的采场支架姿态感知方法
2
作者
邢轲轲
程敬义
许忠鑫
万志军
薛民体
闫万梓
包阔
易俊杰
机构
中国矿业大学矿业工程学院
中国矿业大学信息与控制工程学院
出处
《工矿自动化》
北大核心
2025年第3期32-38,共7页
基金
国家自然科学基金青年科学基金资助项目(51604267)
中央高校基本科研业务费专项资金资助项目(2022XSCX21)。
文摘
针对目前采场支架姿态感知中惯导方法存在漂移误差大、解算精度低,以及视觉方法存在相机易受粉尘与设备遮挡而位姿识别误差大等问题,提出了一种基于视觉-惯导信息融合的采场支架姿态感知方法。首先将四特征点红外标靶固定于支架底座凸台,将双目相机分别固定于支架顶梁与掩护梁,采用基于Canny-最小二乘法的靶标识别方法和基于四特征点的BA-PnP算法解算顶梁、掩护梁相对底座的俯仰角、横滚角。然后将惯性测量单元固定于液压支架顶梁、掩护梁、底座,通过惯性测量单元中MEMS陀螺仪和加速度计的互补滤波方法解算顶梁、掩护梁、底座在世界坐标系下的俯仰角、横滚角。最后将视觉系统解算的姿态角与惯导解算的姿态角进行扩展卡尔曼滤波多源信息融合,利用视觉信息的低频稳定性抑制惯性测量单元的累计误差,得到精确的采场支架姿态。采用基于视觉、惯导和视觉-惯导信息融合3种支架姿态感知方法进行对比实验,结果表明:①初始静止状态下,3种方法的精度均较高,但随着支架运行循环次数增加,基于视觉、惯导的感知结果逐渐偏离真值。②基于视觉、惯导和视觉-惯导信息融合方法的顶梁相对底座的俯仰角感知均方根误差分别为0.201,0.190,0.081°,掩护梁相对底座的俯仰角感知均方根误差分别为0.340,0.297,0.162°。③基于视觉-惯导信息融合方法解算的液压支架立柱伸缩长度的均方根误差为13.682 mm,满足现场需求。基于视觉-惯导信息融合的采场支架姿态感知方法可为液压支架智能化控制提供更准确的姿态参数。
关键词
液压支架姿态感知
视觉
惯导
信息
融合
惯性测量单元
扩展卡尔曼滤波
光束平差-透视点定位姿态估计算法
IMU
Keywords
hydraulic support posture perception
visual-inertial information fusion
inertial measurement unit
extended Kalman filter
bundle adjustment-perspective point posture estimation algorithm
IMU
分类号
TD355.4 [矿业工程—矿井建设]
在线阅读
下载PDF
职称材料
题名
融合视觉信息的语义导航实体搜索算法
被引量:
1
3
作者
江涛
杨观赐
李杨
机构
贵州大学现代制造技术教育部重点实验室
出处
《组合机床与自动化加工技术》
北大核心
2022年第2期10-14,19,共6页
基金
国家自然科学基金资助项目(61863005)
贵州省科技计划资助项目(黔科合平台人才[2020]6007
+2 种基金
黔科合平台JXCX[2021]001
黔科合支撑[2019]2814、[2020]4Y056
黔科合支撑[2021]一般439)。
文摘
为解决家庭服务机器人在实体搜索缺乏语义信息的问题,研究融合视觉信息的语义导航实体搜索算法。首先,提出基于Places205-AlexNet的场景自适应识别算法,以促进机器人对场景标注的自适应性;其次,设计实体在语义地图上的位置映射方法,帮助机器人能以人的生活习惯理解人类居住环境,具备室内物体识别能力;然后,为了获取场景信息和物体语义信息,提出了面向语义导航的实体语义知识库构建方法,使机器人进行实体搜索时能更容易定位到场景;最后,在给出基于面向语义导航的实体语义知识库构建方法的基础上,提出了融合视觉信息的语义导航实体搜索算法。实验数据表明,机器人执行实体搜索的导航准确率均在0.75以上,这证明所提出的算法能够获得较准确的场景信息和实体语义信息。
关键词
语义地图
实体搜索
视觉信息融合
语义导航
服务机器人
Keywords
semantic map
entity search
visual information fusion
semantic navigation
social robot
分类号
TH165 [机械工程—机械制造及自动化]
TG659 [金属学及工艺—金属切削加工及机床]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
模糊化多视觉信息融合的视觉跟踪策略
张国亮
谢宗武
蒋再男
王捷
刘宏
《西安交通大学学报》
EI
CAS
CSCD
北大核心
2009
2
在线阅读
下载PDF
职称材料
2
基于视觉-惯导信息融合的采场支架姿态感知方法
邢轲轲
程敬义
许忠鑫
万志军
薛民体
闫万梓
包阔
易俊杰
《工矿自动化》
北大核心
2025
0
在线阅读
下载PDF
职称材料
3
融合视觉信息的语义导航实体搜索算法
江涛
杨观赐
李杨
《组合机床与自动化加工技术》
北大核心
2022
1
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部