期刊文献+
共找到5篇文章
< 1 >
每页显示 20 50 100
机器人视觉定位系统的研究与实现 被引量:13
1
作者 张贞子 罗兵 《哈尔滨工业大学学报》 EI CAS CSCD 北大核心 1997年第6期85-89,共5页
视觉定位是机器人视觉的主要研究方向之一,本文把PUMA560机械手、AdeptVision视觉处理系统和PanasonicGPCD40CCD相机三者组成一实际系统,主要研究了其中的CCD相机的标定方法,相机安装位... 视觉定位是机器人视觉的主要研究方向之一,本文把PUMA560机械手、AdeptVision视觉处理系统和PanasonicGPCD40CCD相机三者组成一实际系统,主要研究了其中的CCD相机的标定方法,相机安装位置的求解方法和目标姿态的封闭算法,并将上述算法相结合,有效实现了PUMA560视觉定位系统,为今后的实际应用打下了坚实的基础。 展开更多
关键词 机器人视觉定位 相机标定 目标姿态估计
在线阅读 下载PDF
物料分拣机器人视觉定位系统研究 被引量:3
2
作者 夏昺宸 匡鑫 《南方农机》 2020年第4期147-147,共1页
物料分拣系统是工业化领域生产的一种新型系统,该系统在运作的时候需要着重确定分拣对象的参数、机器人参数等。借助机器人视觉定位系统能解决物料分拣系统运作的难点。为此,文章结合实际就物料分拣机器人视觉定位系统设计问题进行探究。
关键词 物料分拣系统 机器人视觉定位系统 应用
在线阅读 下载PDF
大型自由曲面零件的机器人视觉快速定位方法 被引量:12
3
作者 林俊义 吴雷 +2 位作者 杨梅英 张雪枫 江开勇 《计算机集成制造系统》 EI CSCD 北大核心 2021年第7期1951-1958,共8页
针对大型自由曲面零件缺少规则特征导致定位成本高、效率低且精度难以保证的问题,提出一种机器人视觉快速定位方法。设计了自适应分辨率的超体素聚类算法,对不同模型点云进行均匀分割;提出以分块质心点的曲率、夹角以及快速点特征直方图... 针对大型自由曲面零件缺少规则特征导致定位成本高、效率低且精度难以保证的问题,提出一种机器人视觉快速定位方法。设计了自适应分辨率的超体素聚类算法,对不同模型点云进行均匀分割;提出以分块质心点的曲率、夹角以及快速点特征直方图(FPFH)描述子为依据,快速识别出完整CAD模型点云与局部测量数据的重叠区域并求解粗配准矩阵。改进了分支定界(BNB)嵌套迭代最近点(ICP)算法,提出基于关键点的快速精配准方法。以冲压件为对象进行实验验证,结果表明本方法节省了30%以上的配准时间,并显著提高了配准精度,能够解决大型自由曲面零件的定位难题。 展开更多
关键词 自由曲面零件 机器人视觉定位 分块 质心点 重叠区域 关键点
在线阅读 下载PDF
基于图像的非标定视觉反馈控制机器人全局定位方法 被引量:7
4
作者 仲训杲 徐敏 +1 位作者 仲训昱 彭侠夫 《厦门大学学报(自然科学版)》 CAS CSCD 北大核心 2018年第3期413-419,共7页
针对机器人非标定全局定位问题,研究Kalman滤波(Kalman filtering,KF)算法联合反馈型Elman神经网络(Elman neural network,ENN)学习机器人图像空间与运动空间非线性映射关系,从而建立基于图像的视觉反馈控制方法.首先利用ENN学习得到机... 针对机器人非标定全局定位问题,研究Kalman滤波(Kalman filtering,KF)算法联合反馈型Elman神经网络(Elman neural network,ENN)学习机器人图像空间与运动空间非线性映射关系,从而建立基于图像的视觉反馈控制方法.首先利用ENN学习得到机器人全局定位的次优状态,以此为系统状态向量构建伺服系统状态方程与观测方程,进而利用KF估计得到机器人图像雅可比矩阵.其次,采用KF对ENN网络权重进行在线微调,KF联合ENN满足机器人全局定位稳定收敛的要求,并对环境干扰具有一定的自适应性.最后在摄像机参数未标定条件下,进行六自由度机器人"眼在手"(eye-in-hand)定位比较试验,结果验证了提出的非标定视觉伺服控制方法的有效性. 展开更多
关键词 机器人视觉定位 全局状态空间 视觉反馈控制 联合学习
在线阅读 下载PDF
基于Hu-DBN的低分辨图案编码识别方法研究 被引量:1
5
作者 张天凡 李哲 +2 位作者 景啸 胡斌 朱亚辉 《西北工业大学学报》 EI CAS CSCD 北大核心 2020年第6期1218-1224,共7页
图案编码是移动机器人视觉导航中全局定位的关键参照物。通过降低图像编码的影像尺寸和质量有助于减少运算量,以提升算法实时性,但对应特征图像更易受以运动模糊为主的干扰而影响识别的准确性,使得定位失败进而造成整个多智能体控制系... 图案编码是移动机器人视觉导航中全局定位的关键参照物。通过降低图像编码的影像尺寸和质量有助于减少运算量,以提升算法实时性,但对应特征图像更易受以运动模糊为主的干扰而影响识别的准确性,使得定位失败进而造成整个多智能体控制系统失效。提出了一种优化的低分辨率特征图像码识别方法,在预处理部分将特征图像转换为其Hu不变矩的特征信号矩阵,再将特征图像作为一个特征分量补充到该特征信号矩阵中,通过构建的Hu-DBN神经网络信号分类器对信号矩阵进行学习,从而实现低分辨率自定义图像特征码影像在较高运动容差条件下的准确识别。既避免了经典模式识别依赖模型经验、场景适应性差的问题,同时也避免了直接使用如YOLO等深度学习方法带来的高运算量和识别效率问题。通过移动机器人实例部署展开测试,通过搭载分辨率为640×480图像传感器移动机器人实例展开测试,在0.5 m/s运动速度时平均识别率为96.3%,证明了所提方法的有效性。 展开更多
关键词 图像特征码 低分辨动态影像 HU不变矩 深度置信网络 移动机器人视觉定位
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部