期刊文献+
共找到6篇文章
< 1 >
每页显示 20 50 100
面向杂乱场景的机械臂抓取位姿预测方法
1
作者 李轩青 陈燕 《机电工程》 北大核心 2025年第6期1185-1192,共8页
针对复杂场景下机器人抓取智能化程度及抓取精度不足等问题,提出了一种新颖的机器人抓取位姿预测方法,即实时抓取网络(RGN)。首先,引入KPConv作为骨干网络,将其用于超点与密集点的特征提取,提出了一种新颖的几何特征计算方法,并利用交... 针对复杂场景下机器人抓取智能化程度及抓取精度不足等问题,提出了一种新颖的机器人抓取位姿预测方法,即实时抓取网络(RGN)。首先,引入KPConv作为骨干网络,将其用于超点与密集点的特征提取,提出了一种新颖的几何特征计算方法,并利用交叉注意力机制实现了多源特征的融合目的;然后,提出了区域关联特征提取模块,借助于几何特征信息进行了区域划分,通过多层感知机进一步完成了抓取位姿的预测,利用抓取系统运动链将夹爪位姿映射到了机械臂关节角特征上,控制机械臂完成了抓取;最后,引入了多样性损失函数,并将其与基线模型进行了对比,利用GraspNet-1Billion数据集和Cornell数据集开展了复杂场景下机械臂抓取性能的测试实验。研究结果表明:采用RGN方法可使抓取预测精度得到大幅提升,最大提升幅度达78.2%;将传统手工特征与深度学习相融合,对机械臂抓取位姿预测精度的提升起到了关键作用,这一规律可为构建良好的机械臂抓取模型提供具体参考方向。 展开更多
关键词 机器人抓取 抓取位姿估计 实时抓取网络 点云 深度学习 特征提取模块 交叉注意力模块
在线阅读 下载PDF
基于深度学习的机械臂抓取姿态估计实验设计 被引量:5
2
作者 辛菁 龚爱玲 +3 位作者 赵永红 穆凌霞 弋英民 张晓晖 《实验室研究与探索》 CAS 北大核心 2023年第2期1-4,30,共5页
为高效准确估计出机械臂对未知物体抓取姿态,提出了一种基于深度学习的机械臂抓取姿态估计方法,并设计了相关实验。该方法将生成抓取卷积网络GGCNN与挤压激励(SE)网络模块相结合,提出基于注意力机制的生成抓取卷积网络SE-GGCNN模型,提... 为高效准确估计出机械臂对未知物体抓取姿态,提出了一种基于深度学习的机械臂抓取姿态估计方法,并设计了相关实验。该方法将生成抓取卷积网络GGCNN与挤压激励(SE)网络模块相结合,提出基于注意力机制的生成抓取卷积网络SE-GGCNN模型,提高抓取姿态估计的准确率。在Cornell数据集和JACQUARD数据集上进行了比较性实验。结果表明,相比于基本的GGCNN模型,SE-GGCNN模型在保证实时性的同时,将IoU指标值由原先的76%提升至82%;对于数据集中未出现过的新对象具备很好的鲁棒性和自适应性;单张图片115 ms的检测用时表明所提出的方法适合实时应用,提升了未知物体抓取姿态估计的准确率。 展开更多
关键词 机械臂 深度学习 最优抓取姿态估计 注意力机制
在线阅读 下载PDF
基于PointNet++的机器人抓取姿态估计 被引量:4
3
作者 阮国强 曹雏清 《仪表技术与传感器》 CSCD 北大核心 2023年第5期44-48,共5页
为解决在无约束、部分遮挡的场景下对部分遮挡的物体生成可靠抓取姿态的问题,基于PointNet++网络改进了一种抓取姿态估计算法,该算法可直接从目标点云中生成二指夹具的抓取姿态。由于该算法降低了抓取姿态的维度,将抓取的7自由度问题转... 为解决在无约束、部分遮挡的场景下对部分遮挡的物体生成可靠抓取姿态的问题,基于PointNet++网络改进了一种抓取姿态估计算法,该算法可直接从目标点云中生成二指夹具的抓取姿态。由于该算法降低了抓取姿态的维度,将抓取的7自由度问题转变成4自由度问题处理,从而简化学习的过程加快了学习速度。实验结果表明:该算法在无约束、部分遮挡的场景中,能够生成有效的抓取姿态,且较Contact-GraspNet算法成功抓取率提升了约12%,能够应用于家用机器人的抓取任务。 展开更多
关键词 点云 位姿估计 抓取估计 深度学习 损失函数
在线阅读 下载PDF
基于多尺度特征融合的抓取位姿估计 被引量:6
4
作者 肖贤鹏 胡莉 +2 位作者 张静 李树春 张华 《计算机工程与应用》 CSCD 北大核心 2022年第10期172-177,共6页
抓取目标多样性、位姿随机性严重制约了机器人抓取的任务适应性,为提高机器人抓取成功率,提出一种融合多尺度特征的机器人抓取位姿估计方法。该方法以RGD信息为输入,采用ResNet-50主干网络,融合FPN(feature pyramid networks)获得多尺... 抓取目标多样性、位姿随机性严重制约了机器人抓取的任务适应性,为提高机器人抓取成功率,提出一种融合多尺度特征的机器人抓取位姿估计方法。该方法以RGD信息为输入,采用ResNet-50主干网络,融合FPN(feature pyramid networks)获得多尺度特征作为抓取生成网络的输入,以生成抓取候选框;并将抓取方向坐标映射为抓取方向的分类任务,使用ROI Align进行感兴趣区域提取,评估抓取候选框,获取目标的最优抓取位姿。为验证算法有效性,基于康奈尔抓取数据集开展了抓取位姿估计实验,仿真抓取位姿估计准确度达到96.9%。基于Inter RealSense D415深度相机和UR5机械臂搭建了实物平台,在真实场景下对位姿随机摆放的多样性目标物体进行多次抓取实验,结果显示抓取目标检测成功率为95.8%,机器人抓取成功率为90.2%。 展开更多
关键词 抓取位姿估计 RGD信息 多尺度特征 抓取建议网络 ROI Align
在线阅读 下载PDF
融合语义实例重建的抓取位姿估计方法 被引量:1
5
作者 韩慧妍 王文俊 +2 位作者 韩燮 况立群 薛红新 《计算机工程与科学》 CSCD 北大核心 2023年第10期1822-1829,共8页
针对抓取任务中难以区分多个紧邻物体及高维位姿学习准确率差的问题,提出一种融合语义实例重建的抓取位姿估计方法。增加语义实例重建分支对前景完成隐式三维重建,并以投票方式预测每个前景点所属实例的中心坐标,以区分紧邻物体;提出一... 针对抓取任务中难以区分多个紧邻物体及高维位姿学习准确率差的问题,提出一种融合语义实例重建的抓取位姿估计方法。增加语义实例重建分支对前景完成隐式三维重建,并以投票方式预测每个前景点所属实例的中心坐标,以区分紧邻物体;提出一种高维位姿的降维学习方法,使用2个正交单位向量分解三维旋转矩阵,提升位姿学习准确率;搭建融合语义实例重建的抓取检测网络SIRGN,并在VGN仿真抓取数据集上完成训练。实验结果表明,SIRGN在拥挤(Packed)和堆叠(Pile)场景的抓取成功率分别达到了89.5%和78.1%,且在真实环境具有良好的适用性。 展开更多
关键词 抓取位姿估计 隐式三维重建 投票 降维 旋转矩阵
在线阅读 下载PDF
一种基于双目视觉传感器的遮挡目标期望抓取点识别与定位方法 被引量:10
6
作者 王煜升 张波涛 +1 位作者 吴秋轩 吕强 《传感技术学报》 CAS CSCD 北大核心 2021年第8期1033-1043,共11页
在不确定性较高的室内复杂场景中,机器人常需识别遮挡物体并对其抓取。遮挡问题会导致抓取点预估位置脱离目标,产生位置漂移。针对该问题,本文提出一种基于双目视觉的遮挡目标抓取点识别与定位策略。采用基于期望位置模型的方法估计,以... 在不确定性较高的室内复杂场景中,机器人常需识别遮挡物体并对其抓取。遮挡问题会导致抓取点预估位置脱离目标,产生位置漂移。针对该问题,本文提出一种基于双目视觉的遮挡目标抓取点识别与定位策略。采用基于期望位置模型的方法估计,以特征检测进行遮挡目标识别,并进行轮廓还原;根据期望抓取点模型,采集目标的期望抓取位置,构建位置模型库。将待检测目标与模型库匹配,提取双目视野中未遮挡区域的期望抓取点。实验表明本方法在复杂环境下具有较高的鲁棒性,抗干扰能力强,对遮挡目标具有较高的定位精度。 展开更多
关键词 机器视觉 抓取位置估计 遮挡目标识别 双目定位
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部