期刊导航
期刊开放获取
上海教育软件发展有限公..
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
6
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
面向杂乱场景的机械臂抓取位姿预测方法
1
作者
李轩青
陈燕
《机电工程》
北大核心
2025年第6期1185-1192,共8页
针对复杂场景下机器人抓取智能化程度及抓取精度不足等问题,提出了一种新颖的机器人抓取位姿预测方法,即实时抓取网络(RGN)。首先,引入KPConv作为骨干网络,将其用于超点与密集点的特征提取,提出了一种新颖的几何特征计算方法,并利用交...
针对复杂场景下机器人抓取智能化程度及抓取精度不足等问题,提出了一种新颖的机器人抓取位姿预测方法,即实时抓取网络(RGN)。首先,引入KPConv作为骨干网络,将其用于超点与密集点的特征提取,提出了一种新颖的几何特征计算方法,并利用交叉注意力机制实现了多源特征的融合目的;然后,提出了区域关联特征提取模块,借助于几何特征信息进行了区域划分,通过多层感知机进一步完成了抓取位姿的预测,利用抓取系统运动链将夹爪位姿映射到了机械臂关节角特征上,控制机械臂完成了抓取;最后,引入了多样性损失函数,并将其与基线模型进行了对比,利用GraspNet-1Billion数据集和Cornell数据集开展了复杂场景下机械臂抓取性能的测试实验。研究结果表明:采用RGN方法可使抓取预测精度得到大幅提升,最大提升幅度达78.2%;将传统手工特征与深度学习相融合,对机械臂抓取位姿预测精度的提升起到了关键作用,这一规律可为构建良好的机械臂抓取模型提供具体参考方向。
展开更多
关键词
机器人
抓取
抓取
位姿
估计
实时
抓取
网络
点云
深度学习
特征提取模块
交叉注意力模块
在线阅读
下载PDF
职称材料
基于深度学习的机械臂抓取姿态估计实验设计
被引量:
5
2
作者
辛菁
龚爱玲
+3 位作者
赵永红
穆凌霞
弋英民
张晓晖
《实验室研究与探索》
CAS
北大核心
2023年第2期1-4,30,共5页
为高效准确估计出机械臂对未知物体抓取姿态,提出了一种基于深度学习的机械臂抓取姿态估计方法,并设计了相关实验。该方法将生成抓取卷积网络GGCNN与挤压激励(SE)网络模块相结合,提出基于注意力机制的生成抓取卷积网络SE-GGCNN模型,提...
为高效准确估计出机械臂对未知物体抓取姿态,提出了一种基于深度学习的机械臂抓取姿态估计方法,并设计了相关实验。该方法将生成抓取卷积网络GGCNN与挤压激励(SE)网络模块相结合,提出基于注意力机制的生成抓取卷积网络SE-GGCNN模型,提高抓取姿态估计的准确率。在Cornell数据集和JACQUARD数据集上进行了比较性实验。结果表明,相比于基本的GGCNN模型,SE-GGCNN模型在保证实时性的同时,将IoU指标值由原先的76%提升至82%;对于数据集中未出现过的新对象具备很好的鲁棒性和自适应性;单张图片115 ms的检测用时表明所提出的方法适合实时应用,提升了未知物体抓取姿态估计的准确率。
展开更多
关键词
机械臂
深度学习
最优
抓取
姿态
估计
注意力机制
在线阅读
下载PDF
职称材料
基于PointNet++的机器人抓取姿态估计
被引量:
4
3
作者
阮国强
曹雏清
《仪表技术与传感器》
CSCD
北大核心
2023年第5期44-48,共5页
为解决在无约束、部分遮挡的场景下对部分遮挡的物体生成可靠抓取姿态的问题,基于PointNet++网络改进了一种抓取姿态估计算法,该算法可直接从目标点云中生成二指夹具的抓取姿态。由于该算法降低了抓取姿态的维度,将抓取的7自由度问题转...
为解决在无约束、部分遮挡的场景下对部分遮挡的物体生成可靠抓取姿态的问题,基于PointNet++网络改进了一种抓取姿态估计算法,该算法可直接从目标点云中生成二指夹具的抓取姿态。由于该算法降低了抓取姿态的维度,将抓取的7自由度问题转变成4自由度问题处理,从而简化学习的过程加快了学习速度。实验结果表明:该算法在无约束、部分遮挡的场景中,能够生成有效的抓取姿态,且较Contact-GraspNet算法成功抓取率提升了约12%,能够应用于家用机器人的抓取任务。
展开更多
关键词
点云
位姿
估计
抓取估计
深度学习
损失函数
在线阅读
下载PDF
职称材料
基于多尺度特征融合的抓取位姿估计
被引量:
6
4
作者
肖贤鹏
胡莉
+2 位作者
张静
李树春
张华
《计算机工程与应用》
CSCD
北大核心
2022年第10期172-177,共6页
抓取目标多样性、位姿随机性严重制约了机器人抓取的任务适应性,为提高机器人抓取成功率,提出一种融合多尺度特征的机器人抓取位姿估计方法。该方法以RGD信息为输入,采用ResNet-50主干网络,融合FPN(feature pyramid networks)获得多尺...
抓取目标多样性、位姿随机性严重制约了机器人抓取的任务适应性,为提高机器人抓取成功率,提出一种融合多尺度特征的机器人抓取位姿估计方法。该方法以RGD信息为输入,采用ResNet-50主干网络,融合FPN(feature pyramid networks)获得多尺度特征作为抓取生成网络的输入,以生成抓取候选框;并将抓取方向坐标映射为抓取方向的分类任务,使用ROI Align进行感兴趣区域提取,评估抓取候选框,获取目标的最优抓取位姿。为验证算法有效性,基于康奈尔抓取数据集开展了抓取位姿估计实验,仿真抓取位姿估计准确度达到96.9%。基于Inter RealSense D415深度相机和UR5机械臂搭建了实物平台,在真实场景下对位姿随机摆放的多样性目标物体进行多次抓取实验,结果显示抓取目标检测成功率为95.8%,机器人抓取成功率为90.2%。
展开更多
关键词
抓取
位姿
估计
RGD信息
多尺度特征
抓取
建议网络
ROI
Align
在线阅读
下载PDF
职称材料
融合语义实例重建的抓取位姿估计方法
被引量:
1
5
作者
韩慧妍
王文俊
+2 位作者
韩燮
况立群
薛红新
《计算机工程与科学》
CSCD
北大核心
2023年第10期1822-1829,共8页
针对抓取任务中难以区分多个紧邻物体及高维位姿学习准确率差的问题,提出一种融合语义实例重建的抓取位姿估计方法。增加语义实例重建分支对前景完成隐式三维重建,并以投票方式预测每个前景点所属实例的中心坐标,以区分紧邻物体;提出一...
针对抓取任务中难以区分多个紧邻物体及高维位姿学习准确率差的问题,提出一种融合语义实例重建的抓取位姿估计方法。增加语义实例重建分支对前景完成隐式三维重建,并以投票方式预测每个前景点所属实例的中心坐标,以区分紧邻物体;提出一种高维位姿的降维学习方法,使用2个正交单位向量分解三维旋转矩阵,提升位姿学习准确率;搭建融合语义实例重建的抓取检测网络SIRGN,并在VGN仿真抓取数据集上完成训练。实验结果表明,SIRGN在拥挤(Packed)和堆叠(Pile)场景的抓取成功率分别达到了89.5%和78.1%,且在真实环境具有良好的适用性。
展开更多
关键词
抓取
位姿
估计
隐式三维重建
投票
降维
旋转矩阵
在线阅读
下载PDF
职称材料
一种基于双目视觉传感器的遮挡目标期望抓取点识别与定位方法
被引量:
10
6
作者
王煜升
张波涛
+1 位作者
吴秋轩
吕强
《传感技术学报》
CAS
CSCD
北大核心
2021年第8期1033-1043,共11页
在不确定性较高的室内复杂场景中,机器人常需识别遮挡物体并对其抓取。遮挡问题会导致抓取点预估位置脱离目标,产生位置漂移。针对该问题,本文提出一种基于双目视觉的遮挡目标抓取点识别与定位策略。采用基于期望位置模型的方法估计,以...
在不确定性较高的室内复杂场景中,机器人常需识别遮挡物体并对其抓取。遮挡问题会导致抓取点预估位置脱离目标,产生位置漂移。针对该问题,本文提出一种基于双目视觉的遮挡目标抓取点识别与定位策略。采用基于期望位置模型的方法估计,以特征检测进行遮挡目标识别,并进行轮廓还原;根据期望抓取点模型,采集目标的期望抓取位置,构建位置模型库。将待检测目标与模型库匹配,提取双目视野中未遮挡区域的期望抓取点。实验表明本方法在复杂环境下具有较高的鲁棒性,抗干扰能力强,对遮挡目标具有较高的定位精度。
展开更多
关键词
机器视觉
抓取
位置
估计
遮挡目标识别
双目定位
在线阅读
下载PDF
职称材料
题名
面向杂乱场景的机械臂抓取位姿预测方法
1
作者
李轩青
陈燕
机构
山西职业技术学院电气自动化工程系
太原理工大学电气与动力工程学院
出处
《机电工程》
北大核心
2025年第6期1185-1192,共8页
基金
山西省重点研发计划项目(201903D121083)。
文摘
针对复杂场景下机器人抓取智能化程度及抓取精度不足等问题,提出了一种新颖的机器人抓取位姿预测方法,即实时抓取网络(RGN)。首先,引入KPConv作为骨干网络,将其用于超点与密集点的特征提取,提出了一种新颖的几何特征计算方法,并利用交叉注意力机制实现了多源特征的融合目的;然后,提出了区域关联特征提取模块,借助于几何特征信息进行了区域划分,通过多层感知机进一步完成了抓取位姿的预测,利用抓取系统运动链将夹爪位姿映射到了机械臂关节角特征上,控制机械臂完成了抓取;最后,引入了多样性损失函数,并将其与基线模型进行了对比,利用GraspNet-1Billion数据集和Cornell数据集开展了复杂场景下机械臂抓取性能的测试实验。研究结果表明:采用RGN方法可使抓取预测精度得到大幅提升,最大提升幅度达78.2%;将传统手工特征与深度学习相融合,对机械臂抓取位姿预测精度的提升起到了关键作用,这一规律可为构建良好的机械臂抓取模型提供具体参考方向。
关键词
机器人
抓取
抓取
位姿
估计
实时
抓取
网络
点云
深度学习
特征提取模块
交叉注意力模块
Keywords
robot grasping
grasp pose estimation
real-time grasp network(RGN)
point cloud
deep learning
feature extraction module
cross-attention module
分类号
TH-39 [机械工程]
TP24 [自动化与计算机技术—检测技术与自动化装置]
在线阅读
下载PDF
职称材料
题名
基于深度学习的机械臂抓取姿态估计实验设计
被引量:
5
2
作者
辛菁
龚爱玲
赵永红
穆凌霞
弋英民
张晓晖
机构
西安理工大学自动化与信息工程学院
出处
《实验室研究与探索》
CAS
北大核心
2023年第2期1-4,30,共5页
基金
国家自然科学基金项目(61873200)
西安理工大学教育教学改革重点项目(xjy1904)
+1 种基金
西安理工大学教改项目(xqj2112)
陕西省高等教育教学改革研究重点攻关项目(21BG022)。
文摘
为高效准确估计出机械臂对未知物体抓取姿态,提出了一种基于深度学习的机械臂抓取姿态估计方法,并设计了相关实验。该方法将生成抓取卷积网络GGCNN与挤压激励(SE)网络模块相结合,提出基于注意力机制的生成抓取卷积网络SE-GGCNN模型,提高抓取姿态估计的准确率。在Cornell数据集和JACQUARD数据集上进行了比较性实验。结果表明,相比于基本的GGCNN模型,SE-GGCNN模型在保证实时性的同时,将IoU指标值由原先的76%提升至82%;对于数据集中未出现过的新对象具备很好的鲁棒性和自适应性;单张图片115 ms的检测用时表明所提出的方法适合实时应用,提升了未知物体抓取姿态估计的准确率。
关键词
机械臂
深度学习
最优
抓取
姿态
估计
注意力机制
Keywords
robotic arm
deep learning
optimal grasping pose estimation
attention mechanism
分类号
TP241.2 [自动化与计算机技术—检测技术与自动化装置]
在线阅读
下载PDF
职称材料
题名
基于PointNet++的机器人抓取姿态估计
被引量:
4
3
作者
阮国强
曹雏清
机构
安徽工程大学计算机与信息学院
哈尔滨工业大学芜湖机器人产业技术研究院
出处
《仪表技术与传感器》
CSCD
北大核心
2023年第5期44-48,共5页
基金
国家重点研发计划“智能机器人”重点专项(2018YFB1307100)
安徽省教育厅科学研究重点项目(KJ2020A0364)。
文摘
为解决在无约束、部分遮挡的场景下对部分遮挡的物体生成可靠抓取姿态的问题,基于PointNet++网络改进了一种抓取姿态估计算法,该算法可直接从目标点云中生成二指夹具的抓取姿态。由于该算法降低了抓取姿态的维度,将抓取的7自由度问题转变成4自由度问题处理,从而简化学习的过程加快了学习速度。实验结果表明:该算法在无约束、部分遮挡的场景中,能够生成有效的抓取姿态,且较Contact-GraspNet算法成功抓取率提升了约12%,能够应用于家用机器人的抓取任务。
关键词
点云
位姿
估计
抓取估计
深度学习
损失函数
Keywords
point cloud
pose estimation
grasp estimation
depth learning
loss function
分类号
TP391 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
基于多尺度特征融合的抓取位姿估计
被引量:
6
4
作者
肖贤鹏
胡莉
张静
李树春
张华
机构
西南科技大学信息工程学院
中国科学技术大学信息科学技术学院
出处
《计算机工程与应用》
CSCD
北大核心
2022年第10期172-177,共6页
基金
国家“十三五”核能开发科研资助项目(20161295)
四川省教育厅重点资助科研项目(18ZA0492)。
文摘
抓取目标多样性、位姿随机性严重制约了机器人抓取的任务适应性,为提高机器人抓取成功率,提出一种融合多尺度特征的机器人抓取位姿估计方法。该方法以RGD信息为输入,采用ResNet-50主干网络,融合FPN(feature pyramid networks)获得多尺度特征作为抓取生成网络的输入,以生成抓取候选框;并将抓取方向坐标映射为抓取方向的分类任务,使用ROI Align进行感兴趣区域提取,评估抓取候选框,获取目标的最优抓取位姿。为验证算法有效性,基于康奈尔抓取数据集开展了抓取位姿估计实验,仿真抓取位姿估计准确度达到96.9%。基于Inter RealSense D415深度相机和UR5机械臂搭建了实物平台,在真实场景下对位姿随机摆放的多样性目标物体进行多次抓取实验,结果显示抓取目标检测成功率为95.8%,机器人抓取成功率为90.2%。
关键词
抓取
位姿
估计
RGD信息
多尺度特征
抓取
建议网络
ROI
Align
Keywords
grasp pose estimation
RGD information
multi-scale features
grasp proposal network
ROI Align
分类号
TP241 [自动化与计算机技术—检测技术与自动化装置]
在线阅读
下载PDF
职称材料
题名
融合语义实例重建的抓取位姿估计方法
被引量:
1
5
作者
韩慧妍
王文俊
韩燮
况立群
薛红新
机构
中北大学计算机科学与技术学院
机器视觉与虚拟现实山西省重点实验室
山西省视觉信息处理及智能机器人工程研究中心
出处
《计算机工程与科学》
CSCD
北大核心
2023年第10期1822-1829,共8页
基金
国家自然科学基金(62106238)
山西省自然科学基金(202303021211153)
+1 种基金
山西省科技成果转化引导专项(202104021301055)
山西省研究生创新项目(2021Y626)。
文摘
针对抓取任务中难以区分多个紧邻物体及高维位姿学习准确率差的问题,提出一种融合语义实例重建的抓取位姿估计方法。增加语义实例重建分支对前景完成隐式三维重建,并以投票方式预测每个前景点所属实例的中心坐标,以区分紧邻物体;提出一种高维位姿的降维学习方法,使用2个正交单位向量分解三维旋转矩阵,提升位姿学习准确率;搭建融合语义实例重建的抓取检测网络SIRGN,并在VGN仿真抓取数据集上完成训练。实验结果表明,SIRGN在拥挤(Packed)和堆叠(Pile)场景的抓取成功率分别达到了89.5%和78.1%,且在真实环境具有良好的适用性。
关键词
抓取
位姿
估计
隐式三维重建
投票
降维
旋转矩阵
Keywords
grasp pose estimation
implicit 3D reconstruction
voting
dimensionality reduction
rotation matrix
分类号
TP242.6 [自动化与计算机技术—检测技术与自动化装置]
在线阅读
下载PDF
职称材料
题名
一种基于双目视觉传感器的遮挡目标期望抓取点识别与定位方法
被引量:
10
6
作者
王煜升
张波涛
吴秋轩
吕强
机构
杭州电子科技大学自动化学院
出处
《传感技术学报》
CAS
CSCD
北大核心
2021年第8期1033-1043,共11页
基金
浙江省重点研发项目(2019C04018)
国家自然科学基金(62073108)。
文摘
在不确定性较高的室内复杂场景中,机器人常需识别遮挡物体并对其抓取。遮挡问题会导致抓取点预估位置脱离目标,产生位置漂移。针对该问题,本文提出一种基于双目视觉的遮挡目标抓取点识别与定位策略。采用基于期望位置模型的方法估计,以特征检测进行遮挡目标识别,并进行轮廓还原;根据期望抓取点模型,采集目标的期望抓取位置,构建位置模型库。将待检测目标与模型库匹配,提取双目视野中未遮挡区域的期望抓取点。实验表明本方法在复杂环境下具有较高的鲁棒性,抗干扰能力强,对遮挡目标具有较高的定位精度。
关键词
机器视觉
抓取
位置
估计
遮挡目标识别
双目定位
Keywords
machine vision
grab position estimation
occluded target recognition
binocular positioning
分类号
TP242 [自动化与计算机技术—检测技术与自动化装置]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
面向杂乱场景的机械臂抓取位姿预测方法
李轩青
陈燕
《机电工程》
北大核心
2025
0
在线阅读
下载PDF
职称材料
2
基于深度学习的机械臂抓取姿态估计实验设计
辛菁
龚爱玲
赵永红
穆凌霞
弋英民
张晓晖
《实验室研究与探索》
CAS
北大核心
2023
5
在线阅读
下载PDF
职称材料
3
基于PointNet++的机器人抓取姿态估计
阮国强
曹雏清
《仪表技术与传感器》
CSCD
北大核心
2023
4
在线阅读
下载PDF
职称材料
4
基于多尺度特征融合的抓取位姿估计
肖贤鹏
胡莉
张静
李树春
张华
《计算机工程与应用》
CSCD
北大核心
2022
6
在线阅读
下载PDF
职称材料
5
融合语义实例重建的抓取位姿估计方法
韩慧妍
王文俊
韩燮
况立群
薛红新
《计算机工程与科学》
CSCD
北大核心
2023
1
在线阅读
下载PDF
职称材料
6
一种基于双目视觉传感器的遮挡目标期望抓取点识别与定位方法
王煜升
张波涛
吴秋轩
吕强
《传感技术学报》
CAS
CSCD
北大核心
2021
10
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部