期刊文献+
共找到201篇文章
< 1 2 11 >
每页显示 20 50 100
基于RGB-D图像的高纺锤形苹果树修剪执行末端位姿估计
1
作者 康峰 王嘉成 +1 位作者 王亚雄 王宁 《农业工程学报》 北大核心 2025年第12期77-85,共9页
针对果树智能化选择性修剪作业中缺乏执行末端位姿的预测方法,提出一种基于RGB-D图像的修剪点定位与执行末端位姿估计方法。首先,利用RealSense D435i深度相机获取苹果树的RGB图像和深度信息,并通过改进的YOLOv8-seg模型对RGB图像中的... 针对果树智能化选择性修剪作业中缺乏执行末端位姿的预测方法,提出一种基于RGB-D图像的修剪点定位与执行末端位姿估计方法。首先,利用RealSense D435i深度相机获取苹果树的RGB图像和深度信息,并通过改进的YOLOv8-seg模型对RGB图像中的树干与一级枝根部预设区域进行分割。其次,利用OpenCV图像处理方法,计算出树干直径、侧枝直径和侧枝生长间距,基于人工剪枝规则,判断并定位修剪点像素坐标。最后,结合修剪点坐标与深度信息,基于点面映射原理推导出修剪点对应的修剪位姿。结果表明,改进的YOLOv8-seg模型在自建数据集掩膜预测的精确率和召回率分别达到了95.31%和93.79%,修剪决策判断的正确率为88.3%,执行末端位姿估计的成功率为89.9%,可以为苹果树修剪机器人的研发提供技术支持。 展开更多
关键词 图像处理 实例分割 rgb-d YOLOv8-seg 苹果树 修剪 位姿估计
在线阅读 下载PDF
空间信息增强的室内多任务RGB-D场景理解
2
作者 孙国栋 熊晨韵 +1 位作者 刘俊杰 张杨 《北京航空航天大学学报》 北大核心 2025年第7期2209-2217,共9页
移动机器人在探索三维空间时需要获取大量场景信息,这些信息包含语义、实例对象、位置关系等多个方面。理解场景信息的准确性和计算复杂性是移动端关注的2个焦点。基于此,提出了一种适用于室内场景理解的空间信息增强的多任务学习方法... 移动机器人在探索三维空间时需要获取大量场景信息,这些信息包含语义、实例对象、位置关系等多个方面。理解场景信息的准确性和计算复杂性是移动端关注的2个焦点。基于此,提出了一种适用于室内场景理解的空间信息增强的多任务学习方法。该方法由包含通道-空间注意力融合模块的编码器及多任务头的解码器组成,可同时实现语义分割、全景分割(实例分割)和方向估计多个任务。其中,通道-空间注意力融合模块旨在增强RGB和深度各自的模态特征,由简单卷积构成的空间注意力机制可降低收敛速度,与通道注意力机制信息融合后,进一步强化全局信息的位置特征。语义分支的上下文模块位于解码器后,为像素级语义信息提供有力支持,有助于减小模型大小。同时,设计了一种基于硬参数共享且能均衡训练任务的损失函数,探讨合适的轻量级骨干网络和任务数量对提升场景理解算法性能的影响。在新增标签注释的室内数据集NYUv2和SUN RGB-D上,评估了多任务学习方法的有效性,综合性全景分割精度分别提高了2.93%和4.87%。 展开更多
关键词 场景理解 多任务学习 rgb-d 空间信息 室内场景
在线阅读 下载PDF
基于点-线-面特征和曼哈顿约束的鲁棒RGB-D里程计
3
作者 程向红 于兴云 +1 位作者 吴建峰 刘丰宇 《中国惯性技术学报》 北大核心 2025年第7期688-697,共10页
为解决视觉定位系统在室内环境中由于低纹理和后端优化中的权重设置不合理而导致的位姿漂移问题,提出了一种鲁棒RGB-D里程计设计方案。首先,采用短线过滤和断线合并的策略改进EDLines算法,以提高线特征匹配的精度和速度;其次,通过结合... 为解决视觉定位系统在室内环境中由于低纹理和后端优化中的权重设置不合理而导致的位姿漂移问题,提出了一种鲁棒RGB-D里程计设计方案。首先,采用短线过滤和断线合并的策略改进EDLines算法,以提高线特征匹配的精度和速度;其次,通过结合平面深度一致验证和方向相关性来改进主导平面筛选方式,以精确初始化曼哈顿帧;最后,基于特征约束数量和特征重投影残差构建特征的置信度,并采用自适应非线性优化的方法,实现鲁棒的位姿估计。实验结果表明,相较于ORB-SLAM2、Planar-SLAM和Manhattan-SLAM,所提方案在ICL-NUIM数据集上的绝对轨迹均方根误差平均降低60.55%、26.35%和22.97%;在TUM数据集上的绝对轨迹均方根误差平均降低52.41%、54.52%和49.57%。此外,在真实世界场景实验中,相较于Planar-SLAM、Manhattan-SLAM,所提方案的轨迹端点漂移分别降低35.63%和20.00%。 展开更多
关键词 rgb-d里程计 点-线-面特征 曼哈顿约束 后端优化
在线阅读 下载PDF
基于RGB-D图像的语义分割方法综述 被引量:1
4
作者 王晨 杜晨曦 +1 位作者 刘瑞军 齐越 《计算机辅助设计与图形学学报》 北大核心 2025年第1期100-119,共20页
语义分割技术致力于精确识别并分割图像中的各个物体或场景.基于RGB图像的方法在信息利用上存在局限,导致性能受限,随着深度传感器技术的普及,深度图的引入为语义分割网络注入了丰富的几何信息,显著地提升了分割精度.文中介绍了近几年基... 语义分割技术致力于精确识别并分割图像中的各个物体或场景.基于RGB图像的方法在信息利用上存在局限,导致性能受限,随着深度传感器技术的普及,深度图的引入为语义分割网络注入了丰富的几何信息,显著地提升了分割精度.文中介绍了近几年基于RGB-D图像的语义分割方面的显著进展和相关方法,根据对多模态融合特征处理方式的差异,将基于RGB-D图像的语义分割方法归纳为单分支、双分支、三分支网络架构3大类.其中,单分支网络在同一分支同时处理RGB和深度特征,实现特征的有机结合;双分支网络利用RGB和深度特征之间的互补性,优化多模态特征的校正与融合;三分支网络在保留原始的RGB和深度特征的同时,深入挖掘融合特征,确保信息的全面性.同时,总结注意力、模型优化等关键技术,并归纳常用的数据集和评价指标,对比分析各种方法在不同数据集上的性能,最后总结当前RGB-D图像语义分割在多模态数据交互与处理方面所面临的挑战,展望了语义分割技术在跨领域数据融合方向的发展前景. 展开更多
关键词 rgb-d图像 语义分割 多模态特征融合 卷积神经网络
在线阅读 下载PDF
面向RGB-D数据的特征线提取和表示算法
5
作者 刘鑫 李洋 +1 位作者 冯胜杰 吴晓群 《图学学报》 北大核心 2025年第3期542-550,共9页
为了提高特征线提取结果的精度和质量,针对现有算法在颜色和几何边界难以区分,直线段表示的特征线不连续、不平滑等问题,提出了一种面向RGB-D数据的特征线提取与表示算法。同时,充分利用RGB图像与深度图像之间紧密耦合且互为补充的特性... 为了提高特征线提取结果的精度和质量,针对现有算法在颜色和几何边界难以区分,直线段表示的特征线不连续、不平滑等问题,提出了一种面向RGB-D数据的特征线提取与表示算法。同时,充分利用RGB图像与深度图像之间紧密耦合且互为补充的特性,结合颜色和几何信息,提出一种融合颜色和几何的边界提取和表示算法。首先基于RGB-D数据中的颜色、深度、法向和曲率等几何信息,以及对应的平面几何特征,提取稠密的几何边界特征点集;接着,通过稀疏处理优化特征点集,并在此基础上加入角点信息,以增强特征线的表示能力;最后,采用3次B样条曲线紧致、连续、光滑地表示特征线,且在曲线拟合过程中通过重节点设置确保曲线能够经过关键角点,以此较好地表示恢复特征线的准确走势。以自采和公开的RGB-D数据集进行实验,并与其他几种特征线提取算法进行比较,结果表明,该算法在NYU v2数据集上的提取精度达到了0.82,召回率达到了0.59,交并比达到了0.54,可以从包含深度噪声的低质量RGB-D输入中有效提取连续、光滑的几何特征线,具有明显优势。 展开更多
关键词 rgb-d 特征线提取 特征线表示 稠密与稀疏处理 B样条曲线
在线阅读 下载PDF
基于RGB-D图像的机械臂工业零件抓取研究
6
作者 刘生寿 杜敏 +1 位作者 张旭 谢小正 《机床与液压》 北大核心 2025年第17期66-75,共10页
针对机械臂在复杂堆叠场景中视觉抓取识别成功率低、速度慢等问题,基于RGB-D图像提出一种新型机械臂视觉抓取检测算法。通过融合RGB图像和深度图像,生成多模态特征图,从而增强图像的语义信息。采用ResNet-34作为编码器,并结合SE-Net模块... 针对机械臂在复杂堆叠场景中视觉抓取识别成功率低、速度慢等问题,基于RGB-D图像提出一种新型机械臂视觉抓取检测算法。通过融合RGB图像和深度图像,生成多模态特征图,从而增强图像的语义信息。采用ResNet-34作为编码器,并结合SE-Net模块,提升模型的表达能力,利用ESP-Net对不同尺度目标进行分割,获取多尺度语义信息。通过对特征图进行上采样解码,并与加权特征图进行跳连接,提取梯度信息,进一步提升网络性能。在Cornell和Jacquard数据集上验证了该算法的有效性,识别成功率分别达到98.31%和95.65%,推理速度为36.40帧/s。为验证算法的实用性,构建工业零件数据集,并在UR5-e机械臂上进行实时抓取实验。结果表明:在非堆叠场景中抓取成功率超过93%,在堆叠场景中抓取成功率超过81%,表明该算法能够显著提升非结构化环境中零件的抓取成功率。 展开更多
关键词 视觉抓取 机械臂 rgb-d图像 堆叠场景
在线阅读 下载PDF
基于运动概率筛选和加权位姿估计的鲁棒动态RGB-D SLAM
7
作者 于兴云 程向红 +1 位作者 刘丰宇 钟志伟 《电子测量技术》 北大核心 2025年第15期1-10,共10页
为减小动态物体对视觉SLAM的干扰,提出一种基于运动概率筛选和加权位姿估计的鲁棒动态RGB-D SLAM。首先,利用实例分割网络Yolact获取场景的语义信息,结合语义信息和深度信息对动态掩膜边界修复,根据先验运动概率的大小计算语义动态概率... 为减小动态物体对视觉SLAM的干扰,提出一种基于运动概率筛选和加权位姿估计的鲁棒动态RGB-D SLAM。首先,利用实例分割网络Yolact获取场景的语义信息,结合语义信息和深度信息对动态掩膜边界修复,根据先验运动概率的大小计算语义动态概率。然后,采用基于语义引导的方法,计算特征点的几何动态概率,将语义动态概率和几何动态概率及其置信度,通过加权融合的方式构造特征点的运动概率模型,并设计具有自适应概率阈值的特征点筛选策略。最后,在系统的位姿跟踪、局部地图优化、全局优化过程中,设计基于特征点运动概率的加权代价函数,以区分不同特征点对位姿优化的贡献。此外,在移除动态物体之后,对静态场景建立全局点云地图。公开数据集的实验结果表明,相较于ORB-SLAM2,所提算法在TUM RGB-D和Bonn数据集上的绝对轨迹误差的均方根误差分别平均降低69.16%和91.94%;与其他先进的动态SLAM算法相比,所提算法的位姿估计精度和鲁棒性均有一定程度的提升。在真实场景实验中,相较于ORB-SLAM2、Dyna-SLAM,轨迹端点漂移误差分别平均降低52.20%、19.15%。 展开更多
关键词 rgb-d SLAM 动态物体 运动概率 加权位姿估计 全局点云地图
在线阅读 下载PDF
基于Transformer全局-局部特征融合的RGB-D显著性检测 被引量:1
8
作者 宋梦柯 王芸 郑元超 《计算机应用与软件》 北大核心 2025年第3期176-182,共7页
现有的RGB-D方法一般通过局部操作分别应用多尺度和多模态融合,但这无法捕获远程依赖性,因此对特征整体表征能力不足。针对此问题,提出一种全局-局部特征融合网络。在低层特征提取阶段,将两个分支特征直接融合;在高层特征提取阶段,将融... 现有的RGB-D方法一般通过局部操作分别应用多尺度和多模态融合,但这无法捕获远程依赖性,因此对特征整体表征能力不足。针对此问题,提出一种全局-局部特征融合网络。在低层特征提取阶段,将两个分支特征直接融合;在高层特征提取阶段,将融合后特征送入Transformer编码器通过在所有位置同时整合多尺度和多模态的特征来进行充分的特征融合,获得全局特征依赖关系之后再送入主干网络提取全局—局部融合特征。同时提出双重注意力模块,用来增强两个分支特征的融合效果。在五个公开数据集上进行的实验表明,该网络在三个评价指标上均取得了较好的表现。 展开更多
关键词 rgb-d显著性检测 全局-局部特征 跨模态融合 多尺度 TRANSFORMER
在线阅读 下载PDF
基于RGB-D传感器的神经隐式语义SLAM系统
9
作者 唐敏璐 孙皇龙 +1 位作者 钱程 洪春华 《传感器与微系统》 北大核心 2025年第10期56-60,共5页
针对现有同步定位与地图构建(SLAM)系统在语义理解与场景重建方面的不足,提出了一种基于RGB-D传感器的神经隐式语义SLAM系统。该方法使用神经隐式表示的场景表征方式,通过层次语义表示实现场景的多粒度语义理解,并采用交叉注意力机制融... 针对现有同步定位与地图构建(SLAM)系统在语义理解与场景重建方面的不足,提出了一种基于RGB-D传感器的神经隐式语义SLAM系统。该方法使用神经隐式表示的场景表征方式,通过层次语义表示实现场景的多粒度语义理解,并采用交叉注意力机制融合外观、几何与语义特征,提升系统在单属性缺失时的鲁棒性,设计内部融合解码器生成语义、RGB和截断符号距离场(TSDF)多模态输出。实验表明,在Replica和ScanNet数据集上,本系统相较于主流方法,在跟踪精度提升32%、重建精度提升5%和语义分割提升10%,三方面均达到最优,同时支持8 Hz的实时语义建图。 展开更多
关键词 神经隐式表示 同步定位与地图构建 rgb-d传感器 层次语义表示 交叉注意力机制
在线阅读 下载PDF
基于改进YOLOv8s与RGB-D信息融合的番茄采摘机器人识别与定位方法
10
作者 樊湘鹏 张岩琪 +3 位作者 周硕 任美飞 王雨薇 柴秀娟 《农业工程学报》 北大核心 2025年第15期106-116,共11页
采摘机器人视觉感知系统是完成选择性收获的基本条件。针对在非结构设施环境中番茄特定种植模式约束下,现有采摘机器人果实识别与定位精度低导致的采收成功率不高等问题,该研究面向番茄采摘机器人性能提升,在自建数据集基础上,提出一种... 采摘机器人视觉感知系统是完成选择性收获的基本条件。针对在非结构设施环境中番茄特定种植模式约束下,现有采摘机器人果实识别与定位精度低导致的采收成功率不高等问题,该研究面向番茄采摘机器人性能提升,在自建数据集基础上,提出一种基于改进YOLOv8s和RGB-D多源信息融合感知的番茄采摘机器人识别与定位方法。首先,利用空间重构卷积单元和通道重构卷积单元进行串联组合构建空间和通道重建卷积结构实现轻量化目标;然后,在YOLOv8s颈部结构中引入SimAM三维注意力机制,使模型更加关注复杂环境下番茄的关键特征;最后使用MPDIoU损失改进损失函数,解决因果实重叠导致的检测帧失真问题,减少番茄的漏检现象。结果表明,相比于原始YOLOv8s模型,改进模型的平均精度均值(mAP_(50))由91.49%增加到95.81%,模型大小由22.5 M减小到17.6 M,推理时间也从10.6 ms减少到8.7 ms,与YOLOv5、YOLOv6、YOLOv7、YOLOv8、YOLOv9和YOLOv10系列模型相比,改进的YOLOv8s模型在识别精度、检测速度和计算效率上具有明显优势。在改进YOLOv8s模型基础上,将RGB图像与Depth图像信息配准并融合获取番茄中心点在空间中的位置坐标,利用RealSense D435 RGB-D相机和NVIDIA Jetson AGX Orin边缘设备构建视觉感知决策系统,自主开发了番茄采摘执行系统,并开展了定位精度和采摘抓取试验。单帧图像平均耗时50 ms,采摘抓取成功率为94.73%,损伤率仅为4.17%。该研究有效解决了果实采收机器人视觉感知环节面临的技术挑战,并且适合在性能受限设备上部署应用,可为番茄等果实采收机器人识别与定位提供关键技术支撑。 展开更多
关键词 采摘机器人 识别定位 YOLOv8s rgb-d 融合感知 番茄抓取
在线阅读 下载PDF
HDF+:一种新的RGB-D显著性目标检测网络模型
11
作者 吴映霓 闫河 +1 位作者 姜彬 蔡朝安 《小型微型计算机系统》 北大核心 2025年第7期1645-1651,共7页
用于显著性目标检测的HDFNet模型在其编码阶段和解码阶段均缺乏有效的特征信息表示能力,分别由于其编码阶段仅把RGB特征和Depth特征进行简单相加,且解码阶段在多次上采样中缺乏有效监督,从而导致检测精度有待进一步提升.本文提出了一种... 用于显著性目标检测的HDFNet模型在其编码阶段和解码阶段均缺乏有效的特征信息表示能力,分别由于其编码阶段仅把RGB特征和Depth特征进行简单相加,且解码阶段在多次上采样中缺乏有效监督,从而导致检测精度有待进一步提升.本文提出了一种新的RGB-D显著性目标检测模型HDF+.首先,在编码阶段构建了非对称融合模块,该模块通过非对称的方式融合RGB特征和Depth特征,有效利用RGB特征的语义信息及Depth特征的空间细节信息;其次,在解码阶段采用多个深度监督模块对网络进行监督训练,并在各监督层引入IoU损失作为前景损失替换原来的区域增强损失.对比实验结果表明,本文的方法优于主流的RGB-D显著性目标检测方法. 展开更多
关键词 rgb-d 显著性目标检测 非对称融合 深度监督
在线阅读 下载PDF
改进RHGSO-FC算法的RGB-D图像GMM聚类分割
12
作者 郭培岩 范九伦 刘恒 《计算机工程与应用》 北大核心 2025年第2期234-246,共13页
随着低成本深度图像传感器的引入,在RGB-D图像中进行可靠的图像分割是计算机视觉的一个目标,而如何对杂乱的场景进行图像分割具有挑战性。基于随机亨利气体溶解度优化算法的模糊聚类(RHGSO-FC),提出一种新的RGB-D图像分割方法。对亨利... 随着低成本深度图像传感器的引入,在RGB-D图像中进行可靠的图像分割是计算机视觉的一个目标,而如何对杂乱的场景进行图像分割具有挑战性。基于随机亨利气体溶解度优化算法的模糊聚类(RHGSO-FC),提出一种新的RGB-D图像分割方法。对亨利气体溶解度优化算法(HGSO)进行改进,提出改进的亨利气体溶解度优化算法(LRHGSO),并利用基于改进亨利气体溶解度优化算法的核模糊聚类(LRHGSO-KFC)生成初始化标签。将初始化标签传入到高斯混合(GMM)聚类中,得到多个聚类结果。最后对这些聚类结果通过聚集超像素方法进行分割合并,得到最终分割结果。实验数据集采用NYU depth V2室内图像,与现有的一些分割方法:阈值分割算法、硬C-均值、模糊C-均值、高斯混合聚类、核模糊聚类、模糊子空间聚类、混沌Kbest引力搜索算法和随机亨利气体溶解度优化算法进行比较,结果表明提出的RGB-D分割算法优于其他比较的算法。 展开更多
关键词 rgb-d图像分割 核模糊聚类 亨利气体溶解度优化算法 高斯混合模型 聚集超像素
在线阅读 下载PDF
基于多尺度模态融合的RGB-D显著性目标检测网络
13
作者 于明 唐世辰 刘依 《计算机应用研究》 北大核心 2025年第11期3506-3511,共6页
显著性目标检测任务旨在自动定位场景中最吸引人的物体。针对显著性目标检测算法中跨模态互补特征难以充分利用和层级特征融合易丢失有用信息的问题,提出一种基于多尺度模态融合的RGB-D显著性目标检测网络(MMFNet)。该模型主要由多尺度... 显著性目标检测任务旨在自动定位场景中最吸引人的物体。针对显著性目标检测算法中跨模态互补特征难以充分利用和层级特征融合易丢失有用信息的问题,提出一种基于多尺度模态融合的RGB-D显著性目标检测网络(MMFNet)。该模型主要由多尺度模态增强模块和并行多层解码结构组成。多尺度模态增强模块以空洞卷积细化多模态特征,通过注意力机制融合不同感受野特征减少冗余信息。并行多层解码结构采用级联的双解码器设计,以通道注意力机制实现层级特征的自适应校准,进一步优化预测的显著图,学习到更多的跨层级信息。在四个基准数据集上的实验表明,该网络模型在四种评价指标上优于近年来的九种先进方法,获得了优异的性能。 展开更多
关键词 rgb-d显著性目标检测 多尺度模态增强 注意力机制 并行多层解码
在线阅读 下载PDF
基于稀疏对比自蒸馏的RGB-D显著性物体检测
14
作者 于洋洋 吴敦全 陈程立诏 《计算机工程》 北大核心 2025年第10期327-335,共9页
近年来,红绿蓝-深度(RGB-D)显著性目标检测技术取得了巨大进展,性能得到显著提高。然而,该技术依赖于复杂且资源密集的网络架构,无法应用于资源受限环境。虽然,轻量级网络在尺寸和速度上有所改善,但往往以牺牲性能为代价。为了克服上述... 近年来,红绿蓝-深度(RGB-D)显著性目标检测技术取得了巨大进展,性能得到显著提高。然而,该技术依赖于复杂且资源密集的网络架构,无法应用于资源受限环境。虽然,轻量级网络在尺寸和速度上有所改善,但往往以牺牲性能为代价。为了克服上述限制,提出了一种新颖的轻量化解决方案,以实现网络参数的精简和性能的提升。本文提供了一种有效的通用训练策略,提出稀疏对比自蒸馏技术。该技术旨在对现有的RGB-D显著性检测模型进行压缩和加速,同时增强模型性能。本文方法由两个关键技术组成:稀疏自蒸馏和对抗性对比学习。稀疏自蒸馏排除显著性检测模型中的非必要参数,同时保留关键参数,从而实现更高效和有效的显著性预测。而对抗性对比学习通过纠正潜在错误,进一步完善自蒸馏过程,以提高模型的整体性能。在NJUD、NLPR、LFSD、ReDWeb-S和COME15K等基准数据集上的实验结果显示,与现有SOTA(State-of-The-Art)方法相比,本文方法能够产生更为准确的显著性检测结果。此外,本文方法与现有SOTA轻量级RGB-D显著性检测模型的比较结果进一步证实了本文方法在不牺牲性能的前提下能够在模型尺寸减小和性能提升之间实现平衡。 展开更多
关键词 红绿蓝-深度(rgb-d)显著性目标检测 稀疏自蒸馏 对比学习
在线阅读 下载PDF
基于RGB-D的肉牛图像全卷积网络语义分割优化 被引量:11
15
作者 邓寒冰 周云成 +2 位作者 许童羽 苗腾 徐静 《农业工程学报》 EI CAS CSCD 北大核心 2019年第18期151-160,共10页
基于卷积神经网络的深度学习模型已越来越多的应用于检测肉牛行为。利用卷积操作实现肉牛图像的像素级分割有助于实现远距离、无接触、自动化的检测肉牛行为,为肉牛异常行为早期发现提供必要手段。为了提高复杂背景下肉牛图像语义分割精... 基于卷积神经网络的深度学习模型已越来越多的应用于检测肉牛行为。利用卷积操作实现肉牛图像的像素级分割有助于实现远距离、无接触、自动化的检测肉牛行为,为肉牛异常行为早期发现提供必要手段。为了提高复杂背景下肉牛图像语义分割精度,降低上采样过程中的语义分割误差,该文提出基于RGB-D的肉牛图像全卷积网络(fully convolutional networks,FCN)的语义分割优化方法,用深度密度值来量化深度图像中不同像素点是否属于相同类型的概率,并根据深度图像与彩色图像在内容上的互补关系,优化和提升FCN对肉牛图像的语义分割(像素密集预测)精度。通过试验验证,该方法与全卷积网络的最优分割结果相比,可以将统计像素准确率平均提高2.5%,类别平均准确率平均提升2.3%,平均区域重合度平均提升3.4%,频率加权区域重合度平均提升2.7%。试验证明,该方法可以提升全卷积网络模型在复杂背景下肉牛图像语义分割精度。 展开更多
关键词 图像处理 模型 动物 语义分割 rgb-d 全卷积网络 多模态 肉牛图像
在线阅读 下载PDF
基于RGB-D相机的黄瓜苗3D表型高通量测量系统研究 被引量:15
16
作者 徐胜勇 李磊 +3 位作者 童辉 王成超 别之龙 黄远 《农业机械学报》 EI CAS CSCD 北大核心 2023年第7期204-213,281,共11页
传统的人工种苗表型测量方式存在效率低、主观性强、误差大、破坏种苗等问题,提出了一种使用RGB-D相机的黄瓜苗表型无损测量方法。研制了自动化多视角图像采集平台,布署两台Azure Kinect相机同时拍摄俯视和侧视两个视角的彩色、深度、... 传统的人工种苗表型测量方式存在效率低、主观性强、误差大、破坏种苗等问题,提出了一种使用RGB-D相机的黄瓜苗表型无损测量方法。研制了自动化多视角图像采集平台,布署两台Azure Kinect相机同时拍摄俯视和侧视两个视角的彩色、深度、红外和RGB-D对齐图像。使用Mask R-CNN网络分割近红外图像中的叶片和茎秆,再与对齐图进行掩膜,消除了对齐图中的背景噪声与重影并得到叶片和茎秆器官的对齐图像。网络实例分割结果的类别和数量即为子叶和真叶的数量。使用CycleGAN网络处理单个叶片的对齐图,对缺失部分进行修补并转换为3D点云,再对点云进行滤波实现保边去噪,最后对点云进行三角化测量叶面积。在Mask R-CNN分割得到的茎秆对齐图像中,利用茎秆的近似矩形特征,分别计算茎秆的长和宽,再结合深度信息转换为下胚轴长和茎粗。使用YOLO v5s检测对齐图中的黄瓜苗生长点,利用生长点与基质的高度差计算株高。实验结果表明,该系统具有很好的通量和精度,对子叶时期、1叶1心时期和2叶1心时期的黄瓜苗关键表型测量平均绝对误差均不高于8.59%、R2不低于0.83,可以很好地替代人工测量方式,为品种选育、栽培管理、生长建模等研究提供关键基础数据。 展开更多
关键词 黄瓜苗 表型 rgb-d相机 深度学习
在线阅读 下载PDF
基于双金字塔网络的RGB-D群猪图像分割方法 被引量:12
17
作者 高云 廖慧敏 +3 位作者 黎煊 雷明刚 余梅 李小平 《农业机械学报》 EI CAS CSCD 北大核心 2020年第7期36-43,共8页
为实现群养猪的视觉追踪和行为监测,针对猪舍中仔猪因拥挤堆叠等习性而导致的目标个体粘连、图像分割困难问题,提出基于双金字塔网络的RGBD群猪图像分割方法。该方法基于实例分割Mask R-CNN框架,在特征提取网络(ResNet101)基础上改进成... 为实现群养猪的视觉追踪和行为监测,针对猪舍中仔猪因拥挤堆叠等习性而导致的目标个体粘连、图像分割困难问题,提出基于双金字塔网络的RGBD群猪图像分割方法。该方法基于实例分割Mask R-CNN框架,在特征提取网络(ResNet101)基础上改进成双金字塔特征提取网络。RGB图像和Depth图像分别提取特征后进行融合,输入区域生成网络得到预选锚(ROI)和共享特征输入Head网络,通过类别、回归和掩模3个分支,输出检测目标的位置和分类结果,实现猪舍场景下群养仔猪粘连区域的有效个体分割。网络模型训练采用2000组图像样本,按照4∶1比例随机划分训练集和验证集。试验结果表明,双金字塔网络(Feature pyramid networks,FPN)能有效解决颜色相近、个体相似的群猪粘连问题,实现单个仔猪区域的完整分割,分割准确率达89.25%,训练GPU占有率为77.57%,与Mask R-CNN和PigNet网络分割结果相比,分割准确率和分割速度均有较大提高。双金字塔网络模型对于多种行为状态、不同粘连程度的群猪图像中个体分割都取得了良好效果,模型泛化性和鲁棒性较好,为群养猪的个体自动追踪提供了新的途径。 展开更多
关键词 群养猪 rgb-d 双金字塔网络 特征融合 深度学习
在线阅读 下载PDF
基于RGB-D信息融合和目标检测的番茄串采摘点识别定位方法 被引量:33
18
作者 张勤 陈建敏 +1 位作者 李彬 徐灿 《农业工程学报》 EI CAS CSCD 北大核心 2021年第18期143-152,共10页
采摘点的识别与定位是智能采摘的关键技术,也是实现高效、适时、无损采摘的重要保证。针对复杂背景下番茄串采摘点识别定位问题,提出基于RGB-D信息融合和目标检测的番茄串采摘点识别定位方法。通过YOLOv4目标检测算法和番茄串与对应果... 采摘点的识别与定位是智能采摘的关键技术,也是实现高效、适时、无损采摘的重要保证。针对复杂背景下番茄串采摘点识别定位问题,提出基于RGB-D信息融合和目标检测的番茄串采摘点识别定位方法。通过YOLOv4目标检测算法和番茄串与对应果梗的连通关系,快速识别番茄串和可采摘果梗的感兴趣区域(Region of Interest,ROI);融合RGB-D图像中的深度信息和颜色特征识别采摘点,通过深度分割算法、形态学操作、K-means聚类算法和细化算法提取果梗图像,得到采摘点的图像坐标;匹配果梗深度图和彩色图信息,得到采摘点在相机坐标系下的精确坐标;引导机器人完成采摘任务。研究和大量现场试验结果表明,该方法可在复杂近色背景下,实现番茄串采摘点识别定位,单帧图像平均识别时间为54 ms,采摘点识别成功率为93.83%,采摘点深度误差±3 mm,满足自动采摘实时性要求。 展开更多
关键词 图像识别 对象识别 提取 番茄串 rgb-d图像 信息融合 目标检测 采摘点
在线阅读 下载PDF
RGB-D行为识别研究进展及展望 被引量:15
19
作者 胡建芳 王熊辉 +1 位作者 郑伟诗 赖剑煌 《自动化学报》 EI CSCD 北大核心 2019年第5期829-840,共12页
行为识别是计算机视觉领域很重要的一个研究问题,其在安全监控、机器人设计、无人驾驶和智能家庭设计等方面都有着非常重要的应用.基于传统RGB视频的行为识别方法由于容易受背景、光照等行为无关因素的影响,导致识别精度不高.廉价RGB-D... 行为识别是计算机视觉领域很重要的一个研究问题,其在安全监控、机器人设计、无人驾驶和智能家庭设计等方面都有着非常重要的应用.基于传统RGB视频的行为识别方法由于容易受背景、光照等行为无关因素的影响,导致识别精度不高.廉价RGB-D摄像头出现之后,人们开始从一个新的途径解决行为识别问题.基于RGB-D摄像头的行为识别通过聚合RGB、深度和骨架三种模态的行为数据,可以融合不同模态的行为信息,从而可以克服传统RGB视频行为识别的缺陷,也因此成为近几年的一个研究热点.本文系统地综述了RGB-D行为识别领域的研究进展和展望.首先,对近年来RGB-D行为识别领域中常用的公共数据集进行简要的介绍;同时也系统地介绍了多模态RGB-D行为识别研究领域的典型模型和最新进展,其中包括卷积神经网络(Convolution neural network, CNN)和循环神经网络(Recurrent neural network, RNN)等深度学习技术在RGB-D行为识别的应用;最后,在三个公共RGB-D行为数据库上对现有方法的优缺点进行了比较和分析,并对未来的相关研究进行了展望. 展开更多
关键词 rgb-d 行为识别 骨架点 深度学习
在线阅读 下载PDF
基于贝叶斯框架融合的RGB-D图像显著性检测 被引量:5
20
作者 王松涛 周真 +1 位作者 靳薇 曲寒冰 《自动化学报》 EI CSCD 北大核心 2020年第4期695-720,共26页
为了有效融合RGB图像颜色信息和Depth图像深度信息,提出一种基于贝叶斯框架融合的RGB-D图像显著性检测方法.通过分析3D显著性在RGB图像和Depth图像分布的情况,采用类条件互信息熵(Class-conditional mutual information, CMI)度量由深... 为了有效融合RGB图像颜色信息和Depth图像深度信息,提出一种基于贝叶斯框架融合的RGB-D图像显著性检测方法.通过分析3D显著性在RGB图像和Depth图像分布的情况,采用类条件互信息熵(Class-conditional mutual information, CMI)度量由深层卷积神经网络提取的颜色特征和深度特征的相关性,依据贝叶斯定理得到RGB-D图像显著性后验概率.假设颜色特征和深度特征符合高斯分布,基于DMNB (Discriminative mixed-membership naive Bayes)生成模型进行显著性检测建模,其模型参数由变分最大期望算法进行估计.在RGB-D图像显著性检测公开数据集NLPR和NJU-DS2000上测试,实验结果表明提出的方法具有更高的准确率和召回率. 展开更多
关键词 贝叶斯融合 深度学习 生成模型 显著性检测 rgb-d图像
在线阅读 下载PDF
上一页 1 2 11 下一页 到第
使用帮助 返回顶部