期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
无人机目标检测多深度混合特征域泛化方法研究
1
作者 王宝亮 姜智 +4 位作者 王健 张宝 马振宇 王博航 于海松 《兵器装备工程学报》 CSCD 北大核心 2024年第S2期295-302,共8页
由于当前无人机目标检测模型与频域等特征的关联能力弱、真实世界场景下知识迁移困难等,导致了模型泛化能力差,提出了一种无人机目标检测的多深度混合特征域泛化方法,强化了不同类型特征间的关联性提高了目标检测模型的泛化能力。提出... 由于当前无人机目标检测模型与频域等特征的关联能力弱、真实世界场景下知识迁移困难等,导致了模型泛化能力差,提出了一种无人机目标检测的多深度混合特征域泛化方法,强化了不同类型特征间的关联性提高了目标检测模型的泛化能力。提出了针对频域混合特征的混合特征融合方法,可对混合特征数据间的数据关联进行有效强化。为了降低域偏移对模型泛化性的影响,设计了针对多特征域解耦的混合特征多深度跳跃式融合编解码网络。相较于现有方法,可有效处理真实世界未见场景中的无人机目标检测,检测精度有明显提升。 展开更多
关键词 无人机目标检测 域泛化 频域特征 混合特征融合 多深度分层编码
在线阅读 下载PDF
面向RGB-D场景解析的三维空间结构化编码深度网络 被引量:1
2
作者 王泽宇 吴艳霞 +1 位作者 张国印 布树辉 《计算机应用》 CSCD 北大核心 2017年第12期3458-3466,共9页
有效的RGB-D图像特征提取和准确的3D空间结构化学习是提升RGB-D场景解析结果的关键。目前,全卷积神经网络(FCNN)具有强大的特征提取能力,但是,该网络无法充分地学习3D空间结构化信息。为此,提出了一种新颖的三维空间结构化编码深度网络... 有效的RGB-D图像特征提取和准确的3D空间结构化学习是提升RGB-D场景解析结果的关键。目前,全卷积神经网络(FCNN)具有强大的特征提取能力,但是,该网络无法充分地学习3D空间结构化信息。为此,提出了一种新颖的三维空间结构化编码深度网络,内嵌的结构化学习层有机地结合了图模型网络和空间结构化编码算法。该算法能够比较准确地学习和描述物体所处3D空间的物体分布。通过该深度网络,不仅能够提取包含多层形状和深度信息的分层视觉特征(HVF)和分层深度特征(HDF),而且可以生成包含3D结构化信息的空间关系特征,进而得到融合上述3类特征的混合特征,从而能够更准确地表达RGB-D图像的语义信息。实验结果表明,在NYUDv2和SUNRGBD标准RGB-D数据集上,该深度网络较现有先进的场景解析方法能够显著提升RGB-D场景解析的结果。 展开更多
关键词 全卷积神经网络 图模型 空间结构化编码算法 分层视觉特征 分层深度特征 空间关系特征 混合特征
在线阅读 下载PDF
基于深度质量感知和分层特征引导的RGB⁃D显著性检测 被引量:1
3
作者 宋梦柯 郑元超 陈程立诏 《计算机工程》 CAS CSCD 北大核心 2023年第5期255-261,268,共8页
现有基于融合的RGB-D显著性物体检测方法在对跨模态特征进行融合时忽视了RGB和深度图两模态特征的差异性,跨模态特征融合不均衡的问题使得模型不能充分利用跨模态互补特征,而低质量深度图也会对模型性能带来损害。提出一种基于深度质量... 现有基于融合的RGB-D显著性物体检测方法在对跨模态特征进行融合时忽视了RGB和深度图两模态特征的差异性,跨模态特征融合不均衡的问题使得模型不能充分利用跨模态互补特征,而低质量深度图也会对模型性能带来损害。提出一种基于深度质量感知和分层特征引导的RGB-D显著性物体检测算法。算法分为两个阶段:深度质量感知阶段和分层特征引导阶段。在第一阶段,利用深度质量感知从现有的主流RGB-D显著性物体检测训练数据集中挖掘高质量深度图,对训练集进行增强,提升低质量深度图的质量,减少噪声数据对模型性能的损害;在第二阶段,利用特征引导网络对RGB图和深度图进行分层自适应权重动态融合,在有效增加融合效率的同时增强跨模态融合的感知能力。在基准数据集NJUD、NLPR、SSD、STEREO和SIP上的实验结果表明,相比于SSF、CDNet、D3Net、DASNet等方法,该算法能够大幅提升深度图质量,其中在NLPR数据集上F-Measure值为0.934,MAE仅为0.020,综合性能优于其他相关SOTA方法,证明了先挖掘高质量深度图再进行跨模态自适应动态融合算法的有效性。 展开更多
关键词 深度质量感知 特征引导 跨模态融合 分层融合 RGB-D显著性检测
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部