期刊导航
期刊开放获取
上海教育软件发展有限公..
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
3
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
无人机目标检测多深度混合特征域泛化方法研究
1
作者
王宝亮
姜智
+4 位作者
王健
张宝
马振宇
王博航
于海松
《兵器装备工程学报》
CSCD
北大核心
2024年第S2期295-302,共8页
由于当前无人机目标检测模型与频域等特征的关联能力弱、真实世界场景下知识迁移困难等,导致了模型泛化能力差,提出了一种无人机目标检测的多深度混合特征域泛化方法,强化了不同类型特征间的关联性提高了目标检测模型的泛化能力。提出...
由于当前无人机目标检测模型与频域等特征的关联能力弱、真实世界场景下知识迁移困难等,导致了模型泛化能力差,提出了一种无人机目标检测的多深度混合特征域泛化方法,强化了不同类型特征间的关联性提高了目标检测模型的泛化能力。提出了针对频域混合特征的混合特征融合方法,可对混合特征数据间的数据关联进行有效强化。为了降低域偏移对模型泛化性的影响,设计了针对多特征域解耦的混合特征多深度跳跃式融合编解码网络。相较于现有方法,可有效处理真实世界未见场景中的无人机目标检测,检测精度有明显提升。
展开更多
关键词
无人机目标检测
域泛化
频域特征
混合特征融合
多深度分层编码
在线阅读
下载PDF
职称材料
面向RGB-D场景解析的三维空间结构化编码深度网络
被引量:
1
2
作者
王泽宇
吴艳霞
+1 位作者
张国印
布树辉
《计算机应用》
CSCD
北大核心
2017年第12期3458-3466,共9页
有效的RGB-D图像特征提取和准确的3D空间结构化学习是提升RGB-D场景解析结果的关键。目前,全卷积神经网络(FCNN)具有强大的特征提取能力,但是,该网络无法充分地学习3D空间结构化信息。为此,提出了一种新颖的三维空间结构化编码深度网络...
有效的RGB-D图像特征提取和准确的3D空间结构化学习是提升RGB-D场景解析结果的关键。目前,全卷积神经网络(FCNN)具有强大的特征提取能力,但是,该网络无法充分地学习3D空间结构化信息。为此,提出了一种新颖的三维空间结构化编码深度网络,内嵌的结构化学习层有机地结合了图模型网络和空间结构化编码算法。该算法能够比较准确地学习和描述物体所处3D空间的物体分布。通过该深度网络,不仅能够提取包含多层形状和深度信息的分层视觉特征(HVF)和分层深度特征(HDF),而且可以生成包含3D结构化信息的空间关系特征,进而得到融合上述3类特征的混合特征,从而能够更准确地表达RGB-D图像的语义信息。实验结果表明,在NYUDv2和SUNRGBD标准RGB-D数据集上,该深度网络较现有先进的场景解析方法能够显著提升RGB-D场景解析的结果。
展开更多
关键词
全卷积神经网络
图模型
空间结构化编码算法
分层视觉特征
分层深度特征
空间关系特征
混合特征
在线阅读
下载PDF
职称材料
基于深度质量感知和分层特征引导的RGB⁃D显著性检测
被引量:
1
3
作者
宋梦柯
郑元超
陈程立诏
《计算机工程》
CAS
CSCD
北大核心
2023年第5期255-261,268,共8页
现有基于融合的RGB-D显著性物体检测方法在对跨模态特征进行融合时忽视了RGB和深度图两模态特征的差异性,跨模态特征融合不均衡的问题使得模型不能充分利用跨模态互补特征,而低质量深度图也会对模型性能带来损害。提出一种基于深度质量...
现有基于融合的RGB-D显著性物体检测方法在对跨模态特征进行融合时忽视了RGB和深度图两模态特征的差异性,跨模态特征融合不均衡的问题使得模型不能充分利用跨模态互补特征,而低质量深度图也会对模型性能带来损害。提出一种基于深度质量感知和分层特征引导的RGB-D显著性物体检测算法。算法分为两个阶段:深度质量感知阶段和分层特征引导阶段。在第一阶段,利用深度质量感知从现有的主流RGB-D显著性物体检测训练数据集中挖掘高质量深度图,对训练集进行增强,提升低质量深度图的质量,减少噪声数据对模型性能的损害;在第二阶段,利用特征引导网络对RGB图和深度图进行分层自适应权重动态融合,在有效增加融合效率的同时增强跨模态融合的感知能力。在基准数据集NJUD、NLPR、SSD、STEREO和SIP上的实验结果表明,相比于SSF、CDNet、D3Net、DASNet等方法,该算法能够大幅提升深度图质量,其中在NLPR数据集上F-Measure值为0.934,MAE仅为0.020,综合性能优于其他相关SOTA方法,证明了先挖掘高质量深度图再进行跨模态自适应动态融合算法的有效性。
展开更多
关键词
深度质量感知
特征引导
跨模态融合
分层融合
RGB-D显著性检测
在线阅读
下载PDF
职称材料
题名
无人机目标检测多深度混合特征域泛化方法研究
1
作者
王宝亮
姜智
王健
张宝
马振宇
王博航
于海松
机构
西安现代控制技术研究所
出处
《兵器装备工程学报》
CSCD
北大核心
2024年第S2期295-302,共8页
文摘
由于当前无人机目标检测模型与频域等特征的关联能力弱、真实世界场景下知识迁移困难等,导致了模型泛化能力差,提出了一种无人机目标检测的多深度混合特征域泛化方法,强化了不同类型特征间的关联性提高了目标检测模型的泛化能力。提出了针对频域混合特征的混合特征融合方法,可对混合特征数据间的数据关联进行有效强化。为了降低域偏移对模型泛化性的影响,设计了针对多特征域解耦的混合特征多深度跳跃式融合编解码网络。相较于现有方法,可有效处理真实世界未见场景中的无人机目标检测,检测精度有明显提升。
关键词
无人机目标检测
域泛化
频域特征
混合特征融合
多深度分层编码
Keywords
UAV-OD
domain generalization
frequency domain characteristics
mix
feature
fusion
multi-
depth
hierarchical
coding
分类号
TJ02 [兵器科学与技术—兵器发射理论与技术]
TP399 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
面向RGB-D场景解析的三维空间结构化编码深度网络
被引量:
1
2
作者
王泽宇
吴艳霞
张国印
布树辉
机构
哈尔滨工程大学计算机科学与技术学院
西北工业大学航空学院
出处
《计算机应用》
CSCD
北大核心
2017年第12期3458-3466,共9页
基金
国家重点研发计划项目(2016YFB1000400)
国家自然科学基金资助项目(60903098)
中央高校自由探索基金资助项目(HEUCF100606)~~
文摘
有效的RGB-D图像特征提取和准确的3D空间结构化学习是提升RGB-D场景解析结果的关键。目前,全卷积神经网络(FCNN)具有强大的特征提取能力,但是,该网络无法充分地学习3D空间结构化信息。为此,提出了一种新颖的三维空间结构化编码深度网络,内嵌的结构化学习层有机地结合了图模型网络和空间结构化编码算法。该算法能够比较准确地学习和描述物体所处3D空间的物体分布。通过该深度网络,不仅能够提取包含多层形状和深度信息的分层视觉特征(HVF)和分层深度特征(HDF),而且可以生成包含3D结构化信息的空间关系特征,进而得到融合上述3类特征的混合特征,从而能够更准确地表达RGB-D图像的语义信息。实验结果表明,在NYUDv2和SUNRGBD标准RGB-D数据集上,该深度网络较现有先进的场景解析方法能够显著提升RGB-D场景解析的结果。
关键词
全卷积神经网络
图模型
空间结构化编码算法
分层视觉特征
分层深度特征
空间关系特征
混合特征
Keywords
Fully Convolutional Neural Network (FCNN)
graphical model
spatial structured encoding algorithm
hierarchical
Visual
feature
(HVF)
hierarchical depth feature (hdf)
spatial structure
feature
hybrid
feature
分类号
TP391.413 [自动化与计算机技术—计算机应用技术]
TP18 [自动化与计算机技术—控制理论与控制工程]
在线阅读
下载PDF
职称材料
题名
基于深度质量感知和分层特征引导的RGB⁃D显著性检测
被引量:
1
3
作者
宋梦柯
郑元超
陈程立诏
机构
青岛大学计算机科学技术学院
出处
《计算机工程》
CAS
CSCD
北大核心
2023年第5期255-261,268,共8页
基金
山东省自然科学基金博士项目(ZR2019BF011)。
文摘
现有基于融合的RGB-D显著性物体检测方法在对跨模态特征进行融合时忽视了RGB和深度图两模态特征的差异性,跨模态特征融合不均衡的问题使得模型不能充分利用跨模态互补特征,而低质量深度图也会对模型性能带来损害。提出一种基于深度质量感知和分层特征引导的RGB-D显著性物体检测算法。算法分为两个阶段:深度质量感知阶段和分层特征引导阶段。在第一阶段,利用深度质量感知从现有的主流RGB-D显著性物体检测训练数据集中挖掘高质量深度图,对训练集进行增强,提升低质量深度图的质量,减少噪声数据对模型性能的损害;在第二阶段,利用特征引导网络对RGB图和深度图进行分层自适应权重动态融合,在有效增加融合效率的同时增强跨模态融合的感知能力。在基准数据集NJUD、NLPR、SSD、STEREO和SIP上的实验结果表明,相比于SSF、CDNet、D3Net、DASNet等方法,该算法能够大幅提升深度图质量,其中在NLPR数据集上F-Measure值为0.934,MAE仅为0.020,综合性能优于其他相关SOTA方法,证明了先挖掘高质量深度图再进行跨模态自适应动态融合算法的有效性。
关键词
深度质量感知
特征引导
跨模态融合
分层融合
RGB-D显著性检测
Keywords
depth
quality perception
feature
guidance
cross-modal fusion
hierarchical
fusion
RGB-D saliency detection
分类号
TP391 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
无人机目标检测多深度混合特征域泛化方法研究
王宝亮
姜智
王健
张宝
马振宇
王博航
于海松
《兵器装备工程学报》
CSCD
北大核心
2024
0
在线阅读
下载PDF
职称材料
2
面向RGB-D场景解析的三维空间结构化编码深度网络
王泽宇
吴艳霞
张国印
布树辉
《计算机应用》
CSCD
北大核心
2017
1
在线阅读
下载PDF
职称材料
3
基于深度质量感知和分层特征引导的RGB⁃D显著性检测
宋梦柯
郑元超
陈程立诏
《计算机工程》
CAS
CSCD
北大核心
2023
1
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部