期刊文献+
共找到402篇文章
< 1 2 21 >
每页显示 20 50 100
基于深度学习的RGB-D图像显著性目标检测前沿进展
1
作者 黄年昌 杨阳 +1 位作者 张强 韩军功 《计算机学报》 北大核心 2025年第2期284-316,共33页
显著性目标检测是计算机视觉领域的基础问题之一,旨在对图像中最吸引人注意的目标进行检测和分割。随着深度学习技术的发展,基于RGB(Red-Green-Blue)图像的显著性目标检测算法取得了巨大进步,在简单场景下已经取得较为满意的结果。然而... 显著性目标检测是计算机视觉领域的基础问题之一,旨在对图像中最吸引人注意的目标进行检测和分割。随着深度学习技术的发展,基于RGB(Red-Green-Blue)图像的显著性目标检测算法取得了巨大进步,在简单场景下已经取得较为满意的结果。然而,局限于可见光相机的成像能力,RGB图像易受到光照条件的影响,且无法捕捉场景的三维空间信息。相应地,基于RGB图像的显著性目标检测算法通常难以在一些复杂场景下取得较好的检测效果。近年来,随着深度成像技术不断发展和硬件成本不断降低,深度相机得到了广泛应用。其捕获的场景空间信息,与可见光图像获取的场景细节信息相互补充,有助于提升复杂场景下显著性目标检测性能。因此,RGB-深度(RGB-Depth,RGB-D)图像显著性目标检测引起了学者广泛研究。本文对近期基于深度学习的RGB-D图像显著性目标检测算法进行了整理和分析。首先,分析了多模态RGB-D图像显著性目标检测所面临的关键问题,并以此对现有算法解决这些关键问题的主要思路和方法进行了总结和梳理。然后,介绍了用于RGB-D图像显著性目标检测算法研究的主流数据集和常用性能评价指标,并对各类主流模型进行了定量比较和定性分析。最后,本文进一步分析了RGB-D图像显著性目标检测领域有待解决的问题,同时对今后可能的研究趋势进行了展望。 展开更多
关键词 显著目标检测 rgb图像 深度图像 深度学习 多模态图像处理
在线阅读 下载PDF
RGB深度图像显著性目标检测方法设计
2
作者 王雨夕 徐杨 袁旭祥 《液晶与显示》 北大核心 2025年第4期607-616,共10页
为了高效利用深度特征信息辅助显著性检测,实现对不同尺度特征信息的融合,本文提出了一种基于CDINet算法改进的RGB-D图像显著性目标检测算法。首先,添加了多尺度特征融合模块用来加强编码器和解码器之间特征信息的传输,有效减少浅层特... 为了高效利用深度特征信息辅助显著性检测,实现对不同尺度特征信息的融合,本文提出了一种基于CDINet算法改进的RGB-D图像显著性目标检测算法。首先,添加了多尺度特征融合模块用来加强编码器和解码器之间特征信息的传输,有效减少浅层特征丢失,通过辅助解码器的跳跃连接获得更多的显著物体的特征信息。接着,在CDINet的网络结构尾部连接了一个循环注意力模块,通过使用面向记忆的场景理解功能,逐渐优化局部细节。最后,对损失函数进行调整,使用一致性增强损失(CEL)处理因为不同尺度特征融合产生的空间一致性等问题,并在不增加参数的情况下均匀突出显著区域。实验结果表明,改进后的模型与原CDINet算法模型相比,在LFSD数据集上的F-measure提高了0.6%,MAE下降了0.4%;在STERE数据集上的F-measure提高了0.4%,S-measure提升了0.5%。相对于其他算法模型,本模型基本满足检测性能更好、适应性更高等要求。 展开更多
关键词 显著目标检测 计算机视觉 边缘检测 深度学习
在线阅读 下载PDF
RGB-T显著性目标检测综述
3
作者 吴锦涛 王安志 任春洪 《红外技术》 北大核心 2025年第1期1-9,共9页
除RGB图像外,热红外图像也能提取出对显著性目标检测至关重要的显著性信息。热红外图像随着红外传感设备的发展和普及已经变得易于获取,RGB-T显著性目标检测已成为了热门研究领域,但目前仍缺少对现有方法全面的综述。首先介绍了基于机... 除RGB图像外,热红外图像也能提取出对显著性目标检测至关重要的显著性信息。热红外图像随着红外传感设备的发展和普及已经变得易于获取,RGB-T显著性目标检测已成为了热门研究领域,但目前仍缺少对现有方法全面的综述。首先介绍了基于机器学习的RGB-T显著性目标检测方法,然后着重介绍了两类基于深度学习的RGB-T显著性目标检测方法:基于卷积神经网络和基于Vision Transformer的方法。随后对相关数据集和评价指标进行介绍,并在这些数据集上对代表性的方法进行了定性和定量的比较分析。最后对RGB-T显著性目标检测面临的挑战及未来的发展方向进行了总结与展望。 展开更多
关键词 显著目标检测 热红外图像 rgb-T显著目标检测 深度学习
在线阅读 下载PDF
HDF+:一种新的RGB-D显著性目标检测网络模型
4
作者 吴映霓 闫河 +1 位作者 姜彬 蔡朝安 《小型微型计算机系统》 北大核心 2025年第7期1645-1651,共7页
用于显著性目标检测的HDFNet模型在其编码阶段和解码阶段均缺乏有效的特征信息表示能力,分别由于其编码阶段仅把RGB特征和Depth特征进行简单相加,且解码阶段在多次上采样中缺乏有效监督,从而导致检测精度有待进一步提升.本文提出了一种... 用于显著性目标检测的HDFNet模型在其编码阶段和解码阶段均缺乏有效的特征信息表示能力,分别由于其编码阶段仅把RGB特征和Depth特征进行简单相加,且解码阶段在多次上采样中缺乏有效监督,从而导致检测精度有待进一步提升.本文提出了一种新的RGB-D显著性目标检测模型HDF+.首先,在编码阶段构建了非对称融合模块,该模块通过非对称的方式融合RGB特征和Depth特征,有效利用RGB特征的语义信息及Depth特征的空间细节信息;其次,在解码阶段采用多个深度监督模块对网络进行监督训练,并在各监督层引入IoU损失作为前景损失替换原来的区域增强损失.对比实验结果表明,本文的方法优于主流的RGB-D显著性目标检测方法. 展开更多
关键词 rgb-D 显著目标检测 非对称融合 深度监督
在线阅读 下载PDF
多尺度特征融合的RGB-D图像显著性目标检测 被引量:1
5
作者 王震 于万钧 陈颖 《计算机工程与应用》 CSCD 北大核心 2024年第11期242-250,共9页
显著性目标检测是计算机视觉的一个基础问题,目前很多基于深度学习的显著性检测方法都是将RGB图像和深度图按照输入融合或结果融合的方法进行特征融合,但这些方法并不能有效地融合特征图,为了提升显著性目标检测算法性能,提出了一种多... 显著性目标检测是计算机视觉的一个基础问题,目前很多基于深度学习的显著性检测方法都是将RGB图像和深度图按照输入融合或结果融合的方法进行特征融合,但这些方法并不能有效地融合特征图,为了提升显著性目标检测算法性能,提出了一种多尺度特征融合的RGB-D图像显著性目标检测方法。将模型主体设计为两个特征编码器、两个特征解码器和一个跨模特多尺度特征交错融合模块。两个特征编码器分别对应RGB图和深度图,其采用经过ImageNet数据集预训练的ResNet50网络,特征解码器用于解码编码器的五种不同尺度的输出,跨模态多尺度特征交错融合模块用于融合解码器和编码器提取的不同尺度的特征图,并将五个层次的融合结果进行拼接和降维,输出最终的显著性预测图。实验在四个公开的显著性数据集上与以往具有代表性的十个模型进行了比较,该模型在各个数据集上,相比于性能第二的模型,S-measure平均提高了0.391%,MAE平均减少了0.330%,F-measure平均减少了0.405%。提出了一种多尺度特征融合模型,摒弃了以往融合的方式,采用特征融合,将浅层和深层的特征分别进行交错融合,实验表明,提出的方法较以往的方法有更强的性能,能够取得更好的效果。 展开更多
关键词 显著物体检测 多模图像融合 多支路协同预测 多尺度特征
在线阅读 下载PDF
场景结构知识增强的协同显著性目标检测 被引量:1
6
作者 胡升龙 陈彬 +1 位作者 张开华 宋慧慧 《计算机工程》 北大核心 2025年第1期31-41,共11页
现有的协同显著性目标检测(CoSOD)方法通过挖掘组内一致性与组间差异性来学习判别性表征,这种范式因缺乏语义标签的引导导致所学表征的判别性受限,难以应对复杂的非协同目标的干扰。为了解决这一问题,提出一种新的场景结构知识增强的Co... 现有的协同显著性目标检测(CoSOD)方法通过挖掘组内一致性与组间差异性来学习判别性表征,这种范式因缺乏语义标签的引导导致所学表征的判别性受限,难以应对复杂的非协同目标的干扰。为了解决这一问题,提出一种新的场景结构知识增强的CoSOD模型SSKNet。SSKNet利用大模型mPlug构建目标间场景结构语义关系并通过分割一切模型(SAM)将这种结构语义关系转移到最终的协同显著性结果中。具体来说:首先,为了学习语义知识,引入图像场景理解大模型,对图像组中的图像进行理解,并得到表示结构语义的文本描述组,这些文本描述组以文本的形式描述图像的显著内容;接着,为了获取协同显著信息,设计协同提示提取(CoPE)模块,通过在一组描述文本中使用协同注意力机制获取协同显著文本;最后,为了将协同显著文本转化为协同显著掩码,引入SAM,将协同显著文本以文本提示的方式引导SAM分割协同显著目标,获取最终的协同显著检测掩码。在3个公开数据集CoSal2015、CoCA和CoSOD3k上的实验结果表明,SSKNet模型的综合评估指标Fβ的取值分别为0.910、0.750和0.887,达到了先进水平。 展开更多
关键词 场景结构知识 大模型 分割一切模型 协同显著目标检测 深度学习
在线阅读 下载PDF
基于多模态特征对齐的弱对齐RGBT显著目标检测
7
作者 刘成壮 翟素兰 +1 位作者 刘海庆 王鲲鹏 《计算机科学》 北大核心 2025年第7期142-150,共9页
可见光和热红外(RGBT)显著目标检测(SOD)旨在从可见光和热红外图像中识别共同的显著物体。然而,现有技术大多在完全对齐的图像对上进行训练,忽略了实际成像过程中由传感器差异造成的“弱对齐”问题,即同一物体在不同模态中虽然结构相关... 可见光和热红外(RGBT)显著目标检测(SOD)旨在从可见光和热红外图像中识别共同的显著物体。然而,现有技术大多在完全对齐的图像对上进行训练,忽略了实际成像过程中由传感器差异造成的“弱对齐”问题,即同一物体在不同模态中虽然结构相关,但是它们的位置、尺度存在差异。因此,如果不经对齐处理,直接使用弱对齐RGBT图像训练模型,会导致检测性能严重下降。为应对这一挑战,提出了一个多模态特征对齐融合网络(AFNet),专门针对弱对齐RGBT SOD。该网络由3个主要模块组成:分布对齐模块(DAM)、注意力引导的可变形卷积对齐模块(AGDCM)和交叉融合模块(CAM)。DAM基于最优传输理论,使热红外和RGB特征的分布尽可能接近,实现特征的初步对齐。AGDCM基于可变形卷积,在学习特征偏移量的过程中引入注意力权重,使不同的区域可以学习到适合自身的偏移量,实现多模态特征的精准对齐。CAM通过交叉注意力机制融合对齐后的特征,增强融合特征的判别能力并提高计算效率。通过在对齐和弱对齐数据集上进行大量实验,证明了所提方法的高效性。 展开更多
关键词 弱对齐rgbT图像 显著目标检测 多模态特征对齐 多模态特征融合 注意力机制
在线阅读 下载PDF
基于无源领域自适应的低光照显著性目标检测
8
作者 李书玮 黄正翔 +5 位作者 胡云 刘兴 卢笑 郭畅 吴成中 王耀南 《计算机工程》 北大核心 2025年第4期75-84,共10页
为了解决低光照条件下校园环境等场景监控摄像头图像质量和监控效果受影响而带来的安全问题,提出一种低光照显著性目标检测(SOD)方法,以提高低光照条件下目标检测能力。针对低光照条件下图像的显著性特征弱化和缺乏大规模标注数据的问题... 为了解决低光照条件下校园环境等场景监控摄像头图像质量和监控效果受影响而带来的安全问题,提出一种低光照显著性目标检测(SOD)方法,以提高低光照条件下目标检测能力。针对低光照条件下图像的显著性特征弱化和缺乏大规模标注数据的问题,提出一种无源领域自适应(SFDA)方法,将正常光照图像(源域)下训练的模型知识迁移至低光照条件图像(目标域)。该方法采用两阶段策略:在第一阶段,利用源域模型生成低光照图像的伪标签,为提高伪标签生成的质量,提出集合熵最小化损失抑制高熵区域,同时引入选择性投票方法来增强伪标签的生成;在第二阶段,采用基于增强引导一致性的教师-学生网络自训练方法对显著图进行精细化,进一步提高检测结果的精度。在SOD-LL数据集上的实验结果表明,所提出的方法在低光照场景下总体性能优于其他图像显著性检测方法,相较于正常光照的SOD方法,其平均绝对误差(MAE)降低15.15%,加权F1值(wFm)提高4.73%。 展开更多
关键词 显著目标检测 低光照场景 无源领域自适应 伪标签 教师-学生网络 集合熵最小化 选择投票
在线阅读 下载PDF
基于多层显著性模型的SAR图像舰船目标检测 被引量:4
9
作者 扈琪 胡绍海 刘帅奇 《系统工程与电子技术》 EI CSCD 北大核心 2024年第2期478-487,共10页
针对合成孔径雷达图像舰船目标检测问题,提出了一种结合选择机制与轮廓信息的多层显著性目标检测方法。首先,利用非下采样剪切波和频谱残差法进行全局显著性区域提取。其次,提出了一种基于动态恒虚警率的活动轮廓显著性模型,逐步滤除候... 针对合成孔径雷达图像舰船目标检测问题,提出了一种结合选择机制与轮廓信息的多层显著性目标检测方法。首先,利用非下采样剪切波和频谱残差法进行全局显著性区域提取。其次,提出了一种基于动态恒虚警率的活动轮廓显著性模型,逐步滤除候选区域的虚警,提取目标轮廓,从而实现目标的精确检测。所提方法能够由粗到细地快速捕获目标区域,从而实现高效、高分辨率合成孔径雷达图像舰船检测。最后,在真实SAR数据集进行了测试,与其他经典的舰船检测方法相比,所提算法不仅有效地抑制了海杂波的影响,而且在检测精度上有较大提高。 展开更多
关键词 SAR图像目标检测 非下采样剪切波变换 显著检测 活动轮廓模型
在线阅读 下载PDF
跨模态交互融合与全局感知的RGB-D显著性目标检测 被引量:1
10
作者 孙福明 胡锡航 +2 位作者 武景宇 孙静 王法胜 《软件学报》 EI CSCD 北大核心 2024年第4期1899-1913,共15页
近年来,RGB-D显著性检测方法凭借深度图中丰富的几何结构和空间位置信息,取得了比RGB显著性检测模型更好的性能,受到学术界的高度关注.然而,现有的RGB-D检测模型仍面临着持续提升检测性能的需求.最近兴起的Transformer擅长建模全局信息... 近年来,RGB-D显著性检测方法凭借深度图中丰富的几何结构和空间位置信息,取得了比RGB显著性检测模型更好的性能,受到学术界的高度关注.然而,现有的RGB-D检测模型仍面临着持续提升检测性能的需求.最近兴起的Transformer擅长建模全局信息,而卷积神经网络(CNN)擅长提取局部细节.因此,如何有效结合CNN和Transformer两者的优势,挖掘全局和局部信息,将有助于提升显著性目标检测的精度.为此,提出一种基于跨模态交互融合与全局感知的RGB-D显著性目标检测方法,通过将Transformer网络嵌入U-Net中,从而将全局注意力机制与局部卷积结合在一起,能够更好地对特征进行提取.首先借助U-Net编码-解码结构,高效地提取多层次互补特征并逐级解码生成显著特征图.然后,使用Transformer模块学习高级特征间的全局依赖关系增强特征表示,并针对输入采用渐进上采样融合策略以减少噪声信息的引入.其次,为了减轻低质量深度图带来的负面影响,设计一个跨模态交互融合模块以实现跨模态特征融合.最后,5个基准数据集上的实验结果表明,所提算法与其他最新的算法相比具有显著优势. 展开更多
关键词 显著目标检测 跨模态 全局注意力机制 rgb-D检测模型
在线阅读 下载PDF
基于BC^(2)FNet网络的RGB-D显著性目标检测
11
作者 王峰 程咏梅 《西北工业大学学报》 EI CAS CSCD 北大核心 2024年第6期1135-1143,共9页
面对复杂的场景图像,深度信息的引入可以大大提高显著性目标检测的性能。然而,神经网络的上采样和下采样操作会模糊显著图中目标的边界,从而降低显著性目标检测性能。针对此问题,提出了一种基于边界驱动跨模态跨层融合网络(B^(C)2FNet)... 面对复杂的场景图像,深度信息的引入可以大大提高显著性目标检测的性能。然而,神经网络的上采样和下采样操作会模糊显著图中目标的边界,从而降低显著性目标检测性能。针对此问题,提出了一种基于边界驱动跨模态跨层融合网络(B^(C)2FNet)的RGB-D显著性目标检测方法。该网络在跨模态和跨层融合中分别加入边界信息引导来保持目标区域。设计了边界生成模型,分别从RGB和深度模态的低层特征中提取2种边界信息;设计边界驱动的特征选择模块,在RGB与深度模态融合过程中,聚焦重要特征信息并保留边界细节;提出了一种边界驱动的跨层融合模块,在相邻层的上采样融合过程中加入2种边界信息。通过将该模块嵌入到自顶向下的信息融合流中,预测出包含精确目标和清晰边界的显著性图。在5种标准RGB-D数据集上进行仿真实验,结果证明所提出的模型具有较好的性能。 展开更多
关键词 显著目标检测 边界驱动 跨模态融合 跨层融合
在线阅读 下载PDF
视觉显著性和稀疏学习相融合的船舶图像目标检测 被引量:1
12
作者 钟思 李碧青 +2 位作者 袁天然 张乐乾 李大宇 《舰船科学技术》 北大核心 2024年第8期157-160,共4页
为抑制船舶图像目标检测受光照变化、海浪干扰、背景杂波等因素的影响,设计视觉显著性和稀疏表示学习相融合的船舶图像目标检测方法,提升船舶图像目标检测效果。利用船舶图像建立船舶图像字典;通过稀疏表示算法结合字典,稀疏编码船舶图... 为抑制船舶图像目标检测受光照变化、海浪干扰、背景杂波等因素的影响,设计视觉显著性和稀疏表示学习相融合的船舶图像目标检测方法,提升船舶图像目标检测效果。利用船舶图像建立船舶图像字典;通过稀疏表示算法结合字典,稀疏编码船舶图像;依据稀疏编码结果,在船舶图像内提取视觉显著图;通过自适应阈值法,分割视觉显著图,得到船舶目标候选区域,缩小船舶目标检测范围;在概率神经网络内,输入船舶目标候选区域,判断其是否为船舶目标,完成船舶图像目标检测。实验证明,该方法可有效稀疏编码船舶图像,并提取视觉显著图;该方法可有效分割视觉显著图;在简单背景与复杂背景下,该方法均可精准检测船舶目标。 展开更多
关键词 视觉显著 稀疏表示 船舶图像 目标检测 自适应阈值 神经网络
在线阅读 下载PDF
边缘信息增强的显著性目标检测网络 被引量:4
13
作者 赵卫东 王辉 柳先辉 《同济大学学报(自然科学版)》 EI CAS CSCD 北大核心 2024年第2期293-302,共10页
针对显著性目标检测任务中识别结果边缘模糊的问题,提出了一种能够充分利用边缘信息增强边缘像素置信度的新模型。该网络主要有两个创新点:设计三重注意力模块,利用预测图的特点直接生成前景、背景和边缘注意力,并且生成注意力权重的过... 针对显著性目标检测任务中识别结果边缘模糊的问题,提出了一种能够充分利用边缘信息增强边缘像素置信度的新模型。该网络主要有两个创新点:设计三重注意力模块,利用预测图的特点直接生成前景、背景和边缘注意力,并且生成注意力权重的过程不增加任何参数;设计边缘预测模块,在分辨率较高的网络浅层进行有监督的边缘预测,并与网络深层的显著图预测融合,细化了边缘。在6种常用公开数据集上用定性和定量的方法评估了该模型,并且与其他模型进行充分对比,证明设计的新模型能够取得最优的效果。此外,该模型参数量为30.28 M,可以在GTX 1080 Ti显卡上达到31帧·s^(-1)的预测速度。 展开更多
关键词 显著目标检测 注意力机制 边缘检测 深度卷积神经网络
在线阅读 下载PDF
MIP-YOLO:显微图像法注射液中不溶性微粒的检测模型
14
作者 杨达 刘伟 +2 位作者 王雅静 张宗强 秦福元 《计算机工程与应用》 北大核心 2025年第16期272-282,共11页
准确检测注射液中的不溶性微粒种类和数量对于提高注射液质量具有重要作用。针对不溶性微粒中的小目标检测难题,提出了一种基于YOLOv8s的改进模型MIP-YOLO(microscopic insoluble particles-YOLO),用于准确检测不溶性微粒中的玻璃、橡... 准确检测注射液中的不溶性微粒种类和数量对于提高注射液质量具有重要作用。针对不溶性微粒中的小目标检测难题,提出了一种基于YOLOv8s的改进模型MIP-YOLO(microscopic insoluble particles-YOLO),用于准确检测不溶性微粒中的玻璃、橡胶等特征微粒。在颈部网络中使用部分卷积,引入重参数化模块对部分卷积进行改进,提出了DPC2f模块,增加梯度流动能力,降低漏检、误检率,并结合三重注意力机制提出了DPTC2f模块,在减少冗余信息的同时,增强模型在不同维度的特征提取能力。引入NWD(normalized Wasserstein distance)损失函数替换CIoU损失函数,降低对不溶性微粒位置偏差的敏感性。优化了颈部网络检测层结构,提升浅层信息和深层信息的融合能力,降低模型的参数量。设计了协同池化坐标注意力机制,提高模型对微粒显著特征的提取能力。实验结果表明,MIP-YOLO的精度和mAP分别达到了89.0%和90.5%,在参数量下降40%的同时,相比YOLOv8s,精度和mAP分别提升了5.4和3.0个百分点,提高了模型的检测效果。 展开更多
关键词 不溶微粒 显微图像 特征检测 YOLOv8s 目标检测 重参数化
在线阅读 下载PDF
基于特征注意力提纯的显著性目标检测模型
15
作者 白雪飞 申悟呈 王文剑 《计算机科学》 CSCD 北大核心 2024年第5期125-133,共9页
近年来,显著性目标检测技术取得了巨大进展,其中如何选择并有效集成多尺度特征扮演了重要角色。针对现有特征集成方法可能导致的信息冗余问题,提出了一种基于特征注意力提纯的显著性检测模型。首先,在解码器中采用一个全局特征注意力引... 近年来,显著性目标检测技术取得了巨大进展,其中如何选择并有效集成多尺度特征扮演了重要角色。针对现有特征集成方法可能导致的信息冗余问题,提出了一种基于特征注意力提纯的显著性检测模型。首先,在解码器中采用一个全局特征注意力引导模块(GAGM)对带有语义信息的深层特征进行注意力机制处理,得到全局上下文信息;然后,通过全局引导流将其送入解码器各层进行监督训练;最后,利用多尺度特征融合模块(FAM)对编码器提取出的多尺度特征与全局上下文信息进行有效集成,并在网格状特征提纯模块(MFPM)中进行进一步细化,以生成清晰、完整的显著图。在5个公开数据集上进行实验,结果表明,所提模型优于现有的其他显著性检测方法,并且处理速度快,当处理320×320尺寸的图像时,能以30帧以上的速度运行。 展开更多
关键词 显著目标检测 注意力机制 多尺度特征融合 特征选择 网格状特征提纯
在线阅读 下载PDF
面向360度全景图像显著目标检测的相邻协调网络
16
作者 陈晓雷 王兴 +1 位作者 张学功 杜泽龙 《电子与信息学报》 EI CAS CSCD 北大核心 2024年第12期4529-4541,共13页
为解决360°全景图像显著目标检测(SOD)中的显著目标尺度变化和边缘不连续、易模糊的问题,该文提出一种基于相邻协调网络的360°全景图像显著目标检测方法(ACoNet)。首先,利用相邻细节融合模块获取相邻特征中的细节和边缘信息,... 为解决360°全景图像显著目标检测(SOD)中的显著目标尺度变化和边缘不连续、易模糊的问题,该文提出一种基于相邻协调网络的360°全景图像显著目标检测方法(ACoNet)。首先,利用相邻细节融合模块获取相邻特征中的细节和边缘信息,以促进显著目标的精确定位。其次,使用语义引导特征聚合模块来聚合浅层特征和深层特征之间不同尺度上的语义特征信息,并抑制浅层特征传递的噪声,缓解解码阶段显著目标与背景区域不连续、边界易模糊的问题。同时构建多尺度语义融合子模块扩大不同卷积层的多尺度感受野,实现精确训练显著目标边界的效果。在2个公开的数据集上进行的大量实验结果表明,相比于其他13种先进方法,所提方法在6个客观评价指标上均有明显的提升,同时主观可视化检测的显著图边缘轮廓性更好,空间结构细节信息更清晰。 展开更多
关键词 显著目标检测 深度学习 360°全景图像 多尺度特征
在线阅读 下载PDF
集成多种上下文与混合交互的显著性目标检测 被引量:2
17
作者 夏晨星 陈欣雨 +4 位作者 孙延光 葛斌 方贤进 高修菊 张艳 《电子与信息学报》 EI CAS CSCD 北大核心 2024年第7期2918-2931,共14页
显著性目标检测目的是识别和分割图像中的视觉显著性目标,它是计算机视觉任务及其相关领域的重要研究内容之一。当下基于全卷积网络(FCNs)的显著性目标检测方法已经取得了不错的性能,然而现实场景中的显著性目标类型多变且尺寸不固定,... 显著性目标检测目的是识别和分割图像中的视觉显著性目标,它是计算机视觉任务及其相关领域的重要研究内容之一。当下基于全卷积网络(FCNs)的显著性目标检测方法已经取得了不错的性能,然而现实场景中的显著性目标类型多变且尺寸不固定,这使得准确检测并完整分割出显著性目标仍然是一个巨大的挑战。为此,该文提出集成多种上下文和混合交互的显著性目标检测方法,通过利用密集上下文信息探索模块和多源特征混合交互模块来高效预测显著性目标。密集上下文信息探索模块采用空洞卷积、不对称卷积和密集引导连接渐进地捕获具有强关联性的多尺度和多感受野上下文信息,通过集成这些信息来增强每个初始多层级特征的表达能力。多源特征混合交互模块包含多种特征聚合操作,可以自适应交互来自多层级特征中的互补性信息,以生成用于准确预测显著性图的高质量特征表示。此方法在5个公共数据集上进行了性能测试,实验结果表明,该文方法在不同的评估指标下与19种基于深度学习的显著性目标检测方法相比取得优越的预测性能。 展开更多
关键词 计算机视觉 显著目标检测 全卷积网络 上下文信息
在线阅读 下载PDF
基于特征重聚焦和精细化的遥感显著性目标检测 被引量:1
18
作者 朱海鹏 张宝华 +2 位作者 李永翔 徐利权 温海英 《传感器与微系统》 CSCD 北大核心 2024年第7期157-160,共4页
为了提升网络对特征的表征,提出一种基于特征重聚焦和精细化的光学遥感显著目标检测算法。利用相邻层特征交互捕获上下文语义互补信息,并通过膨胀卷积调节感受野提取信息的范围,完成初次特征聚焦。再将注意机制作用于深层特征,组成位置... 为了提升网络对特征的表征,提出一种基于特征重聚焦和精细化的光学遥感显著目标检测算法。利用相邻层特征交互捕获上下文语义互补信息,并通过膨胀卷积调节感受野提取信息的范围,完成初次特征聚焦。再将注意机制作用于深层特征,组成位置引导模块,增强对显著性特征的关注,完成特征重聚焦。最后,通过浅层特征获得显著特征注意图和反注意图,引导网络进一步挖掘高置信度显著区域和低置信度背景区域的信息,精细化优化后的特征。采用EORSSD和ORSSD 2个公开数据集进行实验与评估,以证明算法的有效性。 展开更多
关键词 光学遥感图像 显著目标检测 相邻上下文协调 特征精细化 注意力机制
在线阅读 下载PDF
弱监督显著性目标检测研究进展 被引量:1
19
作者 于俊伟 郭园森 +1 位作者 张自豪 母亚双 《计算机工程与应用》 CSCD 北大核心 2024年第10期1-15,共15页
显著性目标检测旨在准确检测和定位图像或视频中最引人注目的目标或区域,为更好地进行目标识别和场景分析提供帮助。尽管全监督显著性检测方法取得一定成效,但获取大规模像素级标注数据集十分困难且昂贵。弱监督检测方法利用相对容易获... 显著性目标检测旨在准确检测和定位图像或视频中最引人注目的目标或区域,为更好地进行目标识别和场景分析提供帮助。尽管全监督显著性检测方法取得一定成效,但获取大规模像素级标注数据集十分困难且昂贵。弱监督检测方法利用相对容易获取的图像级标签或带噪声的弱标签训练模型,在实际应用中表现出良好效果。全面对比了全监督和弱监督显著性检测的主流方法和应用场景,重点分析了常用的弱标签数据标注方法及其对显著目标检测的影响。综述了弱监督条件下显著目标检测方法的最新研究进展,并在常用数据集上对不同弱监督方法的性能进行了比较。最后探讨了弱监督显著性检测在农业、医学和军事等特殊领域的应用前景,指出了该研究领域存在的问题及未来发展趋势。 展开更多
关键词 显著目标检测 全监督学习 弱监督学习
在线阅读 下载PDF
基于贝叶斯框架融合的RGB-D图像显著性检测 被引量:5
20
作者 王松涛 周真 +1 位作者 靳薇 曲寒冰 《自动化学报》 EI CSCD 北大核心 2020年第4期695-720,共26页
为了有效融合RGB图像颜色信息和Depth图像深度信息,提出一种基于贝叶斯框架融合的RGB-D图像显著性检测方法.通过分析3D显著性在RGB图像和Depth图像分布的情况,采用类条件互信息熵(Class-conditional mutual information, CMI)度量由深... 为了有效融合RGB图像颜色信息和Depth图像深度信息,提出一种基于贝叶斯框架融合的RGB-D图像显著性检测方法.通过分析3D显著性在RGB图像和Depth图像分布的情况,采用类条件互信息熵(Class-conditional mutual information, CMI)度量由深层卷积神经网络提取的颜色特征和深度特征的相关性,依据贝叶斯定理得到RGB-D图像显著性后验概率.假设颜色特征和深度特征符合高斯分布,基于DMNB (Discriminative mixed-membership naive Bayes)生成模型进行显著性检测建模,其模型参数由变分最大期望算法进行估计.在RGB-D图像显著性检测公开数据集NLPR和NJU-DS2000上测试,实验结果表明提出的方法具有更高的准确率和召回率. 展开更多
关键词 贝叶斯融合 深度学习 生成模型 显著检测 rgb-D图像
在线阅读 下载PDF
上一页 1 2 21 下一页 到第
使用帮助 返回顶部