-
题名场景结构知识增强的协同显著性目标检测
被引量:1
- 1
-
-
作者
胡升龙
陈彬
张开华
宋慧慧
-
机构
南京信息工程大学自动化学院
-
出处
《计算机工程》
北大核心
2025年第1期31-41,共11页
-
基金
国家自然科学基金(62276141)
2024年江苏省研究生科研创新计划项目(KYCX24_1508)。
-
文摘
现有的协同显著性目标检测(CoSOD)方法通过挖掘组内一致性与组间差异性来学习判别性表征,这种范式因缺乏语义标签的引导导致所学表征的判别性受限,难以应对复杂的非协同目标的干扰。为了解决这一问题,提出一种新的场景结构知识增强的CoSOD模型SSKNet。SSKNet利用大模型mPlug构建目标间场景结构语义关系并通过分割一切模型(SAM)将这种结构语义关系转移到最终的协同显著性结果中。具体来说:首先,为了学习语义知识,引入图像场景理解大模型,对图像组中的图像进行理解,并得到表示结构语义的文本描述组,这些文本描述组以文本的形式描述图像的显著内容;接着,为了获取协同显著信息,设计协同提示提取(CoPE)模块,通过在一组描述文本中使用协同注意力机制获取协同显著文本;最后,为了将协同显著文本转化为协同显著掩码,引入SAM,将协同显著文本以文本提示的方式引导SAM分割协同显著目标,获取最终的协同显著检测掩码。在3个公开数据集CoSal2015、CoCA和CoSOD3k上的实验结果表明,SSKNet模型的综合评估指标Fβ的取值分别为0.910、0.750和0.887,达到了先进水平。
-
关键词
场景结构知识
大模型
分割一切模型
协同显著性目标检测
深度学习
-
Keywords
scene structure knowledge
large model
Segment Anything Model(SAM)
Co-Saliency Object Detection(CoSOD)
deep learning
-
分类号
TP391.4
[自动化与计算机技术—计算机应用技术]
-