期刊导航
期刊开放获取
上海教育软件发展有限公..
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
673
篇文章
<
1
2
…
34
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
跨模态自适应特征融合的视觉问答方法
1
作者
陈巧红
项深祥
+1 位作者
方贤
孙麒
《哈尔滨工业大学学报》
北大核心
2025年第4期94-104,共11页
为提高视觉问答(VQA)中跨模态融合与交互的精确度,减少多模态特征信息的丢失,提出了一种新颖的基于跨模态自适应特征融合的视觉问答方法。首先,该方法设计了卷积自注意力单元,包含自注意力层和空洞卷积层,前者用于捕捉全局特征信息,后...
为提高视觉问答(VQA)中跨模态融合与交互的精确度,减少多模态特征信息的丢失,提出了一种新颖的基于跨模态自适应特征融合的视觉问答方法。首先,该方法设计了卷积自注意力单元,包含自注意力层和空洞卷积层,前者用于捕捉全局特征信息,后者用于捕捉视觉对象间的空间关系。其次,通过自适应特征融合层,将全局关系与空间关系进行有效结合,使模型在处理图像特征时能够同时考虑全局关系和视觉对象之间的关联性,从而克服了传统注意力机制忽视空间关系的问题。最后,基于不同模态特征在答案预测中贡献程度的差异,该方法还构建了多模态门控融合模块,根据多模态特征间的重要程度自适应地融合特征,减少多模态信息的丢失,同时不会带来额外的计算资源开销。研究结果表明,该方法在未使用额外数据集预训练的情况下,在VQA2.0的测试-开发集、测试-标准集和GQA数据集上的整体准确率分别达到71.58%、72.00%、58.14%,显著优于传统自注意力方法,该研究成果可为跨模态特征融合领域提供了重要的参考和借鉴。
展开更多
关键词
视觉问答(VQA)
特征
融合
多模态
注意力机制
门控机制
在线阅读
下载PDF
职称材料
基于特征交互与自适应分组融合的多模态目标检测
2
作者
叶志晖
武健
+2 位作者
赵晓忠
王文娟
邵新光
《红外技术》
北大核心
2025年第4期468-474,共7页
为提升目标检测方法在复杂场景下的检测效果,将深度学习算法与多模态信息融合技术相结合,提出了一种基于特征交互与自适应分组融合的多模态目标检测模型。模型采用红外和可见光目标图像为输入,以PP-LCNet网络为基础构建对称双支路特征...
为提升目标检测方法在复杂场景下的检测效果,将深度学习算法与多模态信息融合技术相结合,提出了一种基于特征交互与自适应分组融合的多模态目标检测模型。模型采用红外和可见光目标图像为输入,以PP-LCNet网络为基础构建对称双支路特征提取结构,并引入特征交互模块,保证不同模态目标特征在提取过程中的信息互补;其次,设计二值化分组注意力机制,利用全局池化结合Sign函数将交互模块的输出特征以所属目标类别进行特征分组,再分别采用空间注意力机制增强各特征组中的目标信息;最后,基于分组增强后的特征,提取不同尺度下的同类特征组,通过自适应加权方式由深至浅进行多尺度融合,并根据融合后的各尺度特征实现目标预测。实验结果表明,所提方法在多模态特征交互、关键特征增强以及多尺度融合方面都有较大的提升作用,并且在复杂场景下,模型也具有更高的鲁棒性,可以更好地适用于不同场景中。
展开更多
关键词
多模态
目标检测
特征
交互
二值化分组
自适应
融合
在线阅读
下载PDF
职称材料
基于双分支多尺度特征融合的跨模态语义分割算法
3
作者
陈广秋
任天蓉
+1 位作者
段锦
黄丹丹
《电子测量与仪器学报》
北大核心
2025年第5期144-154,共11页
针对单模态可见光RGB图像语义分割在夜晚或光线变化环境下存在分割效果差、目标边缘分割不清晰等问题,以及现有的跨模态语义分割在获取全局上下文信息和融合跨模态特征时还存在大量不足。为此提出了一种基于双分支多尺度特征融合的跨模...
针对单模态可见光RGB图像语义分割在夜晚或光线变化环境下存在分割效果差、目标边缘分割不清晰等问题,以及现有的跨模态语义分割在获取全局上下文信息和融合跨模态特征时还存在大量不足。为此提出了一种基于双分支多尺度特征融合的跨模态语义分割算法。采用Segformer作为主干网络提取特征,捕获长距离依赖关系,采用特征增强模块提升浅层特征图的对比度和边缘信息的判别性,利用有效注意力增强模块和跨模态特征融合模块,对不同模态特征图像素点间的关系进行建模,聚合互补信息,发挥跨模态特征优势。最后,采用轻量级的All-MLP解码器重建图像,预测分割结果。相比较于已有主流算法,该算法在MFNet城市街景数据集上的各项评估指标均为最优,平均准确率(mAcc)和平均交并比(mIoU)分别达到了76.9%和59.8%。实验结果表明,该算法在处理复杂场景时,能够有效改善目标边缘轮廓分割不清晰的问题,提高图像的分割精度。
展开更多
关键词
多模态
深度学习
语义分割
特征
融合
跨
模态
Segformer
在线阅读
下载PDF
职称材料
多模态特征融合的RGB-T目标跟踪网络
4
作者
金静
刘建琴
翟凤文
《光学精密工程》
北大核心
2025年第12期1940-1954,共15页
近年来,RGB-T跟踪方法因可见光与热红外图像的互补特性而在视觉跟踪领域得到广泛应用。然而,现有方法在模态互补信息利用方面仍存在局限,特别是基于Transformer的算法缺乏模态间的直接交互,难以充分挖掘RGB和TIR模态的语义信息。针对这...
近年来,RGB-T跟踪方法因可见光与热红外图像的互补特性而在视觉跟踪领域得到广泛应用。然而,现有方法在模态互补信息利用方面仍存在局限,特别是基于Transformer的算法缺乏模态间的直接交互,难以充分挖掘RGB和TIR模态的语义信息。针对这些问题,提出了一种多模态特征融合的RGB-T目标跟踪网络(Multi-Modal Feature Fusion Tracking Network for RGB-T,MMFFTN)。该网络首先在骨干网络提取初步特征后,引入通道特征融合模块(Channel Feature Fusion Module,CFFM),实现RGB和TIR通道特征的直接交互与融合。其次,针对RGB和TIR模态差异可能导致的融合效果不理想问题,设计了跨模态特征融合模块(Cross-Modal Feature Fusion Module,CMFM),通过自适应融合策略进一步融合RGB和TIR的全局特征,以提升跟踪的准确性。对本文提出的跟踪模型在GTOT,RGBT234和LasHeR三个数据集上进行了详细的实验评估。实验结果表明,与当前先进的基于Transformer的跟踪器ViPT相比,MMFFTN在成功率(Success Rate)和精确率(Precision Rate)上分别提升了3.0%和4.7%;与基于Transformer的跟踪器SDSTrack相比,成功率和精确率分别提升了2.4%和3.3%。
展开更多
关键词
RGB-T目标跟踪
TRANSFORMER
通道
特征
融合
跨
模态
特征
融合
在线阅读
下载PDF
职称材料
多模态融合与时序特征相残差的异常流量检测方法
5
作者
刘会景
唐永旺
郑登峰
《计算机应用与软件》
北大核心
2025年第3期102-109,共8页
针对当前基于深度学习的方法无法有效融合流量多模特征的问题,提出一种多模融合与时序特征相残差的异常流量检测方法。以会话为单位切分原始流量,获取流量记录的多模态特征;通过跨模态注意力机制进行多模特征融合,进而利用Transformer...
针对当前基于深度学习的方法无法有效融合流量多模特征的问题,提出一种多模融合与时序特征相残差的异常流量检测方法。以会话为单位切分原始流量,获取流量记录的多模态特征;通过跨模态注意力机制进行多模特征融合,进而利用Transformer挖掘流量记录的时序特征;采用残差学习的方法联合多模态融合特征和时序特征进行检测。在CSE-CIC-IDS2018数据集上验证,二分类和多分类的准确率分别为95.19%和90.52%,相较于对比方法,在准确率和精度最优时误报率最低。
展开更多
关键词
深度学习
多模态
融合
时序
特征
残差学习
注意力机制
异常流量
在线阅读
下载PDF
职称材料
自适应特征融合的多模态实体对齐研究
被引量:
9
6
作者
郭浩
李欣奕
+2 位作者
唐九阳
郭延明
赵翔
《自动化学报》
EI
CAS
CSCD
北大核心
2024年第4期758-770,共13页
多模态数据间交互式任务的兴起对于综合利用不同模态的知识提出了更高的要求,因此融合不同模态知识的多模态知识图谱应运而生.然而,现有多模态知识图谱存在图谱知识不完整的问题,严重阻碍对信息的有效利用.缓解此问题的有效方法是通过...
多模态数据间交互式任务的兴起对于综合利用不同模态的知识提出了更高的要求,因此融合不同模态知识的多模态知识图谱应运而生.然而,现有多模态知识图谱存在图谱知识不完整的问题,严重阻碍对信息的有效利用.缓解此问题的有效方法是通过实体对齐进行知识图谱补全.当前多模态实体对齐方法以固定权重融合多种模态信息,在融合过程中忽略不同模态信息贡献的差异性.为解决上述问题,设计一套自适应特征融合机制,根据不同模态数据质量动态融合实体结构信息和视觉信息.此外,考虑到视觉信息质量不高、知识图谱之间的结构差异也影响实体对齐的效果,本文分别设计提升视觉信息有效利用率的视觉特征处理模块以及缓和结构差异性的三元组筛选模块.在多模态实体对齐任务上的实验结果表明,提出的多模态实体对齐方法的性能优于当前最好的方法.
展开更多
关键词
多模态
知识图谱
实体对齐
预训练模型
特征
融合
在线阅读
下载PDF
职称材料
多模态分级特征映射与融合表征方法研究
被引量:
1
7
作者
郭小宇
马静
陈杰
《计算机工程与应用》
北大核心
2025年第6期171-182,共12页
多模态特征表征是多模态任务的基础。为解决多模态特征表征方法融合层次单一、未能充分映射不同模态间的关联关系的问题,提出了一种多模态分级特征映射与融合表征方法。该方法在文本模型RoBERTa与图像模型DenseNet的基础上,从两个模型...
多模态特征表征是多模态任务的基础。为解决多模态特征表征方法融合层次单一、未能充分映射不同模态间的关联关系的问题,提出了一种多模态分级特征映射与融合表征方法。该方法在文本模型RoBERTa与图像模型DenseNet的基础上,从两个模型的中间层抽取由低级别到高级别的特征,基于特征重用的思想映射与融合文本与图像模态不同级别的特征,捕捉文本与图像模态之间的内部关联,充分融合两种模态之间的特征。将分级特征映射与融合表征馈入分类器,应用于多模态舆情的情感分类中,同时将构建的表征方法与基线表征方法进行对比分析。实验结果表明,提出的表征方法在微博舆情和MVSA-Multiple数据集上的情感分类性能均超越了所有基线模型,其中在微博数据集上F1值提升了0.0137,在MVSA-Multiple数据集上F1值提升了0.0222。图像特征能够提升文本单模态特征下的情感分类准确率,但是其提升程度与融合策略密切相关;多模态分级特征映射与融合表征方法能够有效映射文本与图像特征之间的关系,提升多模态舆情的情感分类效果。
展开更多
关键词
多模态
特征
融合
分级
特征
映射与
融合
情感分类
特征
表示
在线阅读
下载PDF
职称材料
多层次时空特征自适应集成与特有-共享特征融合的双模态情感识别
被引量:
4
8
作者
孙强
陈远
《电子与信息学报》
EI
CAS
CSCD
北大核心
2024年第2期574-587,共14页
在结合脑电(EEG)信号与人脸图像的双模态情感识别领域中,通常存在两个挑战性问题:(1)如何从EEG信号中以端到端方式学习到更具显著性的情感语义特征;(2)如何充分利用双模态信息,捕捉双模态特征中情感语义的一致性与互补性。为此,提出了...
在结合脑电(EEG)信号与人脸图像的双模态情感识别领域中,通常存在两个挑战性问题:(1)如何从EEG信号中以端到端方式学习到更具显著性的情感语义特征;(2)如何充分利用双模态信息,捕捉双模态特征中情感语义的一致性与互补性。为此,提出了多层次时空特征自适应集成与特有-共享特征融合的双模态情感识别模型。一方面,为从EEG信号中获得更具显著性的情感语义特征,设计了多层次时空特征自适应集成模块。该模块首先通过双流结构捕捉EEG信号的时空特征,再通过特征相似度加权并集成各层次的特征,最后利用门控机制自适应地学习各层次相对重要的情感特征。另一方面,为挖掘EEG信号与人脸图像之间的情感语义一致性与互补性,设计了特有-共享特征融合模块,通过特有特征的学习和共享特征的学习来联合学习情感语义特征,并结合损失函数实现各模态特有语义信息和模态间共享语义信息的自动提取。在DEAP和MAHNOB-HCI两种数据集上,采用跨实验验证和5折交叉验证两种实验手段验证了提出模型的性能。实验结果表明,该模型取得了具有竞争力的结果,为基于EEG信号与人脸图像的双模态情感识别提供了一种有效的解决方案。
展开更多
关键词
双
模态
情感识别
脑电
人脸图像
多层次时空
特征
特征
融合
在线阅读
下载PDF
职称材料
多模态特征增强的双层融合知识推理方法
被引量:
1
9
作者
荆博祥
王海荣
+1 位作者
王彤
杨振业
《计算机科学与探索》
北大核心
2025年第2期406-416,共11页
现有的多模态知识推理方法大多采用拼接或注意力的方式,将预训练模型提取到的多模态特征直接进行融合,往往忽略了不同模态之间的异构性和交互的复杂性。为此,提出了一种多模态特征增强的双层融合知识推理方法。结构信息嵌入模块采用自...
现有的多模态知识推理方法大多采用拼接或注意力的方式,将预训练模型提取到的多模态特征直接进行融合,往往忽略了不同模态之间的异构性和交互的复杂性。为此,提出了一种多模态特征增强的双层融合知识推理方法。结构信息嵌入模块采用自适应图注意力机制筛选并聚合关键的邻居信息,用来增强实体和关系嵌入的语义表达;多模态嵌入信息模块使用不同的注意力机制关注不同模态数据的独有特征,以及多模态数据间的共性特征,利用共性特征的互补信息进行模态交互,以减少模态间异构性差异;多模态特征融合模块采用将低秩多模态特征融合和决策融合相结合的双层融合策略,实现了多模态数据在模态间和模态内的动态复杂交互,并综合考虑每种模态在推理中的贡献度,得到更全面的预测结果。为了验证方法的有效性,分别在FB15K-237、DB15K和YAGO15K数据集上进行了实验。结果表明:该方法相比多模态推理方法,在FB15K-237数据集上MRR和Hits@1分别平均提升3.6%和2.2%;相比单模态推理方法,MRR和Hits@1分别平均提升13.7%和14.6%。
展开更多
关键词
多模态
知识图谱
链接预测
知识推理
多模态
特征
融合
在线阅读
下载PDF
职称材料
基于时空特征融合与候选策略的智能汽车多模态轨迹预测
被引量:
1
10
作者
杨智勇
杨俊
许沁欣
《计算机工程与应用》
北大核心
2025年第13期217-226,共10页
针对现有轨迹预测模型在捕捉复杂时空动态方面的局限性,以及部分预测轨迹不符合实际场景约束等问题,提出了一种基于时空特征融合和候选策略的智能汽车多模态轨迹预测模型。在场景编码和特征融合阶段,设计了非对称双向门控循环单元以捕...
针对现有轨迹预测模型在捕捉复杂时空动态方面的局限性,以及部分预测轨迹不符合实际场景约束等问题,提出了一种基于时空特征融合和候选策略的智能汽车多模态轨迹预测模型。在场景编码和特征融合阶段,设计了非对称双向门控循环单元以捕获历史轨迹序列之间的双向依赖性;引入一种基于交叉注意力的混合特征注意力方法,以建模车道与交通参与者间的隐式交互,并在车道图节点中深度融合车道空间特征和轨迹的时序特征。在解码器前引入直接使用车道拓扑结构的候选策略,该策略将利用先验知识指导预测过程,并通过覆盖目标车辆可能的未来轨迹,确保解码器能够输出可靠的多模态轨迹。该模型在公开数据集nuScenes上进行验证,实验结果表明,在预测5条和10条轨迹时,minADE和MR分别较最佳对比模型提高了7.5%、11.5%和5.5%、21.4%。可视化结果展现出更强的稳健性和解释性。
展开更多
关键词
智能驾驶
轨迹预测
时空
特征
融合
注意力机制
多模态
预测
在线阅读
下载PDF
职称材料
基于特征解耦与融合的不完全多模态骨肿瘤图像分类
11
作者
曾青海
李传璞
+3 位作者
阳维
宋丽文
赵英华
杨谊
《南方医科大学学报》
北大核心
2025年第6期1327-1335,共9页
目的 提出了一种基于特征解耦与融合的骨肿瘤分类模型,用于合理处理模态缺失并融合多模态信息,以提升分类准确率。方法 设计解耦补全模块,先提取包含已有模态的局部与全局信息的骨肿瘤图像特征,再将该特征分解为共享特征和特定特征。利...
目的 提出了一种基于特征解耦与融合的骨肿瘤分类模型,用于合理处理模态缺失并融合多模态信息,以提升分类准确率。方法 设计解耦补全模块,先提取包含已有模态的局部与全局信息的骨肿瘤图像特征,再将该特征分解为共享特征和特定特征。利用共享特征作为缺失模态特征的补全表示,从而减少因模态差异带来的补全偏差。考虑到模态差异可能会使多模态信息难以融合,采用基于交叉注意力机制的融合模块。提升模型学习跨模态信息的能力并对特定特征进行充分融合,从而提高骨肿瘤分类的准确性。结果 实验采用在南方医科大学第三附属医院收集的骨肿瘤数据集进行训练和测试。在7种可用模态组合中,本文方法中骨肿瘤分类的平均AUC、准确率、特异性分别为0.766、0.621、0.793,与现有的模态缺失处理方法相比分别提高了2.6%、3.5%、1.7%。全模态情况下骨肿瘤分类效果最佳,AUC为0.837;仅有MRI模态时AUC仍能达到0.826。结论 本文方法能合理地处理模态缺失并有效融合多模态信息,在多种复杂的缺失情境下表现出良好的骨肿瘤分类性能。
展开更多
关键词
骨肿瘤分类
多模态
图像
模态
缺失
特征
解耦
注意力
融合
在线阅读
下载PDF
职称材料
基于深度特征交互与层次化多模态融合的情感识别模型
12
作者
王健
赵小明
+2 位作者
王成龙
张石清
赵舒畅
《计算机应用研究》
北大核心
2025年第7期1978-1985,共8页
多模态情感识别近年来成为情感计算领域的重要研究方向,旨在通过融合语音、文本等多种模态以更精确地识别和理解人类情感状态。然而,现有方法在提取特征时缺乏模态间的关联性处理以及融合特征时忽视多尺度情感线索。为了解决上述问题,...
多模态情感识别近年来成为情感计算领域的重要研究方向,旨在通过融合语音、文本等多种模态以更精确地识别和理解人类情感状态。然而,现有方法在提取特征时缺乏模态间的关联性处理以及融合特征时忽视多尺度情感线索。为了解决上述问题,提出一种基于深度特征交互与层次化多模态融合的情感识别模型(DFIHMF)。在特征提取阶段,该模型通过引入本地知识令牌(local knowledge token,LKT)与跨模态交互令牌(cross-modal interaction token,CIT)来增强不同模态之间的交互并提取多尺度信息。在特征融合阶段,该模型利用层次化融合策略来融合模态间复杂的多模态特征与多尺度情感线索。在MOSI与MOSEI数据集上的实验结果显示,该模型在ACC7评价指标上的准确率分别达45.6%和53.5%,证明了所提方法在多模态情感识别任务上优于现有技术。
展开更多
关键词
多模态
情感识别
层次化
融合
多尺度
融合
特征
融合
在线阅读
下载PDF
职称材料
基于注意力机制和跨模态层级特征融合的群养肉牛个体质量估测
13
作者
宋平
杨颖
+3 位作者
刘刚
姚冲
李子若
毛天赐
《农业工程学报》
北大核心
2025年第10期221-231,共11页
为解决群养场景下肉牛个体质量称量复杂、精度低的问题,该研究提出了基于注意力机制和跨模态层级特征融合模型CMHFF-ResNet(cross-modal hierarchical feature fusion resnet)。首先,无接触式地采集俯视视角下日常活动的肉牛的RGB(red-g...
为解决群养场景下肉牛个体质量称量复杂、精度低的问题,该研究提出了基于注意力机制和跨模态层级特征融合模型CMHFF-ResNet(cross-modal hierarchical feature fusion resnet)。首先,无接触式地采集俯视视角下日常活动的肉牛的RGB(red-green-blue)图像与深度图像,使用引入定向边界框OBB(oriented bounding box)的YOLOv8网络对肉牛进行旋转目标检测和识别,精准定位群养场景中的个体目标;其次,以ResNet50为骨干网络构建双流估重模型,分别提取RGB和深度模态特征,并引入CBAM(convolutional block attention module)注意力机制以增强关键特征表达能力。设计跨模态的层级特征融合,有效结合RGB流和深度流的特征并充分利用浅层特征;第三,引入肉牛的身份信息便于网络学习肉牛身份与其体质量之间的对应关系,为优化模型效率,将全连接层替换为KAN(kolmogorov-arnold networks),显著减少参数量;最后,将双流的输出结果融合,回归肉牛体质量值。在试验中,构建了包含2546对RGB-D图像的数据集,包括2373对训练数据和173对验证数据。结果表明,CMHFF-ResNet在验证集上的平均绝对误差为14.19 kg。与基于RGB和深度的单流模型相比,双流模型在平均绝对误差上分别降低16.943%和26.133%。同时,该方法优于其他现有肉牛体质量估测方法:与多元线性回归、改进MobileNetv2模型、改进DenseNet201模型和改进跨模态特征融合模型CFF-ResNet相比,在平均绝对误差上分别减少57.233%、34.699%、24.761%和20.991%,提升了群养环境下肉牛个体质量估测的精度与泛化性,能够有效地学习跨模态的层级特征表示。该研究为大规模群养环境中肉牛个体质量的高精度估测提供了参考。
展开更多
关键词
模型
计算机视觉
目标检测
体质量估测
注意力机制
跨
模态
层级
特征
融合
双流网络
在线阅读
下载PDF
职称材料
基于多模态特征融合的车辆网络波束赋形方法
14
作者
聂佳莉
崔原豪
+3 位作者
张迪
张荣辉
穆俊生
景晓军
《雷达学报(中英文)》
北大核心
2025年第4期994-1004,共11页
波束赋形技术通过向特定方向发射信号,提高了接收信号的功率。然而,在高速动态的车辆网络场景下,频繁的信道状态更新与波束调整导致系统开销过大;波束与用户位置难以实时对齐,易出现错位现象,影响通信稳定性;复杂路况中的遮挡和信道衰...
波束赋形技术通过向特定方向发射信号,提高了接收信号的功率。然而,在高速动态的车辆网络场景下,频繁的信道状态更新与波束调整导致系统开销过大;波束与用户位置难以实时对齐,易出现错位现象,影响通信稳定性;复杂路况中的遮挡和信道衰落进一步限制了波束赋形的效果。为了解决上述问题,该文提出了一种基于卷积神经网络和注意力机制模型的多模态特征融合波束赋形方法,以实现感知辅助的高可靠通信。模型首先对传感器采集的雷达、激光雷达数据分别定制数据转换和标准化策略,解决数据异构问题。然后使用三维卷积残差块提取多层次高阶多模态特征后,利用注意力机制模型融合特征并预测最佳波束,实现通信性能的优化。实验结果表明,该文所提方法在高速场景下可达到接近90%的平均Top-3波束预测精度,相比单模态方案性能显著提升,验证了其在提升通信性能和可靠性方面的优越性。
展开更多
关键词
感知辅助通信
多模态
特征
融合
雷达信号处理
波束赋形
注意力机制
在线阅读
下载PDF
职称材料
残差混合注意力与自适应特征融合的脑肿瘤分割
15
作者
吴进旭
吴云
《计算机应用研究》
北大核心
2025年第8期2525-2531,共7页
脑肿瘤图像的自动化分割在脑肿瘤的辅助诊断和治疗方面至关重要。针对脑肿瘤图像病变区域复杂多变、病灶与背景区域边界模糊的问题,提出了一种结合残差混合注意力、自适应特征融合的脑肿瘤分割方法(residual adaptive convolution-Net,R...
脑肿瘤图像的自动化分割在脑肿瘤的辅助诊断和治疗方面至关重要。针对脑肿瘤图像病变区域复杂多变、病灶与背景区域边界模糊的问题,提出了一种结合残差混合注意力、自适应特征融合的脑肿瘤分割方法(residual adaptive convolution-Net,RAC-Net)。首先,使用双动态卷积增强(dual dynamic convolution enhancement,DDCE)模块以实现更灵活的特征提取和增强模型的适应能力;然后,引入残差混合注意力(residual mixed attention,RMA)模块,以充分提取图像的全局与局部特征;最后,在解码路径中使用自适应特征融合(adaptive feature fusion module,AF2M)模块来对深层与浅层特征进行融合,以获取更丰富的特征信息。在公共数据集BraTS2019与BraTS2021上进行实验,并使用数据集BraTS2023进行跨数据集验证,结果显示RAC-Net的大部分指标均优于现有主流分割方法,说明该分割方法对临床相关脑肿瘤疾病的辅助诊断具有一定的应用价值。
展开更多
关键词
脑肿瘤分割
自适应
特征
融合
残差混合注意力
双动态卷积增强
在线阅读
下载PDF
职称材料
语义图增强与自适应特征补全的多模态推荐
16
作者
超木日力格
何明鑫
马丽艳
《北京师范大学学报(自然科学版)》
北大核心
2025年第3期307-316,共10页
提出了一种集成高阶语义增强与自适应模态特征的多模态推荐(MMSAF)模型,通过该模型中所采用的图卷积神经网络(graph convolutional neural network,GCNN)进行高阶语义增强,以捕捉用户和项目之间更深层次的关联关系,从而更精准地反映用...
提出了一种集成高阶语义增强与自适应模态特征的多模态推荐(MMSAF)模型,通过该模型中所采用的图卷积神经网络(graph convolutional neural network,GCNN)进行高阶语义增强,以捕捉用户和项目之间更深层次的关联关系,从而更精准地反映用户的复杂兴趣偏好,并验证了该模型的有效性和适用性.引入自适应模态融合机制,依据各模态在不同场景下的相对重要性,动态调整模态特征的权重,以灵活适应多样化的用户偏好.结果表明,MMSAF在多个基准数据集上显著优于现有主流方法,在推荐精度和泛化性方面表现出色.
展开更多
关键词
多模态
推荐
图神经网络
自适应
特征
融合
高阶关系建模
语义增强
在线阅读
下载PDF
职称材料
基于深度学习与D-S理论的多模态数据特征融合算法
17
作者
张燕
《吉林大学学报(理学版)》
北大核心
2025年第3期855-860,共6页
针对传统多模态数据特征融合算法存在融合效果较差的问题,提出一种基于深度学习与D-S(Dempster-Shafer)理论的多模态数据特征融合算法.首先,在深度学习框架内,采用受限Boltzmann机(RBM)对多模态数据进行训练,根据数据的特性和任务需求,...
针对传统多模态数据特征融合算法存在融合效果较差的问题,提出一种基于深度学习与D-S(Dempster-Shafer)理论的多模态数据特征融合算法.首先,在深度学习框架内,采用受限Boltzmann机(RBM)对多模态数据进行训练,根据数据的特性和任务需求,构建RBM模型结构进行多模态数据特征选择.其次,根据选取的特征选择计算同类模态数据之间的距离,确定信任函数,并设定阈值以删除异常数据,实现同类模态数据初步融合.最后,通过计算异类模态数据与不同等级特征之间的距离,确定异类数据的信任函数,结合D-S理论实现多模态数据特征融合.实验结果表明,该算法的纯度最高达1.0,标准化互信息最高达0.3,表明该算法可以获取精准的多模态数据特征融合结果.
展开更多
关键词
深度学习
D-S理论
多模态
数据
特征
融合
在线阅读
下载PDF
职称材料
基于跨模态多层次特征融合的电力设备检测算法
18
作者
刘善峰
毛万登
+3 位作者
李苗苗
周千凯
邹文杰
鲍华
《红外技术》
北大核心
2025年第7期884-894,共11页
针对复杂环境下电力设备检测算法鲁棒性较低和小目标检测不准确的问题,本文提出一种基于自适应融合和自注意力增强的跨模态多层次特征融合算法。首先构建双流特征提取网络,提取可见光图像和红外图像的多层级目标表征。通过引入自适应融...
针对复杂环境下电力设备检测算法鲁棒性较低和小目标检测不准确的问题,本文提出一种基于自适应融合和自注意力增强的跨模态多层次特征融合算法。首先构建双流特征提取网络,提取可见光图像和红外图像的多层级目标表征。通过引入自适应融合模块,捕捉可见光分支和红外分支两种模态下的互补特征,并进一步利用基于Transformer的自注意力机制来增强互补特征的语义空间信息。最后通过不同尺度下的深层特征来实现目标的精确定位。本文在自建电力设备数据集上进行充分实验,实验结果表明,所提算法的平均精确率均值(mAP50)可以达到91.7%,相较于单一可见光支路和单一红外支路,分别提升了3.5%和3.9%,有效地实现了跨模态信息的融合。与当前主流目标检测算法相比,展现出较高的鲁棒性。
展开更多
关键词
目标检测
跨
模态
电力设备
自适应
融合
自注意力机制
在线阅读
下载PDF
职称材料
基于多模态数据的注意特征融合姿态估计网络
19
作者
赵云涛
邓新辉
《液晶与显示》
北大核心
2025年第4期598-606,共9页
兼顾准确性与适用性的6D姿态估计一直是研究热点和难点。本文提出了一种基于多模态数据的注意特征融合的6D姿态估计网络。首先,引入了更深层次的挤压激励模块结构,通过调整各通道的权重来增强依赖性扩大感受野,提升处理RGB图像特征的效...
兼顾准确性与适用性的6D姿态估计一直是研究热点和难点。本文提出了一种基于多模态数据的注意特征融合的6D姿态估计网络。首先,引入了更深层次的挤压激励模块结构,通过调整各通道的权重来增强依赖性扩大感受野,提升处理RGB图像特征的效果。进一步,针对多模态数据,在特征融合阶段部署迭代注意特征融合模块,通过多次迭代融合操作解决全局特征融合中的尺度不一致问题,能够更准确地捕捉和整合多模态数据,显著改善了姿态回归的效果。最后,为了量化评估模型在复杂环境下的鲁棒性和适用性,引入了不可见百分比指标,该指标能够评估模型在处理部分遮挡或复杂背景时的性能。通过在公开数据集上的姿态预测实验,验证了改进后模型不仅能够在验证数据集上实现了准确的预测姿态,而且相较于Densefusion模型,本文提出的算法模型在复杂环境下更具适用性。
展开更多
关键词
6D姿态估计
多模态
数据
注意
特征
融合
不可见百分比
在线阅读
下载PDF
职称材料
多模态特征自适应融合的虚假新闻检测
被引量:
4
20
作者
王腾
张大伟
+1 位作者
王利琴
董永峰
《计算机工程与应用》
CSCD
北大核心
2024年第13期102-112,共11页
为解决社交媒体新闻中多模态新闻检测难以充分利用图文信息问题以及探索高效的多模态信息交互方法,提出了一种多模态特征自适应融合的虚假新闻检测模型。分别对新闻文本语义特征、文本情感特征和图文语义差异特征进行提取和表示;通过添...
为解决社交媒体新闻中多模态新闻检测难以充分利用图文信息问题以及探索高效的多模态信息交互方法,提出了一种多模态特征自适应融合的虚假新闻检测模型。分别对新闻文本语义特征、文本情感特征和图文语义差异特征进行提取和表示;通过添加自适应权重参数的方式对多种特征进行加权拼接融合,以减少模型拼接时引入的冗余信息;将融合特征送入分类器中进行新闻的真假分类。实验结果表明,所提出的模型在F1值等评价指标上都优于当前先进的模型。有效提升了虚假新闻检测性能,为社交媒体中虚假新闻的检测提供了有力支持。
展开更多
关键词
虚假新闻检测
情感
特征
图像描述
自适应
融合
在线阅读
下载PDF
职称材料
题名
跨模态自适应特征融合的视觉问答方法
1
作者
陈巧红
项深祥
方贤
孙麒
机构
浙江理工大学计算机科学与技术学院
出处
《哈尔滨工业大学学报》
北大核心
2025年第4期94-104,共11页
基金
浙江省自然科学基金(LQ23F020021)。
文摘
为提高视觉问答(VQA)中跨模态融合与交互的精确度,减少多模态特征信息的丢失,提出了一种新颖的基于跨模态自适应特征融合的视觉问答方法。首先,该方法设计了卷积自注意力单元,包含自注意力层和空洞卷积层,前者用于捕捉全局特征信息,后者用于捕捉视觉对象间的空间关系。其次,通过自适应特征融合层,将全局关系与空间关系进行有效结合,使模型在处理图像特征时能够同时考虑全局关系和视觉对象之间的关联性,从而克服了传统注意力机制忽视空间关系的问题。最后,基于不同模态特征在答案预测中贡献程度的差异,该方法还构建了多模态门控融合模块,根据多模态特征间的重要程度自适应地融合特征,减少多模态信息的丢失,同时不会带来额外的计算资源开销。研究结果表明,该方法在未使用额外数据集预训练的情况下,在VQA2.0的测试-开发集、测试-标准集和GQA数据集上的整体准确率分别达到71.58%、72.00%、58.14%,显著优于传统自注意力方法,该研究成果可为跨模态特征融合领域提供了重要的参考和借鉴。
关键词
视觉问答(VQA)
特征
融合
多模态
注意力机制
门控机制
Keywords
visual question answering(VQA)
feature fusion
multimodal
attentional mechanisms
gating mechanisms
分类号
TP391.41 [自动化与计算机技术—计算机应用技术]
TP391.1 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
基于特征交互与自适应分组融合的多模态目标检测
2
作者
叶志晖
武健
赵晓忠
王文娟
邵新光
机构
浙江中烟工业有限责任公司
浙江大学工程师学院
出处
《红外技术》
北大核心
2025年第4期468-474,共7页
基金
国家自然科学基金(62002320)。
文摘
为提升目标检测方法在复杂场景下的检测效果,将深度学习算法与多模态信息融合技术相结合,提出了一种基于特征交互与自适应分组融合的多模态目标检测模型。模型采用红外和可见光目标图像为输入,以PP-LCNet网络为基础构建对称双支路特征提取结构,并引入特征交互模块,保证不同模态目标特征在提取过程中的信息互补;其次,设计二值化分组注意力机制,利用全局池化结合Sign函数将交互模块的输出特征以所属目标类别进行特征分组,再分别采用空间注意力机制增强各特征组中的目标信息;最后,基于分组增强后的特征,提取不同尺度下的同类特征组,通过自适应加权方式由深至浅进行多尺度融合,并根据融合后的各尺度特征实现目标预测。实验结果表明,所提方法在多模态特征交互、关键特征增强以及多尺度融合方面都有较大的提升作用,并且在复杂场景下,模型也具有更高的鲁棒性,可以更好地适用于不同场景中。
关键词
多模态
目标检测
特征
交互
二值化分组
自适应
融合
Keywords
multimodal
object detection
feature interaction
binary grouping
adaptive fusion
分类号
TP391.41 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
基于双分支多尺度特征融合的跨模态语义分割算法
3
作者
陈广秋
任天蓉
段锦
黄丹丹
机构
长春理工大学电子信息工程学院
出处
《电子测量与仪器学报》
北大核心
2025年第5期144-154,共11页
基金
国家自然科学基金重大仪器专项(62127813)
吉林省科技发展计划项目(20210203181SF)资助。
文摘
针对单模态可见光RGB图像语义分割在夜晚或光线变化环境下存在分割效果差、目标边缘分割不清晰等问题,以及现有的跨模态语义分割在获取全局上下文信息和融合跨模态特征时还存在大量不足。为此提出了一种基于双分支多尺度特征融合的跨模态语义分割算法。采用Segformer作为主干网络提取特征,捕获长距离依赖关系,采用特征增强模块提升浅层特征图的对比度和边缘信息的判别性,利用有效注意力增强模块和跨模态特征融合模块,对不同模态特征图像素点间的关系进行建模,聚合互补信息,发挥跨模态特征优势。最后,采用轻量级的All-MLP解码器重建图像,预测分割结果。相比较于已有主流算法,该算法在MFNet城市街景数据集上的各项评估指标均为最优,平均准确率(mAcc)和平均交并比(mIoU)分别达到了76.9%和59.8%。实验结果表明,该算法在处理复杂场景时,能够有效改善目标边缘轮廓分割不清晰的问题,提高图像的分割精度。
关键词
多模态
深度学习
语义分割
特征
融合
跨
模态
Segformer
Keywords
multimodal deep learning
semantic segmentation
feature fusion
cross-modal
Segformer
分类号
TP391.41 [自动化与计算机技术—计算机应用技术]
TN215 [电子电信—物理电子学]
在线阅读
下载PDF
职称材料
题名
多模态特征融合的RGB-T目标跟踪网络
4
作者
金静
刘建琴
翟凤文
机构
兰州交通大学电子与信息工程学院
出处
《光学精密工程》
北大核心
2025年第12期1940-1954,共15页
基金
甘肃省高校教师创新基金项目(No.2025B-060)
宁夏自然科学基金资助项目(No.2023AAC03741)
甘肃省科技计划项目重点研发计划-工业类(No.23YFGA0047)。
文摘
近年来,RGB-T跟踪方法因可见光与热红外图像的互补特性而在视觉跟踪领域得到广泛应用。然而,现有方法在模态互补信息利用方面仍存在局限,特别是基于Transformer的算法缺乏模态间的直接交互,难以充分挖掘RGB和TIR模态的语义信息。针对这些问题,提出了一种多模态特征融合的RGB-T目标跟踪网络(Multi-Modal Feature Fusion Tracking Network for RGB-T,MMFFTN)。该网络首先在骨干网络提取初步特征后,引入通道特征融合模块(Channel Feature Fusion Module,CFFM),实现RGB和TIR通道特征的直接交互与融合。其次,针对RGB和TIR模态差异可能导致的融合效果不理想问题,设计了跨模态特征融合模块(Cross-Modal Feature Fusion Module,CMFM),通过自适应融合策略进一步融合RGB和TIR的全局特征,以提升跟踪的准确性。对本文提出的跟踪模型在GTOT,RGBT234和LasHeR三个数据集上进行了详细的实验评估。实验结果表明,与当前先进的基于Transformer的跟踪器ViPT相比,MMFFTN在成功率(Success Rate)和精确率(Precision Rate)上分别提升了3.0%和4.7%;与基于Transformer的跟踪器SDSTrack相比,成功率和精确率分别提升了2.4%和3.3%。
关键词
RGB-T目标跟踪
TRANSFORMER
通道
特征
融合
跨
模态
特征
融合
Keywords
RGB-T tracking
transformer
channel feature fusion
cross-modal feature fusion
分类号
TP391 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
多模态融合与时序特征相残差的异常流量检测方法
5
作者
刘会景
唐永旺
郑登峰
机构
乌鲁木齐职业大学
中国人民解放军战略支援部队信息工程大学
国家管网集团
出处
《计算机应用与软件》
北大核心
2025年第3期102-109,共8页
基金
国家自然科学基金项目(51774291)
国家自然科学基金地区基金项目(51864045)
+2 种基金
新疆维吾尔自治区自然科学基金项目(2021D01F53)
青岛中油华东院安全环保有限公司课题项目(AQ20170807)
乌鲁木齐“人才工程”重点培养对象项目(20191010)。
文摘
针对当前基于深度学习的方法无法有效融合流量多模特征的问题,提出一种多模融合与时序特征相残差的异常流量检测方法。以会话为单位切分原始流量,获取流量记录的多模态特征;通过跨模态注意力机制进行多模特征融合,进而利用Transformer挖掘流量记录的时序特征;采用残差学习的方法联合多模态融合特征和时序特征进行检测。在CSE-CIC-IDS2018数据集上验证,二分类和多分类的准确率分别为95.19%和90.52%,相较于对比方法,在准确率和精度最优时误报率最低。
关键词
深度学习
多模态
融合
时序
特征
残差学习
注意力机制
异常流量
Keywords
Deep learning
Multi-modal fusion
Sequential feature
Residual learning
Attention mechanism
Anomaly network traffic
分类号
TP393.08 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
自适应特征融合的多模态实体对齐研究
被引量:
9
6
作者
郭浩
李欣奕
唐九阳
郭延明
赵翔
机构
国防科技大学系统工程学院
出处
《自动化学报》
EI
CAS
CSCD
北大核心
2024年第4期758-770,共13页
基金
国家自然科学基金(62002373,61872446,71971212,U19B2024)资助。
文摘
多模态数据间交互式任务的兴起对于综合利用不同模态的知识提出了更高的要求,因此融合不同模态知识的多模态知识图谱应运而生.然而,现有多模态知识图谱存在图谱知识不完整的问题,严重阻碍对信息的有效利用.缓解此问题的有效方法是通过实体对齐进行知识图谱补全.当前多模态实体对齐方法以固定权重融合多种模态信息,在融合过程中忽略不同模态信息贡献的差异性.为解决上述问题,设计一套自适应特征融合机制,根据不同模态数据质量动态融合实体结构信息和视觉信息.此外,考虑到视觉信息质量不高、知识图谱之间的结构差异也影响实体对齐的效果,本文分别设计提升视觉信息有效利用率的视觉特征处理模块以及缓和结构差异性的三元组筛选模块.在多模态实体对齐任务上的实验结果表明,提出的多模态实体对齐方法的性能优于当前最好的方法.
关键词
多模态
知识图谱
实体对齐
预训练模型
特征
融合
Keywords
Multi-modal knowledge graph
entity alignment
pre-trained model
feature fusion
分类号
TP391.1 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
多模态分级特征映射与融合表征方法研究
被引量:
1
7
作者
郭小宇
马静
陈杰
机构
南京航空航天大学经济与管理学院
出处
《计算机工程与应用》
北大核心
2025年第6期171-182,共12页
基金
国家自然科学基金面上项目(72174086)。
文摘
多模态特征表征是多模态任务的基础。为解决多模态特征表征方法融合层次单一、未能充分映射不同模态间的关联关系的问题,提出了一种多模态分级特征映射与融合表征方法。该方法在文本模型RoBERTa与图像模型DenseNet的基础上,从两个模型的中间层抽取由低级别到高级别的特征,基于特征重用的思想映射与融合文本与图像模态不同级别的特征,捕捉文本与图像模态之间的内部关联,充分融合两种模态之间的特征。将分级特征映射与融合表征馈入分类器,应用于多模态舆情的情感分类中,同时将构建的表征方法与基线表征方法进行对比分析。实验结果表明,提出的表征方法在微博舆情和MVSA-Multiple数据集上的情感分类性能均超越了所有基线模型,其中在微博数据集上F1值提升了0.0137,在MVSA-Multiple数据集上F1值提升了0.0222。图像特征能够提升文本单模态特征下的情感分类准确率,但是其提升程度与融合策略密切相关;多模态分级特征映射与融合表征方法能够有效映射文本与图像特征之间的关系,提升多模态舆情的情感分类效果。
关键词
多模态
特征
融合
分级
特征
映射与
融合
情感分类
特征
表示
Keywords
multimodal feature fusion
hierarchical feature
map and fusion
sentiment classification,feature representation
分类号
TP391.1 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
多层次时空特征自适应集成与特有-共享特征融合的双模态情感识别
被引量:
4
8
作者
孙强
陈远
机构
西安理工大学自动化与信息工程学院通信工程系
西安市无线光通信与网络研究重点实验室
出处
《电子与信息学报》
EI
CAS
CSCD
北大核心
2024年第2期574-587,共14页
基金
西安市科技计划项目(22GXFW0086)
西安市碑林区科技计划项目(GX2243)
西安理工大学研究生校企协同创新基金(310/252062108)。
文摘
在结合脑电(EEG)信号与人脸图像的双模态情感识别领域中,通常存在两个挑战性问题:(1)如何从EEG信号中以端到端方式学习到更具显著性的情感语义特征;(2)如何充分利用双模态信息,捕捉双模态特征中情感语义的一致性与互补性。为此,提出了多层次时空特征自适应集成与特有-共享特征融合的双模态情感识别模型。一方面,为从EEG信号中获得更具显著性的情感语义特征,设计了多层次时空特征自适应集成模块。该模块首先通过双流结构捕捉EEG信号的时空特征,再通过特征相似度加权并集成各层次的特征,最后利用门控机制自适应地学习各层次相对重要的情感特征。另一方面,为挖掘EEG信号与人脸图像之间的情感语义一致性与互补性,设计了特有-共享特征融合模块,通过特有特征的学习和共享特征的学习来联合学习情感语义特征,并结合损失函数实现各模态特有语义信息和模态间共享语义信息的自动提取。在DEAP和MAHNOB-HCI两种数据集上,采用跨实验验证和5折交叉验证两种实验手段验证了提出模型的性能。实验结果表明,该模型取得了具有竞争力的结果,为基于EEG信号与人脸图像的双模态情感识别提供了一种有效的解决方案。
关键词
双
模态
情感识别
脑电
人脸图像
多层次时空
特征
特征
融合
Keywords
Bimodal emotion recognition
ElectroEncephaloGram(EEG)
Facial image
Multi-level spatialtemporal features
Feature fusion
分类号
TN911.7 [电子电信—通信与信息系统]
TP391 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
多模态特征增强的双层融合知识推理方法
被引量:
1
9
作者
荆博祥
王海荣
王彤
杨振业
机构
北方民族大学计算机科学与工程学院
北方民族大学图像图形智能处理国家民委重点实验室
出处
《计算机科学与探索》
北大核心
2025年第2期406-416,共11页
基金
宁夏自然科学基金(2023AAC03316)
宁夏回族自治区教育厅高等学校科学研究重点项目(NYG2022051)
北方民族大学中央高校基本科研业务费专项资金(2021KJCX10)。
文摘
现有的多模态知识推理方法大多采用拼接或注意力的方式,将预训练模型提取到的多模态特征直接进行融合,往往忽略了不同模态之间的异构性和交互的复杂性。为此,提出了一种多模态特征增强的双层融合知识推理方法。结构信息嵌入模块采用自适应图注意力机制筛选并聚合关键的邻居信息,用来增强实体和关系嵌入的语义表达;多模态嵌入信息模块使用不同的注意力机制关注不同模态数据的独有特征,以及多模态数据间的共性特征,利用共性特征的互补信息进行模态交互,以减少模态间异构性差异;多模态特征融合模块采用将低秩多模态特征融合和决策融合相结合的双层融合策略,实现了多模态数据在模态间和模态内的动态复杂交互,并综合考虑每种模态在推理中的贡献度,得到更全面的预测结果。为了验证方法的有效性,分别在FB15K-237、DB15K和YAGO15K数据集上进行了实验。结果表明:该方法相比多模态推理方法,在FB15K-237数据集上MRR和Hits@1分别平均提升3.6%和2.2%;相比单模态推理方法,MRR和Hits@1分别平均提升13.7%和14.6%。
关键词
多模态
知识图谱
链接预测
知识推理
多模态
特征
融合
Keywords
multi-modal knowledge graph
link prediction
knowledge reasoning
multi-modal feature fusion
分类号
TP391 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
基于时空特征融合与候选策略的智能汽车多模态轨迹预测
被引量:
1
10
作者
杨智勇
杨俊
许沁欣
机构
重庆师范大学计算机与信息科学学院
重庆工程职业技术学院大数据与物联网学院
出处
《计算机工程与应用》
北大核心
2025年第13期217-226,共10页
基金
重庆市自然科学基金(cstc2021ycjh-bgzxm0088)
重庆市教育委员会科学技术研究计划项目(KJZD-M202303401)
重庆市高校创新研究群体(CXQT21032)。
文摘
针对现有轨迹预测模型在捕捉复杂时空动态方面的局限性,以及部分预测轨迹不符合实际场景约束等问题,提出了一种基于时空特征融合和候选策略的智能汽车多模态轨迹预测模型。在场景编码和特征融合阶段,设计了非对称双向门控循环单元以捕获历史轨迹序列之间的双向依赖性;引入一种基于交叉注意力的混合特征注意力方法,以建模车道与交通参与者间的隐式交互,并在车道图节点中深度融合车道空间特征和轨迹的时序特征。在解码器前引入直接使用车道拓扑结构的候选策略,该策略将利用先验知识指导预测过程,并通过覆盖目标车辆可能的未来轨迹,确保解码器能够输出可靠的多模态轨迹。该模型在公开数据集nuScenes上进行验证,实验结果表明,在预测5条和10条轨迹时,minADE和MR分别较最佳对比模型提高了7.5%、11.5%和5.5%、21.4%。可视化结果展现出更强的稳健性和解释性。
关键词
智能驾驶
轨迹预测
时空
特征
融合
注意力机制
多模态
预测
Keywords
intelligent driving
trajectory prediction
spatio-temporal feature fusion
attention mechanisms
multimodal prediction
分类号
TP391 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
基于特征解耦与融合的不完全多模态骨肿瘤图像分类
11
作者
曾青海
李传璞
阳维
宋丽文
赵英华
杨谊
机构
南方医科大学生物医学工程学院
广东省医学图像处理重点实验室
南方医科大学第三附属医院放射科
出处
《南方医科大学学报》
北大核心
2025年第6期1327-1335,共9页
基金
国家自然科学基金(82172020)。
文摘
目的 提出了一种基于特征解耦与融合的骨肿瘤分类模型,用于合理处理模态缺失并融合多模态信息,以提升分类准确率。方法 设计解耦补全模块,先提取包含已有模态的局部与全局信息的骨肿瘤图像特征,再将该特征分解为共享特征和特定特征。利用共享特征作为缺失模态特征的补全表示,从而减少因模态差异带来的补全偏差。考虑到模态差异可能会使多模态信息难以融合,采用基于交叉注意力机制的融合模块。提升模型学习跨模态信息的能力并对特定特征进行充分融合,从而提高骨肿瘤分类的准确性。结果 实验采用在南方医科大学第三附属医院收集的骨肿瘤数据集进行训练和测试。在7种可用模态组合中,本文方法中骨肿瘤分类的平均AUC、准确率、特异性分别为0.766、0.621、0.793,与现有的模态缺失处理方法相比分别提高了2.6%、3.5%、1.7%。全模态情况下骨肿瘤分类效果最佳,AUC为0.837;仅有MRI模态时AUC仍能达到0.826。结论 本文方法能合理地处理模态缺失并有效融合多模态信息,在多种复杂的缺失情境下表现出良好的骨肿瘤分类性能。
关键词
骨肿瘤分类
多模态
图像
模态
缺失
特征
解耦
注意力
融合
Keywords
bone tumor classification
multimodal imaging
modality missing
feature decoupling
attention fusion
分类号
TP391.41 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
基于深度特征交互与层次化多模态融合的情感识别模型
12
作者
王健
赵小明
王成龙
张石清
赵舒畅
机构
杭州电子科技大学计算机学院
台州学院智能信息处理研究所
出处
《计算机应用研究》
北大核心
2025年第7期1978-1985,共8页
基金
国家自然科学基金资助项目(62276180)。
文摘
多模态情感识别近年来成为情感计算领域的重要研究方向,旨在通过融合语音、文本等多种模态以更精确地识别和理解人类情感状态。然而,现有方法在提取特征时缺乏模态间的关联性处理以及融合特征时忽视多尺度情感线索。为了解决上述问题,提出一种基于深度特征交互与层次化多模态融合的情感识别模型(DFIHMF)。在特征提取阶段,该模型通过引入本地知识令牌(local knowledge token,LKT)与跨模态交互令牌(cross-modal interaction token,CIT)来增强不同模态之间的交互并提取多尺度信息。在特征融合阶段,该模型利用层次化融合策略来融合模态间复杂的多模态特征与多尺度情感线索。在MOSI与MOSEI数据集上的实验结果显示,该模型在ACC7评价指标上的准确率分别达45.6%和53.5%,证明了所提方法在多模态情感识别任务上优于现有技术。
关键词
多模态
情感识别
层次化
融合
多尺度
融合
特征
融合
Keywords
multimodal emotion recognition
hierarchical fusion
multi-scale fusion
feature fusion
分类号
TP391 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
基于注意力机制和跨模态层级特征融合的群养肉牛个体质量估测
13
作者
宋平
杨颖
刘刚
姚冲
李子若
毛天赐
机构
中国农业大学信息与电气工程学院
中国农业大学智慧农业系统集成研究教育部重点实验室
中国农业大学农业农村部农业信息获取技术重点实验室
出处
《农业工程学报》
北大核心
2025年第10期221-231,共11页
基金
国家重点研发计划项目(2021YFD1300502)。
文摘
为解决群养场景下肉牛个体质量称量复杂、精度低的问题,该研究提出了基于注意力机制和跨模态层级特征融合模型CMHFF-ResNet(cross-modal hierarchical feature fusion resnet)。首先,无接触式地采集俯视视角下日常活动的肉牛的RGB(red-green-blue)图像与深度图像,使用引入定向边界框OBB(oriented bounding box)的YOLOv8网络对肉牛进行旋转目标检测和识别,精准定位群养场景中的个体目标;其次,以ResNet50为骨干网络构建双流估重模型,分别提取RGB和深度模态特征,并引入CBAM(convolutional block attention module)注意力机制以增强关键特征表达能力。设计跨模态的层级特征融合,有效结合RGB流和深度流的特征并充分利用浅层特征;第三,引入肉牛的身份信息便于网络学习肉牛身份与其体质量之间的对应关系,为优化模型效率,将全连接层替换为KAN(kolmogorov-arnold networks),显著减少参数量;最后,将双流的输出结果融合,回归肉牛体质量值。在试验中,构建了包含2546对RGB-D图像的数据集,包括2373对训练数据和173对验证数据。结果表明,CMHFF-ResNet在验证集上的平均绝对误差为14.19 kg。与基于RGB和深度的单流模型相比,双流模型在平均绝对误差上分别降低16.943%和26.133%。同时,该方法优于其他现有肉牛体质量估测方法:与多元线性回归、改进MobileNetv2模型、改进DenseNet201模型和改进跨模态特征融合模型CFF-ResNet相比,在平均绝对误差上分别减少57.233%、34.699%、24.761%和20.991%,提升了群养环境下肉牛个体质量估测的精度与泛化性,能够有效地学习跨模态的层级特征表示。该研究为大规模群养环境中肉牛个体质量的高精度估测提供了参考。
关键词
模型
计算机视觉
目标检测
体质量估测
注意力机制
跨
模态
层级
特征
融合
双流网络
Keywords
model
computer vision
object detection
weight estimation
attention mechanism
cross-modal hierarchical feature fusion
two-stream network
分类号
S126 [农业科学—农业基础科学]
在线阅读
下载PDF
职称材料
题名
基于多模态特征融合的车辆网络波束赋形方法
14
作者
聂佳莉
崔原豪
张迪
张荣辉
穆俊生
景晓军
机构
北京邮电大学
出处
《雷达学报(中英文)》
北大核心
2025年第4期994-1004,共11页
基金
国家重点研发计划(202304D3)
国家自然科学基金(62171049)。
文摘
波束赋形技术通过向特定方向发射信号,提高了接收信号的功率。然而,在高速动态的车辆网络场景下,频繁的信道状态更新与波束调整导致系统开销过大;波束与用户位置难以实时对齐,易出现错位现象,影响通信稳定性;复杂路况中的遮挡和信道衰落进一步限制了波束赋形的效果。为了解决上述问题,该文提出了一种基于卷积神经网络和注意力机制模型的多模态特征融合波束赋形方法,以实现感知辅助的高可靠通信。模型首先对传感器采集的雷达、激光雷达数据分别定制数据转换和标准化策略,解决数据异构问题。然后使用三维卷积残差块提取多层次高阶多模态特征后,利用注意力机制模型融合特征并预测最佳波束,实现通信性能的优化。实验结果表明,该文所提方法在高速场景下可达到接近90%的平均Top-3波束预测精度,相比单模态方案性能显著提升,验证了其在提升通信性能和可靠性方面的优越性。
关键词
感知辅助通信
多模态
特征
融合
雷达信号处理
波束赋形
注意力机制
Keywords
Sensor-assisted communication
Multimodal feature fusion
Radar signal processing
Beamforming
Attention mechanism
分类号
TN957.52 [电子电信—信号与信息处理]
在线阅读
下载PDF
职称材料
题名
残差混合注意力与自适应特征融合的脑肿瘤分割
15
作者
吴进旭
吴云
机构
贵州大学公共大数据国家重点实验室
贵州大学计算机科学与技术学院
出处
《计算机应用研究》
北大核心
2025年第8期2525-2531,共7页
基金
国家自然科学基金资助项目(62266011)
贵州省科技计划资助项目(黔科合基础-ZK[2022]一般119)
贵州大学研究生创新人才计划资助项目。
文摘
脑肿瘤图像的自动化分割在脑肿瘤的辅助诊断和治疗方面至关重要。针对脑肿瘤图像病变区域复杂多变、病灶与背景区域边界模糊的问题,提出了一种结合残差混合注意力、自适应特征融合的脑肿瘤分割方法(residual adaptive convolution-Net,RAC-Net)。首先,使用双动态卷积增强(dual dynamic convolution enhancement,DDCE)模块以实现更灵活的特征提取和增强模型的适应能力;然后,引入残差混合注意力(residual mixed attention,RMA)模块,以充分提取图像的全局与局部特征;最后,在解码路径中使用自适应特征融合(adaptive feature fusion module,AF2M)模块来对深层与浅层特征进行融合,以获取更丰富的特征信息。在公共数据集BraTS2019与BraTS2021上进行实验,并使用数据集BraTS2023进行跨数据集验证,结果显示RAC-Net的大部分指标均优于现有主流分割方法,说明该分割方法对临床相关脑肿瘤疾病的辅助诊断具有一定的应用价值。
关键词
脑肿瘤分割
自适应
特征
融合
残差混合注意力
双动态卷积增强
Keywords
brain tumor segmentation
adaptive feature fusion
residual mixed attention
dual dynamic convolution enhancement
分类号
TP391.41 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
语义图增强与自适应特征补全的多模态推荐
16
作者
超木日力格
何明鑫
马丽艳
机构
中央民族大学民族语言智能分析与安全治理教育部重点实验室
中央民族大学信息工程学院
上海大学计算机工程与科学学院
出处
《北京师范大学学报(自然科学版)》
北大核心
2025年第3期307-316,共10页
基金
中央高校基本科研业务费专项资金资助项目(2024QNYL07)
海南省自然科学基金重点研发计划资助项目(ZDYF2024(LALH)-005)
北京市科学计划资助项目(Z231100001723002)。
文摘
提出了一种集成高阶语义增强与自适应模态特征的多模态推荐(MMSAF)模型,通过该模型中所采用的图卷积神经网络(graph convolutional neural network,GCNN)进行高阶语义增强,以捕捉用户和项目之间更深层次的关联关系,从而更精准地反映用户的复杂兴趣偏好,并验证了该模型的有效性和适用性.引入自适应模态融合机制,依据各模态在不同场景下的相对重要性,动态调整模态特征的权重,以灵活适应多样化的用户偏好.结果表明,MMSAF在多个基准数据集上显著优于现有主流方法,在推荐精度和泛化性方面表现出色.
关键词
多模态
推荐
图神经网络
自适应
特征
融合
高阶关系建模
语义增强
Keywords
multimodal recommendation
graph neural network
adaptive
feature fusion
high-order relationship modeling
semantic enhancement
分类号
TP391 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
基于深度学习与D-S理论的多模态数据特征融合算法
17
作者
张燕
机构
新疆师范大学计算机科学技术学院
出处
《吉林大学学报(理学版)》
北大核心
2025年第3期855-860,共6页
基金
国家自然科学基金(批准号:41561100)
新疆师范大学自治区“十四五”重点学科招标项目(批准号:23XJKD0202)
新疆师范大学校级教学研究与改革项目(批准号:SDJG202214)。
文摘
针对传统多模态数据特征融合算法存在融合效果较差的问题,提出一种基于深度学习与D-S(Dempster-Shafer)理论的多模态数据特征融合算法.首先,在深度学习框架内,采用受限Boltzmann机(RBM)对多模态数据进行训练,根据数据的特性和任务需求,构建RBM模型结构进行多模态数据特征选择.其次,根据选取的特征选择计算同类模态数据之间的距离,确定信任函数,并设定阈值以删除异常数据,实现同类模态数据初步融合.最后,通过计算异类模态数据与不同等级特征之间的距离,确定异类数据的信任函数,结合D-S理论实现多模态数据特征融合.实验结果表明,该算法的纯度最高达1.0,标准化互信息最高达0.3,表明该算法可以获取精准的多模态数据特征融合结果.
关键词
深度学习
D-S理论
多模态
数据
特征
融合
Keywords
deep learning
D-S theory
multimodal data feature
fuse
分类号
TP274 [自动化与计算机技术—检测技术与自动化装置]
在线阅读
下载PDF
职称材料
题名
基于跨模态多层次特征融合的电力设备检测算法
18
作者
刘善峰
毛万登
李苗苗
周千凯
邹文杰
鲍华
机构
国网河南省电力公司电力科学研究院
国网驻马店确山县电力公司
安徽大学电气工程及其自动化学院
出处
《红外技术》
北大核心
2025年第7期884-894,共11页
基金
安徽省科技厅自然基金面上项目(1908085MF217)
安徽省教育厅重点项目(2023AH050085)。
文摘
针对复杂环境下电力设备检测算法鲁棒性较低和小目标检测不准确的问题,本文提出一种基于自适应融合和自注意力增强的跨模态多层次特征融合算法。首先构建双流特征提取网络,提取可见光图像和红外图像的多层级目标表征。通过引入自适应融合模块,捕捉可见光分支和红外分支两种模态下的互补特征,并进一步利用基于Transformer的自注意力机制来增强互补特征的语义空间信息。最后通过不同尺度下的深层特征来实现目标的精确定位。本文在自建电力设备数据集上进行充分实验,实验结果表明,所提算法的平均精确率均值(mAP50)可以达到91.7%,相较于单一可见光支路和单一红外支路,分别提升了3.5%和3.9%,有效地实现了跨模态信息的融合。与当前主流目标检测算法相比,展现出较高的鲁棒性。
关键词
目标检测
跨
模态
电力设备
自适应
融合
自注意力机制
Keywords
object detection
cross-modal
power equipment
adaptive fusion
self-attention mechanism
分类号
TP391.4 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
基于多模态数据的注意特征融合姿态估计网络
19
作者
赵云涛
邓新辉
机构
武汉科技大学信息科学与工程学院
出处
《液晶与显示》
北大核心
2025年第4期598-606,共9页
基金
湖北省工程研究中心开放课题(No.IDICP-KF-2024-08)。
文摘
兼顾准确性与适用性的6D姿态估计一直是研究热点和难点。本文提出了一种基于多模态数据的注意特征融合的6D姿态估计网络。首先,引入了更深层次的挤压激励模块结构,通过调整各通道的权重来增强依赖性扩大感受野,提升处理RGB图像特征的效果。进一步,针对多模态数据,在特征融合阶段部署迭代注意特征融合模块,通过多次迭代融合操作解决全局特征融合中的尺度不一致问题,能够更准确地捕捉和整合多模态数据,显著改善了姿态回归的效果。最后,为了量化评估模型在复杂环境下的鲁棒性和适用性,引入了不可见百分比指标,该指标能够评估模型在处理部分遮挡或复杂背景时的性能。通过在公开数据集上的姿态预测实验,验证了改进后模型不仅能够在验证数据集上实现了准确的预测姿态,而且相较于Densefusion模型,本文提出的算法模型在复杂环境下更具适用性。
关键词
6D姿态估计
多模态
数据
注意
特征
融合
不可见百分比
Keywords
6D pose estimation
multimodal data
attention feature fusion
occlusion percentage
分类号
TP391 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
多模态特征自适应融合的虚假新闻检测
被引量:
4
20
作者
王腾
张大伟
王利琴
董永峰
机构
河北工业大学人工智能与数据科学学院
中国科学院自动化研究所模式识别国家重点实验室
出处
《计算机工程与应用》
CSCD
北大核心
2024年第13期102-112,共11页
基金
国家自然科学基金(61806072)
河北省高等学校科学技术研究项目(ZD2022082,QN2021213)
河北省自然科学基金(F2020202008)。
文摘
为解决社交媒体新闻中多模态新闻检测难以充分利用图文信息问题以及探索高效的多模态信息交互方法,提出了一种多模态特征自适应融合的虚假新闻检测模型。分别对新闻文本语义特征、文本情感特征和图文语义差异特征进行提取和表示;通过添加自适应权重参数的方式对多种特征进行加权拼接融合,以减少模型拼接时引入的冗余信息;将融合特征送入分类器中进行新闻的真假分类。实验结果表明,所提出的模型在F1值等评价指标上都优于当前先进的模型。有效提升了虚假新闻检测性能,为社交媒体中虚假新闻的检测提供了有力支持。
关键词
虚假新闻检测
情感
特征
图像描述
自适应
融合
Keywords
fake news detection
emotional feature
image caption
adaptive fusion
分类号
TP391 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
跨模态自适应特征融合的视觉问答方法
陈巧红
项深祥
方贤
孙麒
《哈尔滨工业大学学报》
北大核心
2025
0
在线阅读
下载PDF
职称材料
2
基于特征交互与自适应分组融合的多模态目标检测
叶志晖
武健
赵晓忠
王文娟
邵新光
《红外技术》
北大核心
2025
0
在线阅读
下载PDF
职称材料
3
基于双分支多尺度特征融合的跨模态语义分割算法
陈广秋
任天蓉
段锦
黄丹丹
《电子测量与仪器学报》
北大核心
2025
0
在线阅读
下载PDF
职称材料
4
多模态特征融合的RGB-T目标跟踪网络
金静
刘建琴
翟凤文
《光学精密工程》
北大核心
2025
0
在线阅读
下载PDF
职称材料
5
多模态融合与时序特征相残差的异常流量检测方法
刘会景
唐永旺
郑登峰
《计算机应用与软件》
北大核心
2025
0
在线阅读
下载PDF
职称材料
6
自适应特征融合的多模态实体对齐研究
郭浩
李欣奕
唐九阳
郭延明
赵翔
《自动化学报》
EI
CAS
CSCD
北大核心
2024
9
在线阅读
下载PDF
职称材料
7
多模态分级特征映射与融合表征方法研究
郭小宇
马静
陈杰
《计算机工程与应用》
北大核心
2025
1
在线阅读
下载PDF
职称材料
8
多层次时空特征自适应集成与特有-共享特征融合的双模态情感识别
孙强
陈远
《电子与信息学报》
EI
CAS
CSCD
北大核心
2024
4
在线阅读
下载PDF
职称材料
9
多模态特征增强的双层融合知识推理方法
荆博祥
王海荣
王彤
杨振业
《计算机科学与探索》
北大核心
2025
1
在线阅读
下载PDF
职称材料
10
基于时空特征融合与候选策略的智能汽车多模态轨迹预测
杨智勇
杨俊
许沁欣
《计算机工程与应用》
北大核心
2025
1
在线阅读
下载PDF
职称材料
11
基于特征解耦与融合的不完全多模态骨肿瘤图像分类
曾青海
李传璞
阳维
宋丽文
赵英华
杨谊
《南方医科大学学报》
北大核心
2025
0
在线阅读
下载PDF
职称材料
12
基于深度特征交互与层次化多模态融合的情感识别模型
王健
赵小明
王成龙
张石清
赵舒畅
《计算机应用研究》
北大核心
2025
0
在线阅读
下载PDF
职称材料
13
基于注意力机制和跨模态层级特征融合的群养肉牛个体质量估测
宋平
杨颖
刘刚
姚冲
李子若
毛天赐
《农业工程学报》
北大核心
2025
0
在线阅读
下载PDF
职称材料
14
基于多模态特征融合的车辆网络波束赋形方法
聂佳莉
崔原豪
张迪
张荣辉
穆俊生
景晓军
《雷达学报(中英文)》
北大核心
2025
0
在线阅读
下载PDF
职称材料
15
残差混合注意力与自适应特征融合的脑肿瘤分割
吴进旭
吴云
《计算机应用研究》
北大核心
2025
0
在线阅读
下载PDF
职称材料
16
语义图增强与自适应特征补全的多模态推荐
超木日力格
何明鑫
马丽艳
《北京师范大学学报(自然科学版)》
北大核心
2025
0
在线阅读
下载PDF
职称材料
17
基于深度学习与D-S理论的多模态数据特征融合算法
张燕
《吉林大学学报(理学版)》
北大核心
2025
0
在线阅读
下载PDF
职称材料
18
基于跨模态多层次特征融合的电力设备检测算法
刘善峰
毛万登
李苗苗
周千凯
邹文杰
鲍华
《红外技术》
北大核心
2025
0
在线阅读
下载PDF
职称材料
19
基于多模态数据的注意特征融合姿态估计网络
赵云涛
邓新辉
《液晶与显示》
北大核心
2025
0
在线阅读
下载PDF
职称材料
20
多模态特征自适应融合的虚假新闻检测
王腾
张大伟
王利琴
董永峰
《计算机工程与应用》
CSCD
北大核心
2024
4
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
2
…
34
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部