期刊文献+
共找到18篇文章
< 1 >
每页显示 20 50 100
基于多元实体对齐的视觉-语言多模态预训练
1
作者 李登 武阿明 韩亚洪 《软件学报》 北大核心 2025年第11期5118-5133,共16页
视觉-语言预训练(visual-language pre-training,VLP)旨在通过在大规模图像-文本多模态数据集上进行学习得到强大的多模态表示.多模态特征融合、对齐是多模态模型训练的关键挑战.现有的大多数视觉-语言预训练模型对于多模态特征融合、... 视觉-语言预训练(visual-language pre-training,VLP)旨在通过在大规模图像-文本多模态数据集上进行学习得到强大的多模态表示.多模态特征融合、对齐是多模态模型训练的关键挑战.现有的大多数视觉-语言预训练模型对于多模态特征融合、对齐问题主要方式是将提取的视觉特征和文本特征直接输入至Transformer模型中.通过Transformer模型中的attention模块进行融合,由于attention机制计算的是两两之间的相似度,因而该方法难以实现多元实体间的对齐.鉴于超图神经网络的超边具有连接多个实体、编码高阶实体相关性的特性,进而实现多元实体间关系的建立.提出基于超图神经网络的多元实体对齐的视觉-语言多模态模型预训练方法.该方法在Transformer多模态融合编码器中引入超图神经网络学习模块学习多模态间多元实体的对齐关系以增强预训练模型中多模态融合编码器实体对齐能力.在大规模图像-文本数据集上对所提视觉-语言预训练模型进行预训练并在视觉问答、图文检索、视觉定位以及自然语言视觉推理多个视觉-语言下游任务上进行微调实验,实验结果表明所提方法相比于baseline方法在多个下游任务中性能均有提升,其中在NLVR2任务上相比baseline方法准确率提升1.8%. 展开更多
关键词 视觉-语言预训练 超图神经网络 多元实体对齐 注意力机制 模态理解
在线阅读 下载PDF
跨模态信息融合的视频-文本检索
2
作者 习怡萌 邓箴 +1 位作者 刘倩 刘立波 《计算机应用》 北大核心 2025年第8期2448-2456,共9页
现有的视频-文本检索(VTR)方法通常假设文本描述与视频之间存在强语义关联,却忽略了数据集中广泛存在的弱相关视频文本对,导致模型虽然擅长识别常见的通用概念,但无法充分挖掘弱语义描述的潜在信息,进而影响模型的检索性能。针对上述问... 现有的视频-文本检索(VTR)方法通常假设文本描述与视频之间存在强语义关联,却忽略了数据集中广泛存在的弱相关视频文本对,导致模型虽然擅长识别常见的通用概念,但无法充分挖掘弱语义描述的潜在信息,进而影响模型的检索性能。针对上述问题,提出一种跨模态信息融合的VTR模型,该模型以跨模态的方式利用相关的外部知识改进模型的检索性能。首先,构建2个外部知识检索模块,分别用于实现视频与外部知识的检索以及文本与外部知识的检索,以便后续借助外部知识强化原始视频和文本的特征表示;其次,设计自适应交叉注意力的跨模态信息融合模块,以去除视频和文本中的冗余信息,并利用不同模态间的互补信息融合特征,学习更具判别性的特征表示;最后,引入模态间和模态内的相似性损失函数,以确保数据在融合特征空间、视频特征空间和文本特征空间下信息表征的完整性,从而实现跨模态数据间的精准检索。实验结果表明,与MuLTI模型相比,所提模型在公共数据集MSRVTT(Microsoft Research Video to Text)和DiDeMo(Distinct Describable Moments)上的召回率R@1分别提升了2.0和1.9个百分点;与CLIP-ViP模型相比,所提模型在公共数据集LSMDC(Large Scale Movie Description Challenge)上的R@1提高了2.9个百分点。可见,所提模型能有效解决VTR任务中的弱相关数据的问题,从而提升模型的检索准确率。 展开更多
关键词 模态检索 视频-文本检索 多特征融合 弱语义数据 自适应
在线阅读 下载PDF
多尺度视觉特征提取及跨模态对齐的连续手语识别 被引量:1
3
作者 郭乐铭 薛万利 袁甜甜 《计算机科学与探索》 CSCD 北大核心 2024年第10期2762-2769,共8页
连续手语识别研究中,视觉特征的有效表示是提升识别效果的关键。然而,手语动作时序长度的差异性及手语弱标注现象,使得有效的视觉特征提取更加困难。针对上述问题,提出了多尺度视觉特征提取及跨模态对齐的连续手语识别方法(MECA)。该方... 连续手语识别研究中,视觉特征的有效表示是提升识别效果的关键。然而,手语动作时序长度的差异性及手语弱标注现象,使得有效的视觉特征提取更加困难。针对上述问题,提出了多尺度视觉特征提取及跨模态对齐的连续手语识别方法(MECA)。该方法主要包含多尺度视觉特征提取模型和跨模态对齐约束。在多尺度视觉特征提取模型中,并行地融合具备不同扩张因子的瓶颈残差结构,来丰富多尺度时序感受野,用于提取不同时序长度的手语视觉特征,同时采用层级复用设计进一步强化视觉特征表示。在跨模态对齐约束中,采用动态时间规整建模手语视觉特征和文本特征之间的内在联系,其中,文本特征提取由多层感知机和长短期记忆网络协作实现。在具备挑战性的公开数据集RWTH-2014、RWTH-2014T、CSL-Daily上进行实验,结果表明所提方法达到目前具有竞争力的性能。上述实验验证了所提的采用多尺度的方式可以捕捉不同时序长度的手语动作,以及构建跨模态对齐约束的思路是正确且有效的,适用于弱监督条件下的连续手语识别任务。 展开更多
关键词 连续手语识别 多尺度 模态对齐约束 视频视觉特征 文本特征
在线阅读 下载PDF
多维度跨模态协同的无参考点云质量评价
4
作者 翟晋赫 张滢雪 司占军 《印刷与数字媒体技术研究》 北大核心 2025年第5期101-110,194,共11页
针对现有点云质量评价方法出现的多维度视觉特征融合不充分、跨模态语义对齐不足等问题,本研究提出了一种融合多维度视觉特征与文本语义的无参考点云质量评价框架TriCMA-PCQA。首先,设计了三分支结构,从点云投影图像和点云模型中分别提... 针对现有点云质量评价方法出现的多维度视觉特征融合不充分、跨模态语义对齐不足等问题,本研究提出了一种融合多维度视觉特征与文本语义的无参考点云质量评价框架TriCMA-PCQA。首先,设计了三分支结构,从点云投影图像和点云模型中分别提取纹理、深度和几何3个维度互补的视觉特征,构建多维度质量表征;随后,设计了多维度特征协同注意力机制,实现纹理-深度-几何特征的跨维度交互,增强视觉特征的判别能力与语义表达力;其次,引入文本模态的语义引导,通过可学习的动态文本提示生成质量描述特征,在共同语义空间中对齐文本语义特征与多维度视觉特征,增强模型对人类主观感知机制的模拟能力;最后,在EMD损失基础上融合分位数损失、对比损失及排序损失共同构建混合损失函数,自适应平衡多任务训练目标。实验结果表明,TriCMA-PCQA在SJTU-PCQA和LS-PCQA数据集上性能优于现有方法,与主观质量具有良好的相关性,可为三维内容生成与处理提供可靠的量化评价工具。 展开更多
关键词 无参考点云质量评价 多维度协同注意力 视觉-文本跨模态对齐 混合损失
在线阅读 下载PDF
基于跨模态引导和对齐的多模态预训练方法
5
作者 才华 易亚希 +2 位作者 付强 冉越 孙俊喜 《电子学报》 EI CAS CSCD 北大核心 2024年第10期3368-3381,共14页
现有的视觉语言多模态预训练方法仅在图像和文本的全局语义上进行特征对齐,对模态间细粒度特征交互的探索不足.针对这一问题,本文提出了一种基于跨模态引导和对齐的多模态预训练方法.该方法在模态特征提取阶段,采用基于视觉序列压缩的... 现有的视觉语言多模态预训练方法仅在图像和文本的全局语义上进行特征对齐,对模态间细粒度特征交互的探索不足.针对这一问题,本文提出了一种基于跨模态引导和对齐的多模态预训练方法.该方法在模态特征提取阶段,采用基于视觉序列压缩的双流特征提取网络,在视觉编码器中联合图像和文本信息逐层引导视觉序列压缩,缓解与文本无关的冗余视觉信息对模态间细粒度交互的干扰;在模态特征对齐阶段,对图像和文本特征进行细粒度关系推理,实现视觉标记与文本标记的局部特征对齐,增强对模态间细粒度对齐关系的理解.实验结果表明,本文方法能够更好地对齐视觉文本的细粒度特征,在图文检索任务中,微调后的图像检索和文本检索的平均召回率分别达到了86.4%和94.88%,且零样本图文检索的整体指标相较于经典图文检索算法CLIP(Contrastive Language-Image Pre-training)提升了5.36%,在视觉问答等分类任务中,准确率也优于目前主流多模态预训练方法. 展开更多
关键词 模态预训练 模态引导 视觉序列压缩 双流特征提取 细粒度关系推理 局部特征对齐
在线阅读 下载PDF
基于跨模态近邻损失的可视-红外行人重识别
6
作者 赵三元 阿琪 高宇 《北京航空航天大学学报》 EI CAS CSCD 北大核心 2024年第2期433-441,共9页
可视-红外跨模态行人重识别任务的目标是给定一个模态的特定人员图像,在其他不同模态摄像机所拍摄的图像集中进行检索,找出相同人员对应的图像。由于成像方式不同,不同模态的图像之间存在明显的模态差异。为此,从度量学习的角度出发,对... 可视-红外跨模态行人重识别任务的目标是给定一个模态的特定人员图像,在其他不同模态摄像机所拍摄的图像集中进行检索,找出相同人员对应的图像。由于成像方式不同,不同模态的图像之间存在明显的模态差异。为此,从度量学习的角度出发,对损失函数进行改进以获取具有更加辨别性的信息。对图像特征内聚性进行理论分析,并在此基础上提出一种基于内聚性分析和跨模态近邻损失函数的重识别方法,以加强不同模态样本的内聚性。将跨模态困难样本的相似性度量问题转化为跨模态最近邻样本对和同模态样本对的相似性度量,使得网络对模态内聚性的优化更加高效和稳定。对所提方法在全局特征表示的基线网络和部分特征表示的基线网络上进行实验验证结果表明:所提方法对可视-红外行人重识别的预测结果相较于基线方法,平均准确度最高可提升8.44%,证明了方法在不同网络架构中的通用性;同时,以较小的模型复杂度和较低的计算量为代价,实现了可靠的跨模态行人重识别结果。 展开更多
关键词 可视-红外行人重识别 度量学习 深度学习 模态学习 计算机视觉
在线阅读 下载PDF
基于迁移知识的跨模态双重哈希 被引量:1
7
作者 钟建奇 林秋斌 曹文明 《电子学报》 北大核心 2025年第1期209-220,共12页
随着社交网络的普及和多媒体数据的急剧增长,有效的跨模态检索引起了人们越来越多的关注.由于哈希有效的检索效率和低存储成本,其被广泛用于跨模态检索任务中.然而,这些基于深度学习的跨模态哈希检索方法大多数是利用图像网络和文本网... 随着社交网络的普及和多媒体数据的急剧增长,有效的跨模态检索引起了人们越来越多的关注.由于哈希有效的检索效率和低存储成本,其被广泛用于跨模态检索任务中.然而,这些基于深度学习的跨模态哈希检索方法大多数是利用图像网络和文本网络各自生成对应模态的哈希码,难以获得更加有效的哈希码,无法进一步减小不同模态数据之间的模态鸿沟.为了更好地提高跨模态哈希检索的性能,本文提出了一种基于迁移知识的跨模态双重哈希(Cross-modal Dual Hashing based on Transfer Knowledge,CDHTK).CDHTK通过结合图像网络、知识迁移网络以及文本网络进行跨模态哈希检索任务.对于图像模态,CDHTK融合图像网络和知识迁移网络各自生成的哈希码,进而生成具有判别性的图像哈希码;对于文本模态,CDHTK融合文本网络和知识迁移网络各自生成的哈希码,从而生成有效的文本哈希码.CDHTK通过采用预测标签的交叉熵损失、生成哈希码的联合三元组量化损失以及迁移知识的差分损失来共同优化哈希码的生成过程,从而提高模型的检索效果,在2个常用的数据集(IAPR TC-12,MIR-Flickr 25K)上进行的实验验证了CDHTK的有效性,比当前最先进的跨模态哈希方法(Adaptive Label correlation based asymm Etric Cross-modal Hashing,ALECH)分别高出6.82%和5.13%. 展开更多
关键词 模态 图像-文本检索 双重哈希 迁移知识
在线阅读 下载PDF
视觉-语言多模态下的多任务人脸年龄估计 被引量:1
8
作者 何江 池静 +1 位作者 池佳稷 高松 《现代电子技术》 北大核心 2024年第14期171-176,共6页
现有的年龄估计方法仅基于人脸图像,无法充分利用图像背后的语言背景信息。此外,这些方法通常专注于单一年龄估计任务的优化,忽略了相近任务带来的提高模型性能的信息。针对上述问题,提出一种基于视觉-语言多模态的多任务人脸年龄估计... 现有的年龄估计方法仅基于人脸图像,无法充分利用图像背后的语言背景信息。此外,这些方法通常专注于单一年龄估计任务的优化,忽略了相近任务带来的提高模型性能的信息。针对上述问题,提出一种基于视觉-语言多模态的多任务人脸年龄估计方法。该方法利用提示文本信息为年龄估计提供更丰富、更准确的图像理解和先验知识。同时,引入多任务学习方法,利用任务间的互补性将年龄分类任务与序数回归任务相结合,以获得更好的性能。最后,为了获得可靠的预测结果,研究了加权平均法和任务回归法两种多任务结果融合方法,并对加权平均法的权重系数进行了消融实验,以期找到一组合适的权重系数。结果表明:与其他先进方法相比,所提方法在UTK-FACE数据集上的平均绝对误差(MAE)降低了7.32%,在MorphⅡ数据集上的MAE降低了1.20%,累积分数(CS)提升了0.11%。 展开更多
关键词 年龄估计 视觉-语言多模态 多任务学习 加权平均法 提示文本 任务回归器
在线阅读 下载PDF
基于多级语义对齐的图像-文本匹配算法
9
作者 李艺茹 姚涛 +2 位作者 张林梁 孙玉娟 付海燕 《北京航空航天大学学报》 EI CAS CSCD 北大核心 2024年第2期551-558,共8页
图像中的区域特征更关注于图像中的前景信息,背景信息往往被忽略,如何有效的联合局部特征和全局特征还没有得到充分地研究。为解决上述问题,加强全局概念和局部概念之间的关联得到更准确的视觉特征,提出一种基于多级语义对齐的图像-文... 图像中的区域特征更关注于图像中的前景信息,背景信息往往被忽略,如何有效的联合局部特征和全局特征还没有得到充分地研究。为解决上述问题,加强全局概念和局部概念之间的关联得到更准确的视觉特征,提出一种基于多级语义对齐的图像-文本匹配算法。提取局部图像特征,得到图像中的细粒度信息;提取全局图像特征,将环境信息引入到网络的学习中,从而得到不同的视觉关系层次,为联合的视觉特征提供更多的信息;将全局-局部图像特征进行联合,将联合后的视觉特征和文本特征进行全局-局部对齐得到更加精准的相似度表示。通过大量的实验和分析表明:所提算法在2个公共数据集上具有有效性。 展开更多
关键词 图像-文本匹配 模态信息处理 特征提取 神经网络 特征融合
在线阅读 下载PDF
文本属性激活视觉的广义零样本图像识别
10
作者 闫文尚 张桂梅 《计算机工程与应用》 北大核心 2025年第21期265-275,共11页
现有的零样本学习方法存在语义信息与视觉特征无法有效对齐,且视觉特征中存在较多冗余信息,导致零样本和广义零样本图像识别精度不佳。针对该问题,提出文本属性激活视觉的广义零样本图像识别方法。借助大语言模型生成判别性语义信息-文... 现有的零样本学习方法存在语义信息与视觉特征无法有效对齐,且视觉特征中存在较多冗余信息,导致零样本和广义零样本图像识别精度不佳。针对该问题,提出文本属性激活视觉的广义零样本图像识别方法。借助大语言模型生成判别性语义信息-文本属性。并引入类先验估计模块,计算每个文本属性的先验权重,以增强文本属性的可解释性,优化模型的性能。利用判别性文本属性激活与其对应的视觉特征,有效去除视觉特征中的冗余信息。在先验权重的引导下,将激活的视觉特征与文本属性进行跨模态对齐,以实现更精准高效的视觉语义交互,提高模型的图像识别精度。在三个基准数据集(AWA2、CUB、SUN)上进行自监督广义零样本图像识别实验,在AWA2和SUN数据集上调和平均值均达到最优,分别比次优值提高了1.1和0.8个百分点,在CUB数据集中取得次优,实验结果证明了提出方法的有效性。 展开更多
关键词 文本属性 先验权重 视觉激活 模态对齐
在线阅读 下载PDF
结合视觉文本匹配和图嵌入的可见光-红外行人重识别 被引量:1
11
作者 张红颖 樊世钰 +1 位作者 罗谦 张涛 《电子与信息学报》 EI CAS CSCD 北大核心 2024年第9期3662-3671,共10页
对于可见光-红外跨模态行人重识别(Re-ID),大多数方法采用基于模态转换的策略,通过对抗网络生成图像,以此建立不同模态间的相互联系。然而这些方法往往不能有效降低模态间的差距,导致重识别性能不佳。针对此问题,该文提出一种基于视觉... 对于可见光-红外跨模态行人重识别(Re-ID),大多数方法采用基于模态转换的策略,通过对抗网络生成图像,以此建立不同模态间的相互联系。然而这些方法往往不能有效降低模态间的差距,导致重识别性能不佳。针对此问题,该文提出一种基于视觉文本匹配和图嵌入的双阶段跨模态行人重识别方法。该方法通过上下文优化方案构建可学习文本模板,生成行人描述作为模态间的关联信息。具体而言,在第1阶段基于图片-文本对的预训练(CLIP)模型实现同一行人不同模态间的统一文本描述作为先验信息辅助降低模态差异。同时在第2阶段引入基于图嵌入的跨模态约束框架,设计模态间自适应损失函数,提升行人识别准确率。为了验证所提方法的有效性,在SYSU-MM01和Reg DB数据集上进行了大量实验,其中SYSU-MM01数据集上的首次命中(Rank-1)和平均精度均值(m AP)分别达到64.2%,60.2%。实验结果表明,该文所提方法能够提升可见光-红外跨模态行人重识别的准确率。 展开更多
关键词 行人重识别 模态 图片-文本对的预训练模型 上下文优化 图嵌入
在线阅读 下载PDF
基于语码转换的低资源语言视觉问答方法研究
12
作者 刘征 董俊 +3 位作者 嘉乐东珠 超木日力格 刘轩 翁彧 《北京师范大学学报(自然科学版)》 北大核心 2025年第3期277-284,共8页
为解决视觉语言模型面对低资源场景缺乏大规模标注数据和有效迁移方法的困境,提出了基于语码转换的中国民族语言预训练模型视觉问答(CCMPLM-VQA)方法.通过语码转换跨语言掩码建模方法,降低了模型对标注训练数据的依赖,同时引入全新结构... 为解决视觉语言模型面对低资源场景缺乏大规模标注数据和有效迁移方法的困境,提出了基于语码转换的中国民族语言预训练模型视觉问答(CCMPLM-VQA)方法.通过语码转换跨语言掩码建模方法,降低了模型对标注训练数据的依赖,同时引入全新结构的语言适配器(language adapter,LA),有效提升了CCMPLM-VQA多模态对齐效果;验证了所提方法的有效性.结果表明:相较最佳基准模型,CCMPLM-VQA在现实世界通用视觉推理数据集上的零样本性能提升了约12%;在跨语言现实世界通用视觉推理数据集上的零样本性能优于现有类似方法约1%. 展开更多
关键词 低资源语言 视觉问答 语码转换 知识蒸馏 模态语义对齐
在线阅读 下载PDF
面向中文场景文本编辑的不确定性感知生成网络
13
作者 高宇童 张颖 +4 位作者 刘湘赣 刘怡典 姜山 郭子毅 宋非凡 《北京师范大学学报(自然科学版)》 北大核心 2025年第3期285-292,共8页
通过研究,提出了一种基于不确定性建模的中文场景文本编辑(Chinese scene text editing,CSTE)方法,并发现了1种有效的技术解决方案.该方法通过不确定性引导的调整机制优化预测噪声,提升噪声估计准确性,从而增强生成文本的清晰度和结构... 通过研究,提出了一种基于不确定性建模的中文场景文本编辑(Chinese scene text editing,CSTE)方法,并发现了1种有效的技术解决方案.该方法通过不确定性引导的调整机制优化预测噪声,提升噪声估计准确性,从而增强生成文本的清晰度和结构完整性.同时,通过过滤文本和图像特征中的无关信息,提高了跨模态对齐能力,实现了文本与背景纹理的融合. 展开更多
关键词 中文场景文本编辑 不确定性感知机制 模态对齐 冗余消除 噪声矫正
在线阅读 下载PDF
视觉-语言导航的研究进展与发展趋势 被引量:2
14
作者 牛凯 王鹏 《计算机辅助设计与图形学学报》 EI CSCD 北大核心 2022年第12期1815-1827,共13页
视觉-语言导航是近年来出现并蓬勃发展的新兴研究方向,是视觉-语言交互前沿领域中的代表性研究任务之一,其目标是根据人类给出的语言指令基于环境视觉感知实现自主导航.首先介绍该任务的研究内容,分析其面临的跨模态语义对齐、语义理解... 视觉-语言导航是近年来出现并蓬勃发展的新兴研究方向,是视觉-语言交互前沿领域中的代表性研究任务之一,其目标是根据人类给出的语言指令基于环境视觉感知实现自主导航.首先介绍该任务的研究内容,分析其面临的跨模态语义对齐、语义理解与推理和模型泛化能力增强3个方面的问题与挑战,然后列举了常用的数据集和评价指标;再从模仿学习、强化学习、自监督学习以及其他方法4个方面对该任务的研究进展进行归纳与总结,并对代表性方法的效果进行对比分析;从连续环境导航和高级复杂指令理解与常识推理2个方面论述该任务当前研究的热点趋势;最后对三维空间的视觉-语言导航、模糊导航、环境交互导航等未来发展方向进行讨论与展望. 展开更多
关键词 视觉-语言导航 视觉-语言交互 模态语义对齐 行为决策
在线阅读 下载PDF
基于深度学习的图像-文本匹配研究综述 被引量:15
15
作者 刘萌 齐孟津 +3 位作者 詹圳宇 曲磊钢 聂秀山 聂礼强 《计算机学报》 EI CAS CSCD 北大核心 2023年第11期2370-2399,共30页
图像-文本匹配任务旨在衡量图像和文本描述之间的相似性,其在桥接视觉和语言中起着至关重要的作用.近年来,图像与句子的全局对齐以及区域与单词的局部对齐研究方面取得了很大的进展.本文对当前先进的研究方法进行分类和描述.具体地,本... 图像-文本匹配任务旨在衡量图像和文本描述之间的相似性,其在桥接视觉和语言中起着至关重要的作用.近年来,图像与句子的全局对齐以及区域与单词的局部对齐研究方面取得了很大的进展.本文对当前先进的研究方法进行分类和描述.具体地,本文将现有方法划分为基于全局特征的图像-文本匹配方法、基于局部特征的图像-文本匹配方法、基于外部知识的图像-文本匹配方法、基于度量学习的图像-文本匹配方法以及多模态预训练模型,对于基于全局特征的图像-文本匹配方法,本文依据流程类型划分为两类:基于嵌入的方法和基于交互的方法;而对于基于局部特征的图像-文本匹配方法,依据其交互模式的不同,则被细分为三类:基于模态内关系建模的方法、基于模态间关系建模的方法以及基于混合交互建模的方法.随后,本文对当前图像-文本匹配任务的相关数据集进行了整理,并对现有方法的实验结果进行分析与总结.最后,对未来研究可能面临的挑战进行了展望. 展开更多
关键词 图像-文本匹配 模态图像检索 模态预训练模型 综述 深度学习 人工智能
在线阅读 下载PDF
双级交互式自适应融合的多模态神经机器翻译 被引量:2
16
作者 杜连成 郭军军 +1 位作者 叶俊杰 余正涛 《计算机工程与科学》 CSCD 北大核心 2024年第11期2071-2080,共10页
多模态神经机器翻译的目标是通过引入其他模态信息来提升纯文本神经机器翻译的质量。图像中包含了实体对象的关系、属性以及空间位置关系等多种语义信息。然而,目前存在的大多数融合方法仅考虑图像的部分视觉信息,忽略了对视觉模态内部... 多模态神经机器翻译的目标是通过引入其他模态信息来提升纯文本神经机器翻译的质量。图像中包含了实体对象的关系、属性以及空间位置关系等多种语义信息。然而,目前存在的大多数融合方法仅考虑图像的部分视觉信息,忽略了对视觉模态内部关系的探索,导致视觉信息的利用率较低,无法充分利用图像所包含的全部语义信息。因此,提出了一种双级交互式自适应融合的多模态神经机器翻译方法,该方法考虑了图像不同方面的属性特征,以充分利用图像的视觉信息。实验结果显示,该方法能够有效地利用图像所具有的视觉信息,并且在Multi30K数据集的英语→德语(EN→DE)和英语→法语(EN→FR)2种翻译任务的测试上的效果显著优于当前大多数的效果最优(SOTA)多模态神经机器翻译方法的结果,十分具有竞争力。 展开更多
关键词 模态神经机器翻译 视觉特征交互 -模态自适应融合
在线阅读 下载PDF
模态间关系促进的行人检索方法
17
作者 李博 张飞飞 徐常胜 《软件学报》 EI CSCD 北大核心 2024年第10期4766-4780,共15页
基于文本描述的行人检索是一个新兴的跨模态检索子任务,由传统行人重识别任务衍生而来,对公共安全以及人员追踪具有重要意义.相比于单模态图像检索的行人重识别任务,基于文本描述的行人检索解决了实际应用中缺少查询图像的问题,其主要... 基于文本描述的行人检索是一个新兴的跨模态检索子任务,由传统行人重识别任务衍生而来,对公共安全以及人员追踪具有重要意义.相比于单模态图像检索的行人重识别任务,基于文本描述的行人检索解决了实际应用中缺少查询图像的问题,其主要挑战在于该任务结合了视觉内容和文本描述两种不同模态的数据,要求模型同时具有图像理解能力和文本语义学习能力.为了缩小行人图像和文本描述的模态间语义鸿沟,传统的基于文本描述的行人检索方法多是对提取的图像和文本特征进行机械地分割,只关注于跨模态信息的语义对齐,忽略了图像和文本模态内部的潜在联系,导致模态间细粒度匹配的不准确.为了解决上述问题,提出模态间关系促进的行人检索方法,首先利用注意力机制分别构建模态内自注意力矩阵和跨模态注意力矩阵,并将注意力矩阵看作不同特征序列间的响应值分布.然后,分别使用两种不同的矩阵构建方法重构模态内自注意力矩阵和跨模态注意力矩阵.其中自注意力矩阵的重构利用模态内逐元素重构的方式可以很好地挖掘模态内部的潜在联系,而跨模态注意力矩阵的重构用模态间整体重构矩阵的方法,以跨模态信息为桥梁,可充分挖掘模态间的潜在信息,缩小语义鸿沟.最后,用基于任务的跨模态投影匹配损失和KL散度损失联合约束模型优化,达到模态间信息相互促进的效果.在基于文本描述的行人检索公开数据库CUHK-PEDES上进行了定量以及检索结果的可视化,均表明所提方法可取得目前最优的效果. 展开更多
关键词 行人检索 模态任务 文本语义学习 关系对齐 注意力机制
在线阅读 下载PDF
跨媒体分析与推理技术研究综述 被引量:14
18
作者 王树徽 闫旭 黄庆明 《计算机科学》 CSCD 北大核心 2021年第3期79-86,共8页
当前,以网络数据为代表的跨媒体数据呈现爆炸式增长的趋势,呈现出了跨模态、跨数据源的复杂关联及动态演化特性,跨媒体分析与推理技术针对多模态信息理解、交互、内容管理等需求,通过构建跨模态、跨平台的语义贯通与统一表征机制,进一... 当前,以网络数据为代表的跨媒体数据呈现爆炸式增长的趋势,呈现出了跨模态、跨数据源的复杂关联及动态演化特性,跨媒体分析与推理技术针对多模态信息理解、交互、内容管理等需求,通过构建跨模态、跨平台的语义贯通与统一表征机制,进一步实现分析和推理以及对复杂认知目标的不断逼近,建立语义层级的逻辑推理机制,最终实现跨媒体类人智能推理。文中对跨媒体分析推理技术的研究背景和发展历史进行概述,归纳总结视觉-语言关联等任务的关键技术,并对研究应用进行举例。基于已有结论,分析目前跨媒体分析领域所面临的关键问题,最后探讨未来的发展趋势。 展开更多
关键词 媒体分析与推理 深度学习 模态融合 视觉-语言分析
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部