期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
局部-全局特征引导的图文多级关系分析与挖掘方法
1
作者 王海荣 郭瑞萍 +1 位作者 徐玺 周北京 《燕山大学学报》 CAS 北大核心 2024年第5期446-455,共10页
具有语义相关性的文本、图像数据往往具有互补性,可以从不同角度增强语义理解,因此,图文语义关系挖掘是图文数据得以充分利用的关键。为解决图文数据深层语义关系挖掘不充分、检索阶段预测不精准的问题,本文提出了一种局部-全局特征引... 具有语义相关性的文本、图像数据往往具有互补性,可以从不同角度增强语义理解,因此,图文语义关系挖掘是图文数据得以充分利用的关键。为解决图文数据深层语义关系挖掘不充分、检索阶段预测不精准的问题,本文提出了一种局部-全局特征引导的多级关系分析与挖掘方法。采用多头自注意力机制的Transformer建模图像关系,构建图像引导的文本注意力模块,挖掘图像区域和全局文本间的细粒度关系,融合局部-全局特征有效增强图文数据的语义关系。为验证本文方法,在Flickr30K、MSCOCO-1K和MSCOCO-3K数据集上进行实验,并与VSM、SGRAF等13种方法进行对比分析,本文方法中以文索图的召回率平均提升了0.62%,以图索文的召回率平均提高了0.5%,实验结果验证了本文方法的有效性。 展开更多
关键词 图文关系挖掘 多头自注意力机制 局部-全局特征
在线阅读 下载PDF
求解旅行商问题的GCN-Pointransformer模型
2
作者 邱云飞 刘一菲 +1 位作者 于智龙 金海波 《计算机科学与探索》 北大核心 2025年第3期657-666,共10页
由于Transformer模型基于全连接注意力机制,导致在求解经典旅行商问题(TSP)时,计算复杂度较高并且GPU内存使用量过大。针对此问题,提出了一种基于图卷积嵌入层和多头局部自注意力机制的GCN-Pointransformer模型。使用图卷积嵌入方式从... 由于Transformer模型基于全连接注意力机制,导致在求解经典旅行商问题(TSP)时,计算复杂度较高并且GPU内存使用量过大。针对此问题,提出了一种基于图卷积嵌入层和多头局部自注意力机制的GCN-Pointransformer模型。使用图卷积嵌入方式从输入数据中进行空间特征学习,图卷积嵌入层包含多个可以提取输入数据局部特征的卷积核;使用多头局部自注意力机制(MHLSA),删除冗余信息并提取有用的特征;在编码器中使用可逆残差网络,在反向传播过程中只存储输入和输出嵌入特征对;模型在解码器中增加了Pointer指针层,使用注意力权重作为概率分布,确定要访问的下一个节点。在TSP随机数据集上进行对比实验,优化间隙减少12%,GPU内存减少约11%,推理时间减少约25%,结果表明,该方法优于求解TSP的标准Transformer模型。 展开更多
关键词 旅行商问题(TSP) GCN-Pointransformer 多头局部自注意力机制(mhlsa) 可逆残差 指针层
在线阅读 下载PDF
基于时序对抗网络的流量生成方法
3
作者 林宏刚 李彧涵 《计算机科学》 2025年第S2期878-885,共8页
随着网络流量分析技术的发展,对高质量流量生成的需求不断提升。然而现有流量生成方法主要关注包级特征,忽略了时序特性,不能满足要求。为提高生成流量的质量,提出一种改进的TimeGAN流量生成方法,采用GRU提取包级与时序特征,并结合多头... 随着网络流量分析技术的发展,对高质量流量生成的需求不断提升。然而现有流量生成方法主要关注包级特征,忽略了时序特性,不能满足要求。为提高生成流量的质量,提出一种改进的TimeGAN流量生成方法,采用GRU提取包级与时序特征,并结合多头局部-全局注意力机制提升特征融合能力,实现流量特征的均衡建模。同时,设计周期判别-动态解码策略,以生成动态长度的流量序列并保留周期性。从可用性与相似性两方面评估生成流量数据,结果表明,该方法在各项指标上均优于现有方法,能有效提升生成流量质量,更好地模拟真实的网络流量。 展开更多
关键词 流量生成 TimeGAN 多头局部-全局注意力机制 动态解码
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部