期刊文献+
共找到6篇文章
< 1 >
每页显示 20 50 100
Graph Transformer技术与研究进展:从基础理论到前沿应用 被引量:2
1
作者 游浩 丁苍峰 +2 位作者 马乐荣 延照耀 曹璐 《计算机应用研究》 北大核心 2025年第4期975-986,共12页
图数据处理是一种用于分析和操作图结构数据的方法,广泛应用于各个领域。Graph Transformer作为一种直接学习图结构数据的模型框架,结合了Transformer的自注意力机制和图神经网络的方法,是一种新型模型。通过捕捉节点间的全局依赖关系... 图数据处理是一种用于分析和操作图结构数据的方法,广泛应用于各个领域。Graph Transformer作为一种直接学习图结构数据的模型框架,结合了Transformer的自注意力机制和图神经网络的方法,是一种新型模型。通过捕捉节点间的全局依赖关系和精确编码图的拓扑结构,Graph Transformer在节点分类、链接预测和图生成等任务中展现出卓越的性能和准确性。通过引入自注意力机制,Graph Transformer能够有效捕捉节点和边的局部及全局信息,显著提升模型效率和性能。深入探讨Graph Transformer模型,涵盖其发展背景、基本原理和详细结构,并从注意力机制、模块架构和复杂图处理能力(包括超图、动态图)三个角度进行细分分析。全面介绍Graph Transformer的应用现状和未来发展趋势,并探讨其存在的问题和挑战,提出可能的改进方法和思路,以推动该领域的研究和应用进一步发展。 展开更多
关键词 图神经网络 graph transformer 图表示学习 节点分类
在线阅读 下载PDF
Graph Transformers研究进展综述 被引量:3
2
作者 周诚辰 于千城 +2 位作者 张丽丝 胡智勇 赵明智 《计算机工程与应用》 CSCD 北大核心 2024年第14期37-49,共13页
随着图结构数据在各种实际场景中的广泛应用,对其进行有效建模和处理的需求日益增加。Graph Transformers(GTs)作为一类使用Transformers处理图数据的模型,能够有效缓解传统图神经网络(GNN)中存在的过平滑和过挤压等问题,因此可以学习... 随着图结构数据在各种实际场景中的广泛应用,对其进行有效建模和处理的需求日益增加。Graph Transformers(GTs)作为一类使用Transformers处理图数据的模型,能够有效缓解传统图神经网络(GNN)中存在的过平滑和过挤压等问题,因此可以学习到更好的特征表示。根据对近年来GTs相关文献的研究,将现有的模型架构分为两类:第一类通过绝对编码和相对编码向Transformers中加入图的位置和结构信息,以增强Transformers对图结构数据的理解和处理能力;第二类根据不同的方式(串行、交替、并行)将GNN与Transformers进行结合,以充分利用两者的优势。介绍了GTs在信息安全、药物发现和知识图谱等领域的应用,对比总结了不同用途的模型及其优缺点。最后,从可扩展性、复杂图、更好的结合方式等方面分析了GTs未来研究面临的挑战。 展开更多
关键词 graph transformers(GTs) 图神经网络 图表示学习 异构图
在线阅读 下载PDF
基于Graph Transformer的半监督异配图表示学习模型
3
作者 黎施彬 龚俊 汤圣君 《计算机应用》 CSCD 北大核心 2024年第6期1816-1823,共8页
现有的图卷积网络(GCN)模型基于同配性假设,无法直接应用于异配图的表示学习,且许多异配图表示学习的研究工作受消息传递机制的限制,导致节点特征混淆和特征过度挤压而出现过平滑问题。针对这些问题,提出一种基于Graph Transformer的半... 现有的图卷积网络(GCN)模型基于同配性假设,无法直接应用于异配图的表示学习,且许多异配图表示学习的研究工作受消息传递机制的限制,导致节点特征混淆和特征过度挤压而出现过平滑问题。针对这些问题,提出一种基于Graph Transformer的半监督异配图表示学习模型HPGT(HeteroPhilic Graph Transformer)。首先,使用度连接概率矩阵采样节点的路径邻域,再通过自注意力机制自适应地聚合路径上的节点异配连接模式,编码得到节点的结构信息,用节点的原始属性信息和结构信息构建Transformer层的自注意力模块;其次,将每个节点自身的隐层表示与它的邻域节点的隐层表示分离更新以避免节点通过自注意力模块聚合过量的自身信息,再把每个节点表示与它的邻域表示连接,得到单个Transformer层的输出,另外,将所有的Transformer层的输出跳连到最终的节点隐层表示以防止中间层信息丢失;最后,使用线性层和Softmax层将节点的隐层表示映射到节点的预测标签。实验结果表明,与无结构编码(SE)的模型相比,基于度连接概率的SE能为Transformer层的自注意力模块提供有效的偏差信息,HPGT平均准确率提升0.99%~11.98%;与对比模型相比,在异配数据集(Texas、Cornell、Wisconsin和Actor)上,模型节点分类准确率提升0.21%~1.69%,在同配数据集(Cora、CiteSeer和PubMed)上,节点分类准确率分别达到了0.8379、0.7467和0.8862。以上结果验证了HPGT具有较强的异配图表示学习能力,尤其适用于强异配图节点分类任务。 展开更多
关键词 图卷积网络 异配图 图表示学习 graph transformer 节点分类
在线阅读 下载PDF
融合图Transformer和Vina-GPU+的多模态虚拟筛选新方法
4
作者 张豪 张堃然 +2 位作者 阮晓东 沐勇 吴建盛 《南京大学学报(自然科学版)》 北大核心 2025年第1期83-93,共11页
现代药物发现面临对大规模化合物库进行虚拟筛选的挑战,提高分子对接的速度与精度是核心问题.AutoDock Vina是最受欢迎的分子对接工具之一,我们的Vina-GPU和Vina-GPU+方法在确保对接准确性的同时,分别实现了对AutoDock Vina最高50倍和6... 现代药物发现面临对大规模化合物库进行虚拟筛选的挑战,提高分子对接的速度与精度是核心问题.AutoDock Vina是最受欢迎的分子对接工具之一,我们的Vina-GPU和Vina-GPU+方法在确保对接准确性的同时,分别实现了对AutoDock Vina最高50倍和65.6倍的加速.近年来,大规模预训练模型在自然语言处理和计算机视觉领域取得了巨大成功,这种范式对解决虚拟筛选面临的重大挑战也具有巨大潜力.因此,提出一种多模态虚拟筛选新方法Vina-GPU GT,结合了Vina-GPU+分子对接技术和预训练的Graph Transformer(GT)模型,以实现快速精确的虚拟筛选.该方法包括三个连续步骤:(1)通过对已有分子属性预测的预训练GT模型进行知识蒸馏,学到一个小的SMILES Transformer(ST)模型;(2)通过ST模型推理化合物库中所有分子,并根据主动学习规则微调ST模型;(3)利用微调后的ST模型进行虚拟筛选.在三个重要靶点和两个化合物库上进行了虚拟筛选实验,并与两种虚拟筛选方法进行了比较,结果表明,Vina-GPU GT的虚拟筛选性能最优. 展开更多
关键词 虚拟筛选 graph transformer Vina-GPU+ 多模态 知识蒸馏 主动学习
在线阅读 下载PDF
基于图神经网络的多粒度软件系统交互关系预测
5
作者 邓文涛 程璨 +2 位作者 何鹏 陈孟瑶 李兵 《软件学报》 北大核心 2025年第5期2043-2063,共21页
当下,软件系统中元素间的交互错综复杂,涵盖了包间、类间和函数间等多种关系.准确理解这些关系对于优化系统结构以及提高软件质量至关重要.分析包间关系有助于揭示模块间的依赖性,有利于开发者更好地管理和组织软件架构;而类间关系的明... 当下,软件系统中元素间的交互错综复杂,涵盖了包间、类间和函数间等多种关系.准确理解这些关系对于优化系统结构以及提高软件质量至关重要.分析包间关系有助于揭示模块间的依赖性,有利于开发者更好地管理和组织软件架构;而类间关系的明晰理解则有助于构建更具扩展性和可维护性的代码库;清晰了解函数间关系则能够迅速定位和解决程序中的逻辑错误,提升软件的鲁棒性和可靠性.然而,现有的软件系统交互关系预测存在着粒度差异、特征不足和版本变化等问题.针对这一挑战,从软件包、类和函数这3种粒度构建相应的软件网络模型,并提出一种结合局部和全局特征的全新方法,通过软件网络的特征提取和链路预测方式,来增强对软件系统的分析和预测.该方法基于软件网络的构建和处理,具体步骤包括利用node2vec方法学习软件网络的局部特征,并结合拉普拉斯特征向量编码以综合表征节点的全局位置信息.随后,利用Graph Transformer模型进一步优化节点属性的特征向量,最终完成软件系统的交互关系预测任务.在3个Java开源项目上进行广泛的实验验证,包括版本内和跨版本的交互关系预测任务.实验结果显示,相较于基准方法,所提方法在版本内的预测任务中,平均AUC和AP值分别提升8.2%和8.5%;在跨版本预测任务中,平均AUC和AP值分别提升3.5%和2.4%. 展开更多
关键词 软件网络 交互关系预测 graph transformer 粒度差异 软件质量
在线阅读 下载PDF
结合全局信息和局部信息的三维网格分割框架
6
作者 张梦瑶 周杰 +1 位作者 李文婷 赵勇 《浙江大学学报(工学版)》 北大核心 2025年第5期912-919,共8页
针对Graph Transformer比较擅长捕获全局信息,但对局部精细信息的提取不够充分的问题,将图卷积神经网络(GCN)引入Graph Transformer中,得到Graph Transformer and GCN (GTG)模块,构建了能够结合全局信息和局部信息的网格分割框架. GTG... 针对Graph Transformer比较擅长捕获全局信息,但对局部精细信息的提取不够充分的问题,将图卷积神经网络(GCN)引入Graph Transformer中,得到Graph Transformer and GCN (GTG)模块,构建了能够结合全局信息和局部信息的网格分割框架. GTG模块利用Graph Transformer的全局自注意力机制和GCN的局部连接性质,不仅可以捕获全局信息,还能够加强局部精细信息的提取.为了更好地保留边界区域的信息,设计边缘保持的粗化算法,可以使粗化过程仅作用在非边界区域.利用边界信息对损失函数进行加权,提高了神经网络对边界区域的关注程度.在实验方面,通过视觉效果和定量比较证明了采用本文算法能够获得高质量的分割结果,利用消融实验表明了GTG模块和边缘保持粗化算法的有效性. 展开更多
关键词 三维网格 网格分割 graph transformer 图卷积神经网络(GCN) 边缘保持的粗化算法
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部