期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
结合语言模型双编码和坐标注意力卷积的知识图谱补全
1
作者 王瑄 王晓霞 陈晓 《计算机工程与应用》 北大核心 2025年第14期206-213,共8页
知识图谱补全(KGC)旨在学习知识图谱中的现有知识实现对缺失三元组的补全。近期的相关研究表明,将语言模型(LM)应用于KGC任务能够改善模型在结构稀疏的知识图谱上的推理性能。针对现有结合LM的KGC模型性能仅依赖于LM捕获的语义特征,没... 知识图谱补全(KGC)旨在学习知识图谱中的现有知识实现对缺失三元组的补全。近期的相关研究表明,将语言模型(LM)应用于KGC任务能够改善模型在结构稀疏的知识图谱上的推理性能。针对现有结合LM的KGC模型性能仅依赖于LM捕获的语义特征,没有同时考虑知识图谱的结构信息和语义信息的问题,提出一种结合语言模型双编码和坐标注意的知识图谱补全方法LDCA。在编码时,通过引入掩码预训练的语言模型双编码结构,充分学习实体和关系的语义特征;在解码时,使用坐标注意力机制的卷积神经网络捕获实体和关系组合嵌入的跨通道信息、方向感知信息和位置感知信息。在WN18RR和FB15K-237数据集上的实验结果表明,LDCA模型在MR、MRR、Hits@1、Hits@3和Hits@10上的整体性能优于基准模型,验证了所提出模型的有效性和先进性。 展开更多
关键词 语言模型(lm) 掩码预训练 坐标注意力机制 卷积神经网络
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部