期刊导航
期刊开放获取
上海教育软件发展有限公..
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
结合语言模型双编码和坐标注意力卷积的知识图谱补全
1
作者
王瑄
王晓霞
陈晓
《计算机工程与应用》
北大核心
2025年第14期206-213,共8页
知识图谱补全(KGC)旨在学习知识图谱中的现有知识实现对缺失三元组的补全。近期的相关研究表明,将语言模型(LM)应用于KGC任务能够改善模型在结构稀疏的知识图谱上的推理性能。针对现有结合LM的KGC模型性能仅依赖于LM捕获的语义特征,没...
知识图谱补全(KGC)旨在学习知识图谱中的现有知识实现对缺失三元组的补全。近期的相关研究表明,将语言模型(LM)应用于KGC任务能够改善模型在结构稀疏的知识图谱上的推理性能。针对现有结合LM的KGC模型性能仅依赖于LM捕获的语义特征,没有同时考虑知识图谱的结构信息和语义信息的问题,提出一种结合语言模型双编码和坐标注意的知识图谱补全方法LDCA。在编码时,通过引入掩码预训练的语言模型双编码结构,充分学习实体和关系的语义特征;在解码时,使用坐标注意力机制的卷积神经网络捕获实体和关系组合嵌入的跨通道信息、方向感知信息和位置感知信息。在WN18RR和FB15K-237数据集上的实验结果表明,LDCA模型在MR、MRR、Hits@1、Hits@3和Hits@10上的整体性能优于基准模型,验证了所提出模型的有效性和先进性。
展开更多
关键词
语言
模型
(
lm
)
掩码预训练
坐标注意力机制
卷积神经网络
在线阅读
下载PDF
职称材料
题名
结合语言模型双编码和坐标注意力卷积的知识图谱补全
1
作者
王瑄
王晓霞
陈晓
机构
陕西科技大学电子信息与人工智能学院
出处
《计算机工程与应用》
北大核心
2025年第14期206-213,共8页
基金
陕西省自然科学基金(2024JC-YBQN-0724)。
文摘
知识图谱补全(KGC)旨在学习知识图谱中的现有知识实现对缺失三元组的补全。近期的相关研究表明,将语言模型(LM)应用于KGC任务能够改善模型在结构稀疏的知识图谱上的推理性能。针对现有结合LM的KGC模型性能仅依赖于LM捕获的语义特征,没有同时考虑知识图谱的结构信息和语义信息的问题,提出一种结合语言模型双编码和坐标注意的知识图谱补全方法LDCA。在编码时,通过引入掩码预训练的语言模型双编码结构,充分学习实体和关系的语义特征;在解码时,使用坐标注意力机制的卷积神经网络捕获实体和关系组合嵌入的跨通道信息、方向感知信息和位置感知信息。在WN18RR和FB15K-237数据集上的实验结果表明,LDCA模型在MR、MRR、Hits@1、Hits@3和Hits@10上的整体性能优于基准模型,验证了所提出模型的有效性和先进性。
关键词
语言
模型
(
lm
)
掩码预训练
坐标注意力机制
卷积神经网络
Keywords
language model(
lm
)
mask pre-training
coordinate attention mechanism
convolutional neural network
分类号
TP391 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
结合语言模型双编码和坐标注意力卷积的知识图谱补全
王瑄
王晓霞
陈晓
《计算机工程与应用》
北大核心
2025
0
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部