期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
基于双重对比学习的零样本关系抽取模型
1
作者 邱冰婕 张超群 +4 位作者 汤卫东 梁弼诚 崔丹阳 罗海升 陈启明 《计算机应用》 北大核心 2025年第11期3555-3563,共9页
针对零样本关系抽取(ZSRE)中因相似实体或关系导致的关系表示重叠及关系预测错误问题,提出一种基于双重对比学习的零样本关系抽取(DCL-ZSRE)模型。首先,通过预训练编码器对实例和关系描述进行编码,以得到相应的向量表示;其次,设计双重... 针对零样本关系抽取(ZSRE)中因相似实体或关系导致的关系表示重叠及关系预测错误问题,提出一种基于双重对比学习的零样本关系抽取(DCL-ZSRE)模型。首先,通过预训练编码器对实例和关系描述进行编码,以得到相应的向量表示;其次,设计双重对比学习提高关系表示的可区分度,即通过实例级对比学习(ICL)学习实例之间的互信息,再将实例和关系描述的表示进行连接,并利用匹配级对比学习(MCL)学习实例与关系描述之间的联系,从而解决关系表示重叠问题;最后,根据对比学习中学习到的表示在分类模块对未见关系进行预测。在FewRel和WikiZSL数据集上的实验结果表明,DCL-ZSRE在精确率、召回率和F1值上均明显优于8个先进的对比模型,尤其在未见关系类别较多时:当未见关系类别数为15时,相较于EMMA(Efficient Multi-grained Matching Approach)模型,DCLZSRE模型在FewRel数据集上的3项指标分别显著提高了4.76、4.63、4.69个百分点,在Wiki-ZSL数据集上也实现了1.32、2.20、1.76个百分点的增长。DCL-ZSRE模型能有效区分重叠的关系表示,可作为一种有效且鲁棒性强的零样本关系抽取方法。 展开更多
关键词 关系抽取 特征抽取 零样本学习 对比学习 预训练语言模型
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部