期刊文献+
共找到2篇文章
< 1 >
每页显示 20 50 100
ACRank:在神经排序模型中引入检索公理知识 被引量:1
1
作者 薄琳 庞亮 +4 位作者 张朝亮 王钊伟 董振华 徐君 文继荣 《计算机学报》 EI CAS CSCD 北大核心 2023年第10期2117-2131,共15页
传统的信息检索(Information Retrieval,IR)是知识驱动的方法,如以BM25、LMIR等为代表的检索模型在设计过程中考虑词频、逆文档频率、文档长度等关键因素计算查询-文档的相关性得分.这些关键因素被总结为IR公理,在传统模型的设计和评价... 传统的信息检索(Information Retrieval,IR)是知识驱动的方法,如以BM25、LMIR等为代表的检索模型在设计过程中考虑词频、逆文档频率、文档长度等关键因素计算查询-文档的相关性得分.这些关键因素被总结为IR公理,在传统模型的设计和评价中起到了至关重要的作用.如词频规则认为有更多查询词的文档更相关.与之相对,数据驱动的神经排序模型基于大量的标注数据与精巧的神经网络结构自动学习相关性评分函数,带来了显著的排序精度提升.传统IR公理知识是否能用来提升神经排序模型的效果是一个值得研究的重要问题且已有学者进行了初步探索,其首先通过公理指导增强数据生成,然后利用生成的标注数据直接训练神经网络.但IR公理的形式是通过比较匹配信号的强弱给出两个文档间相对的相关关系,而非直接给出文档的相关度标签.针对这一问题,本文提出了一种通过对比学习将IR公理知识引入神经排序模型的框架,称为ACRank.ACRank利用信息检索公理生成增强数据,抽取不同文档的匹配信号,利用对比学习拉开匹配信号间差距,使正样本匹配信号强于负样本,通过上述方式,ACRank将IR公理知识自然地融入到数据驱动的神经排序模型中.ACRank作为通用框架,可应用于不同规则,本文选择词频规则进行实验,基于大规模公开数据集上的实验结果表明,ACRank能够有效提升已有神经检索模型如BERT的排序精度,相关分析实验验证了该框架的有效性. 展开更多
关键词 神经检索模型 信息检索公理 对比学习 知识驱动 数据驱动
在线阅读 下载PDF
基于多任务学习的跨语言信息检索方法研究 被引量:11
2
作者 代佳洋 周栋 《广西师范大学学报(自然科学版)》 CAS 北大核心 2022年第6期69-81,共13页
跨语言信息检索是信息检索领域的重要任务之一。现有的跨语言神经检索方法通常使用单任务学习,单一的特征捕捉模式限制了神经检索模型的性能。为此,本文提出一种基于多任务学习的跨语言检索方法,利用文本分类任务作为辅助任务,使用共享... 跨语言信息检索是信息检索领域的重要任务之一。现有的跨语言神经检索方法通常使用单任务学习,单一的特征捕捉模式限制了神经检索模型的性能。为此,本文提出一种基于多任务学习的跨语言检索方法,利用文本分类任务作为辅助任务,使用共享文本特征提取层同时捕捉2个任务的特征信息,使其学习不同任务的特征模式,然后将特征向量分别输入到神经检索模型和文本分类模型中完成2个任务。另外,文本分类任务引入的外部语料也在一定程度上起到了数据增强的作用,进一步增加了特征信息的层次。在CLEF 2000-2003数据集的4个语言对上进行的实验表明,本方法明显改善了文本特征提取的效果,从而增强了神经检索模型性能,使神经检索模型的MAP值提高0.012~0.188,并使模型收敛速度平均提高了24.3%。 展开更多
关键词 信息检索 多任务学习 跨语言信息检索 神经检索模型 外部语料
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部