期刊文献+
共找到2篇文章
< 1 >
每页显示 20 50 100
多跳机器阅读理解研究进展 被引量:4
1
作者 苏珂 黄瑞阳 +2 位作者 张建朋 余诗媛 胡楠 《计算机工程》 CAS CSCD 北大核心 2021年第9期1-17,共17页
与常规的单跳机器阅读理解相比,多跳机器阅读理解(MHMRC)需要在多个相关文档段落中进行多跳推理以实现对复杂问题的理解和回答,其更接近于人类的语言推理能力,具有广阔的应用前景但也极具挑战性。阐述MHMRC的研究背景,将现有方法根据适... 与常规的单跳机器阅读理解相比,多跳机器阅读理解(MHMRC)需要在多个相关文档段落中进行多跳推理以实现对复杂问题的理解和回答,其更接近于人类的语言推理能力,具有广阔的应用前景但也极具挑战性。阐述MHMRC的研究背景,将现有方法根据适用场景分为封闭集合问答和开放域问答两类,主要包括基于问题分解的方法、基于图神经网络的方法、改进检索的方法、基于推理路径的方法等,分别从模型架构、特点、优劣等方面进行分析。介绍用于多跳推理的非结构化文本数据集和评测指标,对比各模型的性能表现。在此基础上,分析目前MHMRC研究的热点与难点,指出未来发展方向。 展开更多
关键词 机器阅读理解 多跳机器阅读理解 问题分解 图神经网络 开放域问答
在线阅读 下载PDF
TransformerG:基于层级图结构与文本注意力机制的法律文本多跳阅读理解 被引量:4
2
作者 朱斯琪 过弋 +3 位作者 王业相 余军 汤奇峰 邵志清 《中文信息学报》 CSCD 北大核心 2022年第11期148-155,168,共9页
该文针对Cail2020法律多跳机器阅读理解数据集进行研究,提出了TransformerG,一个基于不同层级的实体图结构与文本信息的注意力机制融合的多跳阅读理解模型。该模型有效地结合了段落中问题节点、问题的实体节点、句子节点、句中的实体节... 该文针对Cail2020法律多跳机器阅读理解数据集进行研究,提出了TransformerG,一个基于不同层级的实体图结构与文本信息的注意力机制融合的多跳阅读理解模型。该模型有效地结合了段落中问题节点、问题的实体节点、句子节点、句中的实体节点的特征与文本信息的特征,从而预测答案片段。此外,该文提出了一种句子级滑动窗口的方法,有效解决在预训练模型中文本过长导致的截断问题。利用TransformerG模型参加中国中文信息学会计算语言学专委会(CIPS-CL)和最高人民法院信息中心举办的“中国法研杯”司法人工智能挑战赛机器阅读理解赛道,取得了第2名的成绩。 展开更多
关键词 层级图结构 多跳机器阅读理解 法研杯
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部