期刊文献+
共找到12篇文章
< 1 >
每页显示 20 50 100
面向学术文本的语义增强自然语言推理模型
1
作者 张贞港 余传明 王静楠 《现代情报》 北大核心 2025年第8期18-30,共13页
[目的/意义]旨在利用大模型生成学术文本的高质量同义句,通过实施语义增强策略,以优化自然语言推理模型的性能。[方法/过程]在利用大语言模型生成学术文本同义句的基础上,提出语义增强的自然语言推理模型SENLI,该模型包括表示模块、语... [目的/意义]旨在利用大模型生成学术文本的高质量同义句,通过实施语义增强策略,以优化自然语言推理模型的性能。[方法/过程]在利用大语言模型生成学术文本同义句的基础上,提出语义增强的自然语言推理模型SENLI,该模型包括表示模块、语义增强模块和推理模块。其中,表示模块负责获取学术文本及其对应同义句的语义特征;语义增强模块将同义句的语义特征融合到学术文本的原始语义特征,获取语义增强特征;推理模块则基于学术文本的原始语义特征和语义增强特征,预测学术文本对的语义关系。将本文模型应用到SciTail、SciNLI和ZwNLI数据集上,开展实证研究。[结果/结论]实验结果显示,SENLI模型在SciTail、SciNLI和ZwNLI这3个基准数据集上的准确率分别达到了9511%、7920%和9843%,相较于基线模型,提升幅度至少为127%、108%和092%,彰显了本文模型的有效性。应用大语言模型生成的学术文本同义句进行语义增强可以提高自然语言推理模型的效果,研究有助于推动自然语言推理领域的发展,并为信息检索、学术文献挖掘等相关应用提供潜在的技术支持。 展开更多
关键词 自然语言推理 学术文本 语义增强 深度学习 语言模型
在线阅读 下载PDF
融合Attention多粒度句子交互自然语言推理研究 被引量:5
2
作者 程淑玉 郭泽颖 +1 位作者 刘威 印鉴 《小型微型计算机系统》 CSCD 北大核心 2019年第6期1215-1220,共6页
自然语言推理的很多问题都可以抽象为句子匹配问题,传统的匹配方法采用的是对句子向量或句子间的词向量做匹配,这些方法都只关注句子自身的语义信息,忽略句子之间的组合特征,造成语义损失.本文提出多粒度句子交互匹配方法,引入Attentio... 自然语言推理的很多问题都可以抽象为句子匹配问题,传统的匹配方法采用的是对句子向量或句子间的词向量做匹配,这些方法都只关注句子自身的语义信息,忽略句子之间的组合特征,造成语义损失.本文提出多粒度句子交互匹配方法,引入Attention机制,通过不同粒度、不同层次的句子交互,利用深度神经网络模型(BiLSTM)对句子蕴含关系进行分类.本文方法在SNLI语料库上进行了丰富的实验,结果表明该方法在自然语言推理任务上比当前最优的方法获得了更好的表现. 展开更多
关键词 自然语言推理 句子匹配 Attention机制 多粒度
在线阅读 下载PDF
基于广义量词单调性的自然语言推理模式研究 被引量:1
3
作者 黄朝阳 张晓君 《安徽大学学报(哲学社会科学版)》 CSSCI 北大核心 2015年第5期34-39,共6页
广义量词理论是现代逻辑学、理论语言学、计算语言学等交叉领域的重点研究内容之一。利用广义量词的单调性可以解释或判断自然语言推理的有效性。对此有十二个事实和十二个推论可以印证。此项研究对计算机科学中的知识推理和广义量词理... 广义量词理论是现代逻辑学、理论语言学、计算语言学等交叉领域的重点研究内容之一。利用广义量词的单调性可以解释或判断自然语言推理的有效性。对此有十二个事实和十二个推论可以印证。此项研究对计算机科学中的知识推理和广义量词理论的发展都具有较为重要的理论价值和实践意义。 展开更多
关键词 广义量词理论 广义量词 集合 单调性 自然语言推理
在线阅读 下载PDF
基于对抗正则化的自然语言推理 被引量:4
4
作者 刘广灿 曹宇 +1 位作者 许家铭 徐波 《自动化学报》 EI CSCD 北大核心 2019年第8期1455-1463,共9页
目前自然语言推理(Natural language inference, NLI)模型存在严重依赖词信息进行推理的现象.虽然词相关的判别信息在推理中占有重要的地位,但是推理模型更应该去关注连续文本的内在含义和语言的表达,通过整体把握句子含义进行推理,而... 目前自然语言推理(Natural language inference, NLI)模型存在严重依赖词信息进行推理的现象.虽然词相关的判别信息在推理中占有重要的地位,但是推理模型更应该去关注连续文本的内在含义和语言的表达,通过整体把握句子含义进行推理,而不是仅仅根据个别词之间的对立或相似关系进行浅层推理.另外,传统有监督学习方法使得模型过分依赖于训练集的语言先验,而缺乏对语言逻辑的理解.为了显式地强调句子序列编码学习的重要性,并降低语言偏置的影响,本文提出一种基于对抗正则化的自然语言推理方法.该方法首先引入一个基于词编码的推理模型,该模型以标准推理模型中的词编码作为输入,并且只有利用语言偏置才能推理成功;再通过两个模型间的对抗训练,避免标准推理模型过多依赖语言偏置.在 SNLI和 Breaking-NLI 两个公开的标准数据集上进行实验,该方法在 SNLI 数据集已有的基于句子嵌入的推理模型中达到最佳性能,在测试集上取得了 87.60 %的准确率;并且在 Breaking-NLI 数据集上也取得了目前公开的最佳结果. 展开更多
关键词 深度学习 自然语言推理 语言偏置 对抗正则化
在线阅读 下载PDF
面向自然语言推理的基于截断高斯距离的自注意力机制 被引量:3
5
作者 张鹏飞 李冠宇 贾彩燕 《计算机科学》 CSCD 北大核心 2020年第4期178-183,共6页
在自然语言理解任务中,注意力机制由于可以有效捕获词在上下文语境中的重要程度并提高自然语言理解任务的有效性而受到了人们的普遍关注。基于注意力机制的非递归深度网络Transformer,不仅以非常少的参数和训练时间取得了机器翻译学习... 在自然语言理解任务中,注意力机制由于可以有效捕获词在上下文语境中的重要程度并提高自然语言理解任务的有效性而受到了人们的普遍关注。基于注意力机制的非递归深度网络Transformer,不仅以非常少的参数和训练时间取得了机器翻译学习任务的最优性能,还在自然语言推理(Gaussian-Transformer)、词表示学习(Bert)等任务中取得了令人瞩目的成绩。目前Gaussian-Transformer已成为自然语言推理任务性能最好的方法之一。然而,在Transformer中引入Gaussian先验分布对词的位置信息进行编码,虽然可以大大提升邻近词的重要程度,但由于Gaussian分布中非邻近词的重要性会快速趋向于0,对当前词的表示有重要作用的非邻近词的影响会随着距离的加深消失殆尽。因此,文中面向自然语言推理任务,提出了一种基于截断高斯距离分布的自注意力机制,该方法不仅可以凸显邻近词的重要性,还可以保留对当前词表示具有重要作用的非邻近词的信息。在自然语言推理基准数据集SNLI和MultiNLI上的实验结果证实,截断高斯距离分布自注意力机制能够更有效地提取句子中词语的相对位置信息。 展开更多
关键词 自然语言推理 自注意力机制 距离掩码 截断高斯掩码
在线阅读 下载PDF
基于图神经网络和语义知识的自然语言推理任务研究 被引量:3
6
作者 刘欣瑜 刘瑞芳 +1 位作者 石航 韩斌 《中文信息学报》 CSCD 北大核心 2021年第6期122-130,共9页
自然语言推理任务的目的是推断两个句子之间的语义逻辑关系。该文通过模仿人类的推理过程构造模型,首先利用长短时记忆网络提取词的语境特征,模仿人类粗读句子的过程;然后依据外部语义知识,连接两个句子中有语义联系的词,构造一个以词... 自然语言推理任务的目的是推断两个句子之间的语义逻辑关系。该文通过模仿人类的推理过程构造模型,首先利用长短时记忆网络提取词的语境特征,模仿人类粗读句子的过程;然后依据外部语义知识,连接两个句子中有语义联系的词,构造一个以词为节点的语义图;接下来模仿人类比较两个句子的语义角色相似性的思维,用图卷积或图注意力神经网络聚合词在图中的空间特征;最后融合词的语境特征和语义图空间特征,进行推理分类。实验结果证明,基于图神经网络的模型能有效利用外部语义知识来提高自然语言推理的准确率。 展开更多
关键词 自然语言推理 图神经网络 语义知识 双向长短时记忆网络
在线阅读 下载PDF
一种注意力增强的自然语言推理模型 被引量:2
7
作者 李冠宇 张鹏飞 贾彩燕 《计算机工程》 CAS CSCD 北大核心 2020年第7期91-97,共7页
在自然语言处理任务中使用注意力机制可准确衡量单词重要度。为此,提出一种注意力增强的自然语言推理模型aESIM。将词注意力层以及自适应方向权重层添加到ESIM模型的双向LSTM网络中,从而更有效地学习单词与句子表示,同时提高前提与假设... 在自然语言处理任务中使用注意力机制可准确衡量单词重要度。为此,提出一种注意力增强的自然语言推理模型aESIM。将词注意力层以及自适应方向权重层添加到ESIM模型的双向LSTM网络中,从而更有效地学习单词与句子表示,同时提高前提与假设文本之间局部推理的建模效率。在SNLI、MultiNLI及Quora数据集上的实验结果表明,与ESIM、HBMP、SSE等模型相比,aESIM模型的准确率能够提升0.5%~1%。 展开更多
关键词 自然语言处理 自然语言推理 ESIM模型 注意力机制 双向LSTM网络
在线阅读 下载PDF
融合干预与反事实的知识感知型去偏推理模型
8
作者 孙圣杰 马廷淮 黄凯 《计算机科学与探索》 CSCD 北大核心 2024年第12期3288-3299,共12页
溯因自然语言推理任务旨在根据给定前提事件和结果事件选择更加合理的假设事件。针对推理过程中由中介变量与混杂变量导致的“逻辑缺陷”与“单句标签泄露”偏差问题,提出一种基于干预与反事实原理推理模型(KDIC)。该模型中包含了中介... 溯因自然语言推理任务旨在根据给定前提事件和结果事件选择更加合理的假设事件。针对推理过程中由中介变量与混杂变量导致的“逻辑缺陷”与“单句标签泄露”偏差问题,提出一种基于干预与反事实原理推理模型(KDIC)。该模型中包含了中介变量调节器、单句假设偏差、外部知识融合三个模块。中介变量调节器由因果图干预与假设对比学习组成。因果图干预旨在基于给定事件构建一个因果图,基于注意力机制和图卷积网络提取中介变量指导深度网络编码,去捕获未观察事件的潜在特征。同时,引入假设对比学习,激励模型主动区分影响假设判断的关键因素并弥补“逻辑缺陷”。基于反事实问题构建单据假设偏差模块,以主动识别“单句标签泄露”带来的推理偏差,减少模型对假设中某些特定词汇或短语的依赖。采用预训练常识知识图谱编码器ComET引入外部知识,确保模型全面理解观察事件发生的动机和可能结果,增强事件间的整体逻辑性。在αNLI数据集上进行了实验,证明KDIC的推理能力仅次于基于自监督训练得到的Electra-large-discriminator,但KDIC具有更强的鲁棒性以缓解推理过程中的偏差。 展开更多
关键词 自然语言推理 去偏推理 干预 反事实
在线阅读 下载PDF
融合外部语义知识的中文文本蕴含识别 被引量:1
9
作者 李世宝 李贺 +3 位作者 赵庆帅 殷乐乐 刘建航 黄庭培 《计算机工程》 CAS CSCD 北大核心 2021年第1期44-49,共6页
基于神经网络的文本蕴含识别模型通常仅从训练数据中学习推理知识,导致模型泛化能力较弱。提出一种融合外部语义知识的中文知识增强推理模型(CKEIM)。根据知网知识库的特点提取词级语义知识特征以构建注意力权重矩阵,同时从同义词词林... 基于神经网络的文本蕴含识别模型通常仅从训练数据中学习推理知识,导致模型泛化能力较弱。提出一种融合外部语义知识的中文知识增强推理模型(CKEIM)。根据知网知识库的特点提取词级语义知识特征以构建注意力权重矩阵,同时从同义词词林知识库中选取词语相似度特征和上下位特征组成特征向量,并将注意力权重矩阵、特征向量与编码后的文本向量相结合融入神经网络的模型训练过程,实现中文文本蕴含的增强识别。实验结果表明,与增强序列推理模型相比,CKEIM在15%、50%和100%数据规模的CNLI训练集下识别准确率分别提升了3.7%、1.5%和0.9%,具有更好的中文文本蕴含识别性能和泛化能力。 展开更多
关键词 中文文本蕴含 自然语言推理 注意力机制 双向长短期记忆网络 知网 词林
在线阅读 下载PDF
基于多粒度语义交互理解网络的幽默等级识别 被引量:3
10
作者 张瑾晖 张绍武 +2 位作者 林鸿飞 樊小超 杨亮 《中文信息学报》 CSCD 北大核心 2022年第3期10-18,共9页
幽默在人们日常交流中发挥着重要作用。随着人工智能的快速发展,幽默等级识别成为自然语言处理领域的热点研究问题之一。已有的幽默等级识别研究往往将幽默文本看作一个整体,忽视了幽默文本内部的语义关系。该文将幽默等级识别视为自然... 幽默在人们日常交流中发挥着重要作用。随着人工智能的快速发展,幽默等级识别成为自然语言处理领域的热点研究问题之一。已有的幽默等级识别研究往往将幽默文本看作一个整体,忽视了幽默文本内部的语义关系。该文将幽默等级识别视为自然语言推理任务,将幽默文本划分为“铺垫”和“笑点”两个部分,分别对其语义和语义关系进行建模,提出了一种多粒度语义交互理解网络,从单词和子句两个粒度捕获幽默文本中语义的关联和交互。在Reddit公开幽默数据集上进行了实验,相比之前最优结果,模型在语料上的准确率提升了1.3%。实验表明,引入幽默文本内部的语义关系信息可以提高模型的幽默识别性能,而该文提出的模型也可以很好地建模这种语义关系。 展开更多
关键词 幽默等级识别 自然语言推理 多粒度 语义交互理解
在线阅读 下载PDF
复述平行语料构建及其应用方法研究 被引量:2
11
作者 王雅松 刘明童 +2 位作者 张玉洁 徐金安 陈钰枫 《北京大学学报(自然科学版)》 EI CAS CSCD 北大核心 2021年第1期68-74,共7页
以汉语为研究对象,提出构建大规模高质量汉语复述平行语料的方法。基于翻译引擎进行复述数据增强,将英语复述平行语料迁移到汉语中,同时人工构建汉语复述评测数据集。基于构建的汉语复述数据,在复述识别和自然语言推理任务中验证复述数... 以汉语为研究对象,提出构建大规模高质量汉语复述平行语料的方法。基于翻译引擎进行复述数据增强,将英语复述平行语料迁移到汉语中,同时人工构建汉语复述评测数据集。基于构建的汉语复述数据,在复述识别和自然语言推理任务中验证复述数据构建及其应用方法的有效性。首先基于复述语料生成复述识别数据集,预训练基于注意力机制的神经网络句子匹配模型,训练模型捕获复述信息,然后将预训练的模型用于自然语言推理任务,改进其性能。在自然语言推理公开数据集上的评测结果表明,所构建的复述语料可有效地应用在复述识别任务中,模型可以学习复述知识。应用在自然语言推理任务中时,复述知识能有效地提升自然语言推理模型的精度,从而验证了复述知识对下游语义理解任务的有效性。所提出的复述语料构建方法不依赖语种,可为其他语言和领域提供更多的训练数据,生成高质量的复述数据,改进其他任务的性能。 展开更多
关键词 复述语料构建 数据增强 迁移学习 复述识别 自然语言推理
在线阅读 下载PDF
图像信息对句子语义理解与表示的有效性验证与分析 被引量:1
12
作者 张琨 吕广奕 +2 位作者 吴乐 刘淇 陈恩红 《计算机学报》 EI CSCD 北大核心 2021年第3期476-490,共15页
近年来,图像文本建模研究已经成为自然语言处理领域一个重要的研究方向.图像常被用于增强句子的语义理解与表示.然而也有研究人员对图像信息用于句子语义理解的必要性提出质疑,原因是文本本身就能够提供强有力的先验知识,帮助模型取得... 近年来,图像文本建模研究已经成为自然语言处理领域一个重要的研究方向.图像常被用于增强句子的语义理解与表示.然而也有研究人员对图像信息用于句子语义理解的必要性提出质疑,原因是文本本身就能够提供强有力的先验知识,帮助模型取得非常好的效果;甚至在不使用图像的条件下就能得出正确的答案.因此研究图像文本建模需要首先回答一个问题:图像是否有助于句子语义的理解与表示?为此,本文选择一个典型的不包含图像的自然语言语义理解任务:自然语言推理,并将图像信息引入到该任务中用于验证图像信息的有效性.由于自然语言推理任务是一个单一的自然语言任务,在数据标注过程中没有考虑图像信息,因此选择该任务能够更客观地分析出图像信息对句子语义理解与表示的影响.具体而言,本文提出一种通用的即插即用框架(general plug and play framework)用于图像信息的整合.基于该框架,本文选择目前最先进的五个自然语言推理模型,对比分析这些模型在使用图像信息前后的表现,以及使用不同图像处理模型与不同图像设置时的表现.最后,本文在一个大规模公开数据集上进行了大量实验,实验结果证实图像作为额外知识,确实有助于句子语义的理解与表示.此外,还证实了不同的图像处理模型和使用方法对整个模型的表现也会造成不同的影响. 展开更多
关键词 图像文本建模 句子语义理解与表示 图像信息 即插即用框架 自然语言推理
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部