期刊文献+
共找到22篇文章
< 1 2 >
每页显示 20 50 100
基于交叉多头注意力的查询式文本摘要生成
1
作者 何东欢 李旸 王素格 《中文信息学报》 北大核心 2025年第7期138-147,共10页
生成是一项根据给定文档和查询,生成与查询相关摘要的任务。该文将查询式摘要生成任务转换为阅读理解任务,将文档与查询进行交互,建立了基于交叉多头注意力的Transformer架构的多源指针生成式摘要新模型。该模型通过BERT预训练模型,建... 生成是一项根据给定文档和查询,生成与查询相关摘要的任务。该文将查询式摘要生成任务转换为阅读理解任务,将文档与查询进行交互,建立了基于交叉多头注意力的Transformer架构的多源指针生成式摘要新模型。该模型通过BERT预训练模型,建立文档、查询和摘要的嵌入表示,再在Transformer架构中,通过交叉的多头注意力机制,建立查询与文档的交互深层语义表示。在此基础上,使用多源指针生成网络,使生成的摘要与文档和查询内容具有语义一致性和表达连贯性。最后,在查询式文本摘要生成数据集Debatepedia和Querysum-data上,与已有方法进行对比实验,实验结果验证了该文摘要生成模型CMAT-PG的有效性。 展开更多
关键词 查询式文本摘要生成 机器阅读理解 交叉多头注意力机制 多源指针生成网络
在线阅读 下载PDF
融合引导注意力的中文长文本摘要生成
2
作者 郭哲 张智博 +2 位作者 周炜杰 樊养余 张艳宁 《电子学报》 CSCD 北大核心 2024年第12期3914-3930,共17页
当前基于深度学习的中文长文本摘要生成的研究存在以下问题:(1)生成模型缺少信息引导,缺乏对关键词汇和语句的关注,存在长文本跨度下关键信息丢失的问题;(2)现有中文长文本摘要模型的词表常以字为基础,并不包含中文常用词语与标点,不利... 当前基于深度学习的中文长文本摘要生成的研究存在以下问题:(1)生成模型缺少信息引导,缺乏对关键词汇和语句的关注,存在长文本跨度下关键信息丢失的问题;(2)现有中文长文本摘要模型的词表常以字为基础,并不包含中文常用词语与标点,不利于提取多粒度的语义信息.针对上述问题,本文提出了融合引导注意力的中文长文本摘要生成(Chinese Long text Summarization with Guided Attention,CLSGA)方法.首先,针对中文长文本摘要生成任务,利用抽取模型灵活抽取长文本中的核心词汇和语句,构建引导文本,用以指导生成模型在编码过程中将注意力集中于更重要的信息.其次,设计中文长文本词表,将文本结构长度由字统计改变至词组统计,有利于提取更加丰富的多粒度特征,进一步引入层次位置分解编码,高效扩展长文本的位置编码,加速网络收敛.最后,以局部注意力机制为骨干,同时结合引导注意力机制,以此有效捕捉长文本跨度下的重要信息,提高摘要生成的精度.在四个不同长度的公共中文摘要数据集LCSTS(大规模中文短文本摘要数据集)、CNewSum(大规模中国新闻摘要数据集)、NLPCC2017和SFZY2020上的实验结果表明:本文方法对于长文本摘要生成具有显著优势,能够有效提高ROUGE-1、ROUGE-2、ROUGE-L值. 展开更多
关键词 自然语言处理 中文长文本摘要生成 引导注意力 层次位置分解编码 局部注意力
在线阅读 下载PDF
基于混合注意力与强化学习的文本摘要生成 被引量:8
3
作者 党宏社 陶亚凡 张选德 《计算机工程与应用》 CSCD 北大核心 2020年第1期185-190,共6页
基于递归神经网络的序列到序列的模型在文本摘要生成任务中取得了非常好的效果,但这类模型大多存在生成文本重复、曝光偏差等问题。针对重复问题,提出一种由存储注意力和解码自注意力构成的混合注意力,通过存储历史注意力和增加对历史... 基于递归神经网络的序列到序列的模型在文本摘要生成任务中取得了非常好的效果,但这类模型大多存在生成文本重复、曝光偏差等问题。针对重复问题,提出一种由存储注意力和解码自注意力构成的混合注意力,通过存储历史注意力和增加对历史生成单词的注意力来克服该问题;使用强化学习作为一种新的训练方式来解决曝光偏差问题,同时修正损失函数。在CNN/Daily Mail数据集对模型进行测试,以ROUGE为评价指标,结果证明了混合注意力对重复问题有较大的改善,借助强化学习可以消除曝光偏差,整合后的模型在测试集上超越先进算法。 展开更多
关键词 文本摘要生成 混合注意力 强化学习 自然语言处理 曝光偏差 递归神经网络
在线阅读 下载PDF
融合关键词的中文新闻文本摘要生成 被引量:8
4
作者 宁珊 严馨 +2 位作者 徐广义 周枫 张磊 《计算机工程与科学》 CSCD 北大核心 2020年第12期2265-2272,共8页
针对现有基于seq2seq模型在生成摘要时容易出现语义无关的摘要词,同时没有考虑到关键词在摘要生成中的作用,提出一种融合关键词的中文新闻文本摘要生成方法。首先将源文本词依次输入到Bi-LSTM模型中;然后将得到的时间步隐藏状态输入到... 针对现有基于seq2seq模型在生成摘要时容易出现语义无关的摘要词,同时没有考虑到关键词在摘要生成中的作用,提出一种融合关键词的中文新闻文本摘要生成方法。首先将源文本词依次输入到Bi-LSTM模型中;然后将得到的时间步隐藏状态输入到滑动卷积神经网络,提取每个词与相邻词之间的局部特征;其次利用关键词信息和门控单元对新闻文本信息进行过滤,去除冗余信息;再通过自注意力机制获得每个词的全局特征信息,最终编码得到具有层次性的局部结合全局的词特征表示;将编码得到的词特征表示输入到带有注意力机制的LSTM模型中解码得到摘要信息。该方法通过滑动卷积网络对新闻词的n-gram特征建模,在此基础上利用自注意力机制,获得具有层次性的局部结合全局的词特征表示。同时,考虑了关键词在新闻摘要生成中的重要作用,利用门控单元去除冗余信息,以获得更精准的新闻文本信息。在搜狗全网新闻语料上的实验表明,该方法能够有效提高摘要生成质量,能够有效地提高ROUGE-1、ROUGE-2、ROUGE-L值。 展开更多
关键词 文本摘要生成 滑动卷积网络 关键词信息融合 门控单元 全局编码
在线阅读 下载PDF
融合多层注意力表示的中文新闻文本摘要生成 被引量:3
5
作者 王骞 雷景生 唐小岚 《计算机应用与软件》 北大核心 2023年第10期191-198,共8页
针对现有的文本摘要模型词向量表意不全面,且难以对远距离词句进行表征,提出一种融合多层注意力表示的中长文本摘要方法。通过抽取式技术将新闻文本进行分割,得到主体文本和辅助文本;将主体文本进行图卷积神经网络的学习和依存句法分析... 针对现有的文本摘要模型词向量表意不全面,且难以对远距离词句进行表征,提出一种融合多层注意力表示的中长文本摘要方法。通过抽取式技术将新闻文本进行分割,得到主体文本和辅助文本;将主体文本进行图卷积神经网络的学习和依存句法分析,得到词向量的图卷积表示和依存词对信息,同时对辅助文本进行高频主题词的挖掘;将这三种信息融合送入Transformer序列模型中,并对编码器和解码器的局部注意力稍作修改,使其能够更多地关注主题相关的部分和依存句法结构;生成文本摘要。在公共文本摘要数据集NLPCC 2017上的实验表明,该方法能够得到较高的ROUGE分数,生成质量更好的文本摘要。 展开更多
关键词 文本摘要生成 TextRank 图卷积神经网络 依存句法分析 Transformer序列模型
在线阅读 下载PDF
融合卷积收缩门控的生成式文本摘要方法 被引量:1
6
作者 甘陈敏 唐宏 +2 位作者 杨浩澜 刘小洁 刘杰 《计算机工程》 CAS CSCD 北大核心 2024年第2期98-104,共7页
在深度学习技术的推动下,基于编码器-解码器架构并结合注意力机制的序列到序列模型成为文本摘要研究中应用最广泛的模型之一,尤其在生成式文本摘要任务中取得显著效果。然而,现有的采用循环神经网络的模型存在并行能力不足和时效低下的... 在深度学习技术的推动下,基于编码器-解码器架构并结合注意力机制的序列到序列模型成为文本摘要研究中应用最广泛的模型之一,尤其在生成式文本摘要任务中取得显著效果。然而,现有的采用循环神经网络的模型存在并行能力不足和时效低下的局限性,无法充分概括有用信息,忽视单词与句子间的联系,易产生冗余重复或语义不相关的摘要。为此,提出一种基于Transformer和卷积收缩门控的文本摘要方法。利用BERT作为编码器,提取不同层次的文本表征得到上下文编码,采用卷积收缩门控单元调整编码权重,强化全局相关性,去除无用信息的干扰,过滤后得到最终的编码输出,并通过设计基础Transformer解码模块、共享编码器的解码模块和采用生成式预训练Transformer(GPT)的解码模块3种不同的解码器,加强编码器与解码器的关联,以此探索能生成高质量摘要的模型结构。在LCSTS和CNNDM数据集上的实验结果表明,相比主流基准模型,设计的TCSG、ES-TCSG和GPT-TCSG模型的评价分数增量均不低于1.0,验证了该方法的有效性和可行性。 展开更多
关键词 生成文本摘要 序列到序列模型 Transformer模型 BERT编码器 卷积收缩门控单元 解码器
在线阅读 下载PDF
融合关键信息与专家网络的生成式文本摘要 被引量:1
7
作者 魏盼丽 王红斌 《吉林大学学报(理学版)》 CAS 北大核心 2024年第4期951-959,共9页
针对现有生成式摘要模型生成过程中存在原文本关键信息缺失和内容难控制的问题,提出一种结合抽取方法引导的生成式文本摘要方法.该方法首先通过抽取模型从原文本中获取关键句,然后采用双编码策略,分别编码关键句和新闻文本,使关键信息... 针对现有生成式摘要模型生成过程中存在原文本关键信息缺失和内容难控制的问题,提出一种结合抽取方法引导的生成式文本摘要方法.该方法首先通过抽取模型从原文本中获取关键句,然后采用双编码策略,分别编码关键句和新闻文本,使关键信息在解码过程中引导生成摘要,最后引入专家网络在解码时筛选信息,以进一步引导摘要生成.在数据集CNN/Daily Mail和XSum上的实验结果表明,该模型可有效改进生成式文本摘要的性能.该方法 在一定程度上提高了生成摘要对原文本关键信息的包含量,同时缓解了生成内容难控制的问题. 展开更多
关键词 生成文本摘要 双编码器 关键信息 专家网络 引导感知
在线阅读 下载PDF
基于BERT的语义增强中文文本自动摘要研究
8
作者 盖泽超 池越 周亚同 《中文信息学报》 北大核心 2025年第5期110-119,共10页
目前,基于BERT预训练的文本摘要模型效果良好。然而,预训练模型内部使用的自注意力机制倾向于关注文本中字与字之间的相关信息,对词信息关注度较低,并且在解码时存在语义理解不充分的情况。针对上述问题,该文提出了一种基于BERT的语义... 目前,基于BERT预训练的文本摘要模型效果良好。然而,预训练模型内部使用的自注意力机制倾向于关注文本中字与字之间的相关信息,对词信息关注度较低,并且在解码时存在语义理解不充分的情况。针对上述问题,该文提出了一种基于BERT的语义增强文本摘要模型CBSUM-Aux(Convolution and BERT Based Summarization Model with Auxiliary Information)。首先,使用窗口大小不同的卷积神经网络模块提取原文中的词特征信息,并与输入的字嵌入进行特征融合,之后通过预训练模型对融合特征进行深度特征挖掘。然后,在解码输出阶段,将卷积之后的词特征信息作为解码辅助信息输入解码器中指导模型解码。最后,针对束搜索算法倾向于输出短句的问题对其进行优化。该文使用LCSTS和CSTSD数据集对模型进行验证,实验结果表明,该文模型在ROUGE指标上有明显提升,生成的摘要与原文语义更加贴合。 展开更多
关键词 生成文本摘要 预训练模型 自注意力机制 卷积神经网络 辅助信息
在线阅读 下载PDF
基于三元组信息指导的生成式文本摘要研究
9
作者 张云佐 李怡 《北京航空航天大学学报》 EI CAS CSCD 北大核心 2024年第12期3677-3685,共9页
针对当前生成式文本摘要模型在解码时对文本事实性信息利用不充分的问题,提出一种以事实三元组为指导的文本摘要模型SPOATS。该模型基于Transformer结构搭建具有事实提取能力的双编码器和融合事实特征的解码器。构建LTP-BiLSTM-GAT (LB... 针对当前生成式文本摘要模型在解码时对文本事实性信息利用不充分的问题,提出一种以事实三元组为指导的文本摘要模型SPOATS。该模型基于Transformer结构搭建具有事实提取能力的双编码器和融合事实特征的解码器。构建LTP-BiLSTM-GAT (LBiG)模型,并设计最优事实三元组选择算法,从非结构化中文文本中提取最优事实三元组,并获取事实性信息的特征表示;利用改进的S-BERT模型对原文进行句子级向量表示,获取语义丰富的句子编码;设计基于注意力的事实融合机制,融合双编码特征来提高模型在解码阶段对事实性信息的选择能力。实验结果表明:在LCSTS数据集上,所提模型相比于基线模型ERPG的R1值提升了2.0%,摘要质量得到明显提升。 展开更多
关键词 事实融合机制 三元组 事实一致性 TRANSFORMER 生成文本摘要
在线阅读 下载PDF
基于语义对齐的生成式文本摘要研究 被引量:8
10
作者 吴世鑫 黄德根 李玖一 《北京大学学报(自然科学版)》 EI CAS CSCD 北大核心 2021年第1期1-6,共6页
针对当前生成式文本摘要模型在解码时对摘要整体语义信息利用不充分的问题,提出一种基于语义对齐的神经网络文本摘要方法。该方法以带注意力、Pointer机制和Coverage机制的Sequence-to-Sequence模型为基础,在编码器与解码器之间加入语... 针对当前生成式文本摘要模型在解码时对摘要整体语义信息利用不充分的问题,提出一种基于语义对齐的神经网络文本摘要方法。该方法以带注意力、Pointer机制和Coverage机制的Sequence-to-Sequence模型为基础,在编码器与解码器之间加入语义对齐网络,实现文本到摘要的语义信息对齐;将获得的摘要整体语义信息与解码器的词汇预测上下文向量进行拼接,使解码器在预测当前词汇时不仅利用已预测词汇序列的部分语义,而且考虑拟预测摘要的整体语义。在中文新闻语料LCSTS上的实验表明,该模型能够有效地提高文本摘要的质量,在字粒度上的实验显示,加入语义对齐机制可以使Rouge_L值提高5.4个百分点。 展开更多
关键词 生成文本摘要 Sequence-to-Sequence模型 语义对齐网络
在线阅读 下载PDF
指针生成网络和覆盖损失优化的Transformer在生成式文本摘要领域的应用 被引量:4
11
作者 李想 王卫兵 尚学达 《计算机应用》 CSCD 北大核心 2021年第6期1647-1651,共5页
针对生成式文本摘要应用场景,提出了以Transformer为基础的摘要模型,并在Transformer模型中加入了指针生成(Pointer Generator)网络和覆盖损失(Coverage Loss)进行优化。首先,提出了基于Transformer模型作为基础结构的方法,利用其注意... 针对生成式文本摘要应用场景,提出了以Transformer为基础的摘要模型,并在Transformer模型中加入了指针生成(Pointer Generator)网络和覆盖损失(Coverage Loss)进行优化。首先,提出了基于Transformer模型作为基础结构的方法,利用其注意力机制更好地捕捉上下文的语意信息。然后,在模型的损失函数中引入Coverage Loss来惩罚不断出现的重复的词的分布和覆盖范围,从而解决Transformer模型中的注意力机制在生成式任务中出现不断生成同一个词的问题。最后,在模型中加入了Pointer Generator网络,从而允许模型从源文本中复制词用作生成词来解决词表无法覆盖(OOV)的问题。探索了改进后的模型是否减少了不准确的表达以及重复出现相同词的现象是否得以解决。该模型相较于原始的Transformer模型在ROUGE-1评测函数上得分提升了1.98个百分点、ROUGE-2评测函数上得分提升0.95个百分点,在ROUGE-L评测函数上得分提升了2.27个百分点,并提升了摘要结果的可读性及准确性。实验结果表明,Transformer在加入Coverage Loss和Pointer Generator网络后可应用于生成式文本摘要领域。 展开更多
关键词 生成文本摘要 注意力机制 TRANSFORMER 覆盖损失 指针生成网络
在线阅读 下载PDF
基于深度学习的生成式文本摘要技术综述 被引量:25
12
作者 朱永清 赵鹏 +3 位作者 赵菲菲 慕晓冬 白坤 尤轩昂 《计算机工程》 CAS CSCD 北大核心 2021年第11期11-21,28,共12页
在互联网数据急剧扩张和深度学习技术高速发展的背景下,自动文本摘要任务作为自然语言处理领域的主要研究方向之一,其相关技术及应用被广泛研究。基于摘要任务深化研究需求,以研究过程中存在的关键问题为导向,介绍现有基于深度学习的生... 在互联网数据急剧扩张和深度学习技术高速发展的背景下,自动文本摘要任务作为自然语言处理领域的主要研究方向之一,其相关技术及应用被广泛研究。基于摘要任务深化研究需求,以研究过程中存在的关键问题为导向,介绍现有基于深度学习的生成式文本摘要模型,简述定义及来源、数据预处理及基本框架、常用数据集及评价标准等,指出发展优势和关键问题,并针对关键问题阐述对应的可行性解决方案。对比常用的深度预训练模型和创新方法融合模型,分析各模型的创新性和局限性,提出对部分局限性问题的解决思路。进一步地,对该技术领域的未来发展方向进行展望总结。 展开更多
关键词 深度学习 生成文本摘要 未登录词 生成重复 长程依赖 评价标准
在线阅读 下载PDF
Senti-PG-MMR:多文档游记情感摘要生成方法 被引量:5
13
作者 梁梦英 李德玉 +3 位作者 王素格 廖健 郑建兴 陈千 《中文信息学报》 CSCD 北大核心 2022年第3期128-135,共8页
由于大量的游客在社交媒体上记录自己的心情,人们在享受便捷获取网络上大量旅游信息的同时,也淹没在混乱的游记信息海洋里。为了从游记中获取游客关心的景点信息和游客对景点表达的情感信息,该文提出了一个多文档游记的情感摘要生成方法... 由于大量的游客在社交媒体上记录自己的心情,人们在享受便捷获取网络上大量旅游信息的同时,也淹没在混乱的游记信息海洋里。为了从游记中获取游客关心的景点信息和游客对景点表达的情感信息,该文提出了一个多文档游记的情感摘要生成方法,该方法结合指针生成网络和最大边界相关算法,构建了一个端到端的神经网络摘要生成模型。该模型在进行文本摘要生成时,对于情感信息给予重视,使得生成的摘要包含一定的情感信息。通过在自建数据集上进行训练和测试,实验结果验证了该模型的有效性。 展开更多
关键词 旅游 文本摘要生成 情感信息
在线阅读 下载PDF
基于双编码器的短文本自动摘要方法 被引量:4
14
作者 丁建立 李洋 王家亮 《计算机应用》 CSCD 北大核心 2019年第12期3476-3481,共6页
针对当前生成式文本摘要方法存在的语义信息利用不充分、摘要精度不够等问题,提出一种基于双编码器的文本摘要方法。首先,通过双编码器为序列映射(Seq2Seq)架构提供更丰富的语义信息,并对融入双通道语义的注意力机制和伴随经验分布的解... 针对当前生成式文本摘要方法存在的语义信息利用不充分、摘要精度不够等问题,提出一种基于双编码器的文本摘要方法。首先,通过双编码器为序列映射(Seq2Seq)架构提供更丰富的语义信息,并对融入双通道语义的注意力机制和伴随经验分布的解码器进行了优化研究;然后,在词嵌入生成技术中融合位置嵌入和词嵌入,并新增词频-逆文档频率(TF-IDF)、词性(POS)、关键性得分(Soc),优化词嵌入维度。所提方法对传统序列映射Seq2Seq和词特征表示进行优化,在增强模型对语义的理解的同时,提高了摘要的质量。实验结果表明,该方法在Rouge评价体系中的表现相比传统伴随自注意力机制的递归神经网络方法(RNN+atten)和多层双向伴随自注意力机制的递归神经网络方法(Bi-MulRNN+atten)提高10~13个百分点,其文本摘要语义理解更加准确、生成效果更好,拥有更好的应用前景。 展开更多
关键词 生成文本摘要 序列映射(Seq2Seq) 双编码器 经验分布 词特征表示
在线阅读 下载PDF
基于深度学习的文本自动摘要方案 被引量:11
15
作者 张克君 李伟男 +2 位作者 钱榕 史泰猛 焦萌 《计算机应用》 CSCD 北大核心 2019年第2期311-315,共5页
针对自然语言处理(NLP)生成式自动摘要领域的语义理解不充分、摘要语句不通顺和摘要准确度不够高的问题,提出了一种新的生成式自动摘要解决方案,包括一种改进的词向量生成技术和一个生成式自动摘要模型。改进的词向量生成技术以Skip-Gra... 针对自然语言处理(NLP)生成式自动摘要领域的语义理解不充分、摘要语句不通顺和摘要准确度不够高的问题,提出了一种新的生成式自动摘要解决方案,包括一种改进的词向量生成技术和一个生成式自动摘要模型。改进的词向量生成技术以Skip-Gram方法生成的词向量为基础,结合摘要的特点,引入词性、词频和逆文本频率三个词特征,有效地提高了词语的理解;而提出的Bi-MulRnn+生成式自动摘要模型以序列映射(seq2seq)与自编码器结构为基础,引入注意力机制、门控循环单元(GRU)结构、双向循环神经网络(BiRnn)、多层循环神经网络(MultiRnn)和集束搜索,提高了生成式摘要准确性与语句流畅度。基于大规模中文短文本摘要(LCSTS)数据集的实验结果表明,该方案能够有效地解决短文本生成式摘要问题,并在Rouge标准评价体系中表现良好,提高了摘要准确性与语句流畅度。 展开更多
关键词 自然语言处理 生成文本自动摘要 序列映射 自编码器 词向量 循环神经网络
在线阅读 下载PDF
DAPC:结合双注意力和指针覆盖的文本摘要模型 被引量:8
16
作者 张敏 曾碧卿 +1 位作者 韩旭丽 徐如阳 《计算机工程与应用》 CSCD 北大核心 2020年第8期149-157,共9页
基于注意力机制的序列到序列模型在生成式摘要方法中得到广泛应用,并取得较好的表现。但现有模型方法生成的摘要普遍存在语义无关、句内重复和未登录词等问题。为了解决这些问题,在典型基于注意力机制的序列到序列模型基础上,提出了结... 基于注意力机制的序列到序列模型在生成式摘要方法中得到广泛应用,并取得较好的表现。但现有模型方法生成的摘要普遍存在语义无关、句内重复和未登录词等问题。为了解决这些问题,在典型基于注意力机制的序列到序列模型基础上,提出了结合双注意力和指针覆盖机制的生成式文本摘要方法DAPC(Dual Attention and Pointer-Coverage based model)模型。组合局部注意力和卷积神经网络,提取输入文本的更高层次的语言特征;引入指针-生成网络来解决未登录词问题;使用覆盖机制解决模型生成摘要句内重复的问题。实验结果表明,模型在CNN/Daily Mail数据集中有较好的表现。 展开更多
关键词 生成文本摘要 局部注意力 序列到序列框架 覆盖机制
在线阅读 下载PDF
基于编解码器结构的中文文本摘要 被引量:11
17
作者 李大舟 于沛 +1 位作者 高巍 马辉 《计算机工程与设计》 北大核心 2021年第3期696-702,共7页
传统生成式模型中存在的梯度经过多次传播后,倾向于消失或爆炸,且存在语言理解不充分的性能缺陷,为此提出一种生成式自动文本摘要方法(BiGRUAtten-LSTM)。编码器端将原始文本输入到编码器并结合双向门控循环单元生成固定长度的语义向量... 传统生成式模型中存在的梯度经过多次传播后,倾向于消失或爆炸,且存在语言理解不充分的性能缺陷,为此提出一种生成式自动文本摘要方法(BiGRUAtten-LSTM)。编码器端将原始文本输入到编码器并结合双向门控循环单元生成固定长度的语义向量,使用注意力机制分配每个输入词的权重来减少输入序列信息的细节损失。解码器端使用LSTM网络,融合先验知识和集束搜索方法将语义向量解码生成目标文本摘要。通过工业新闻数据集的实验验证,与传统的生成式文本摘要模型相比,ROUGE-1指标提高0.026、ROUGE-2指标提高0.056、ROUGE-L指标提高0.025。 展开更多
关键词 生成文本摘要 编解码器 双向门控循环单元 注意力机制 长短时记忆 集束搜索
在线阅读 下载PDF
基于关键信息指导的文本摘要模型 被引量:1
18
作者 林舟 周绮凤 《东北大学学报(自然科学版)》 EI CAS CSCD 北大核心 2023年第9期1251-1258,共8页
现有生成式文本摘要模型缺乏对关键词信息的关注,存在输入文本中关键信息丢失问题.因此,提出了一种基于关键词语义信息增强的指针生成网络(keyword semantic information enhancement pointer-generator networks,KSIE-PGN)模型.首先,... 现有生成式文本摘要模型缺乏对关键词信息的关注,存在输入文本中关键信息丢失问题.因此,提出了一种基于关键词语义信息增强的指针生成网络(keyword semantic information enhancement pointer-generator networks,KSIE-PGN)模型.首先,构建了基于DistilBERT的关键词抽取模型(keywords selection method based on BERT,KSBERT).其次,提出了基于关键词掩码的覆盖机制,在使用覆盖机制时,保留解码过程中模型对关键词的持续关注.接着,KSIE-PGN模型在解码过程融合了多种关键词信息,包括关键词语义向量和关键词上下文向量,从而解决解码器丢失输入文本关键信息这一问题.在CNN/Daily Mail数据集上的实验结果表明KSIE-PGN模型能够较好地捕捉输入文本中的关键信息. 展开更多
关键词 生成文本摘要 指针生成网络 关键词信息 关键词掩码 覆盖机制
在线阅读 下载PDF
基于子词单元的深度学习摘要生成方法 被引量:1
19
作者 陈雪雯 《计算机应用与软件》 北大核心 2020年第3期202-208,共7页
现有的生成式文本摘要方法存在一些局限,包括难以产生可靠的源文本表示,产生的摘要句与源文本的语义相似度较低,存在集外词问题等。对此提出一种混合神经网络编码器结构,对源文本的长距依赖和上下文信息进行捕捉,得到高质量的文本表示;... 现有的生成式文本摘要方法存在一些局限,包括难以产生可靠的源文本表示,产生的摘要句与源文本的语义相似度较低,存在集外词问题等。对此提出一种混合神经网络编码器结构,对源文本的长距依赖和上下文信息进行捕捉,得到高质量的文本表示;提出一种基于关键短语的重排序机制,利用源文本中抽取的关键短语对集束搜索生成的候选序列进行重新排序,以减小其与源文本语义上的距离;对文本进行子词单元提取,利用更细粒度的单元对文本进行表示。该方法在不同长度的摘要数据集上进行实验,均取得了良好的效果。 展开更多
关键词 生成文本摘要 字节对编码 集束搜索 深度学习
在线阅读 下载PDF
适用于多领域少样本的元适配器整合学习方法
20
作者 于信 马廷淮 +2 位作者 彭可兴 贾莉 蒋永溢 《计算机工程与应用》 北大核心 2025年第5期122-133,共12页
针对多域少样本文本摘要任务中迁移学习面临的诸多挑战,尤其是源域数据的多样性以及目标域数据的数据稀缺性问题,提出了一种创新的学习方法,名为元适配器整合学习方法(meta-adapter integration learning,MAIL)。MAIL使用基于Transforme... 针对多域少样本文本摘要任务中迁移学习面临的诸多挑战,尤其是源域数据的多样性以及目标域数据的数据稀缺性问题,提出了一种创新的学习方法,名为元适配器整合学习方法(meta-adapter integration learning,MAIL)。MAIL使用基于Transformer的预训练模型作为基础模型,融合适配器模块限制模型参数及层数,并采用元学习方法微调适配器。此外,为了增强在不同领域间的迁移和泛化能力,设计了一种元适配器整合算法,旨在最大化利用多域信息,增强模型跨领域泛化能力。实验结果显示,MAIL在标准文本生成评价指标上超越现有主流模型,并能有效应对跨领域迁移中常见的灾难性遗忘、任务干扰和训练不稳定等问题。 展开更多
关键词 文本摘要生成 少样本学习 迁移学习 预训练模型 适配器 元学习
在线阅读 下载PDF
上一页 1 2 下一页 到第
使用帮助 返回顶部