期刊文献+
共找到41篇文章
< 1 2 3 >
每页显示 20 50 100
Lacmia:抗混淆的多民族语言生成式摘要模型
1
作者 翁彧 罗皓予 +3 位作者 刘征 超木日力格 刘轩 董俊 《中文信息学报》 CSCD 北大核心 2024年第10期80-94,共15页
该文提出了一种针对中国多民族低资源语言生成式摘要模型Lacmia(Language-Anti-confusioned Chinese Minority Abstractive Summarization Model)。为了克服以往模型只能处理单一语言的限制,Lacmia采用了一种统一的生成式架构来执行不... 该文提出了一种针对中国多民族低资源语言生成式摘要模型Lacmia(Language-Anti-confusioned Chinese Minority Abstractive Summarization Model)。为了克服以往模型只能处理单一语言的限制,Lacmia采用了一种统一的生成式架构来执行不同民族语言的摘要生成任务。此外,为了解决以往模型在多民族低资源语言处理上的性能不足问题,该模型在框架中加入了语言信息嵌入模块。该文通过在损失函数中引入目标语言偏好性正则化项,有效减轻了多语言摘要中出现的语言混淆现象,从而提升摘要生成准确性和流畅度。广泛的实验表明,Lacmia在包括藏语和维吾尔语在内的多民族低资源语言摘要任务中,取得了卓越成绩。除了在ROUGE评价标准上实现了显著性能提升外,Lacmia在该文新提出的CINOScore和NLCR两项指标上均达到了最佳效果,验证了模型的有效性和先进性。 展开更多
关键词 生成式摘要 多语言预训练模型 低资源语言信息处理 多目标学习
在线阅读 下载PDF
基于关键词异构图的生成式摘要研究 被引量:2
2
作者 毛兴静 魏勇 +1 位作者 杨昱睿 琚生根 《计算机科学》 CSCD 北大核心 2024年第7期278-286,共9页
生成式摘要是自然语言处理中的重要任务,它帮助人们从海量文本中提取简洁而重要的信息.目前主流的生成式摘要模型是基于深度学习的序列到序列模型,这类模型生成的摘要质量更高.但由于缺乏对原文中关键词和句子之间的依赖关系的关注,现... 生成式摘要是自然语言处理中的重要任务,它帮助人们从海量文本中提取简洁而重要的信息.目前主流的生成式摘要模型是基于深度学习的序列到序列模型,这类模型生成的摘要质量更高.但由于缺乏对原文中关键词和句子之间的依赖关系的关注,现有模型生成的摘要仍然存在语义不明、重要信息含量低等问题.针对这个问题,提出了一种基于关键词异构图的生成式摘要模型.该模型通过从原始文本中提取关键词,将其与句子共同作为输入构建异构图,进而学习关键词和句子之间的依赖关系.文档编码器和图编码器分别用于学习文本知识和异构图中的依赖关系.此外,在解码器中采用分层图注意力机制来提高模型在生成摘要时对显著信息的关注.在CNN/Daily Mail和XSum数据集上进行了充分的实验,实验结果表明,所提模型在ROUGE评价指标上有了显著的提升.进一步的人类评估结果显示,所提模型所生成的摘要比基线模型包含更多的关键信息,并具有更高的可读性. 展开更多
关键词 生成式摘要 关键词 异构图 图注意力 序列到序列模型
在线阅读 下载PDF
基于指针网络的抽取生成式摘要生成模型 被引量:3
3
作者 陈伟 杨燕 《计算机应用》 CSCD 北大核心 2021年第12期3527-3533,共7页
作为自然语言处理中的热点问题,摘要生成具有重要的研究意义。基于Seq2Seq模型的生成式摘要模型取得了良好的效果,然而抽取式的方法具有挖掘有效特征并抽取文章重要句子的潜力,因此如何利用抽取式方法来改进生成式方法是一个较好的研究... 作为自然语言处理中的热点问题,摘要生成具有重要的研究意义。基于Seq2Seq模型的生成式摘要模型取得了良好的效果,然而抽取式的方法具有挖掘有效特征并抽取文章重要句子的潜力,因此如何利用抽取式方法来改进生成式方法是一个较好的研究方向。鉴于此,提出了融合生成式和抽取式方法的模型。首先,使用TextRank算法并融合主题相似度来抽取文章中有重要意义的句子。然后,设计了融合抽取信息语义的基于Seq2Seq模型的生成式框架来实现摘要生成任务;同时,引入指针网络解决模型训练中的未登录词(OOV)问题。综合以上步骤得到最终摘要,并在CNN/Daily Mail数据集上进行验证。结果表明在ROUGE-1、ROUGE-2和ROUGE-L三个指标上所提模型比传统TextRank算法均有所提升,同时也验证了融合抽取式和生成式方法在摘要生成领域中的有效性。 展开更多
关键词 抽取生成式摘要 TextRank算法 Seq2Seq模型 指针网络 语义融合
在线阅读 下载PDF
融合序列语法知识的卷积-自注意力生成式摘要方法 被引量:2
4
作者 罗森林 王睿怡 +2 位作者 吴倩 潘丽敏 吴舟婷 《北京理工大学学报》 EI CAS CSCD 北大核心 2021年第1期93-101,共9页
针对基于编码-解码的生成式摘要模型不能充分提取语法知识导致摘要出现不符合语法规则的问题,循环神经网络易遗忘历史信息且训练时无法并行计算导致处理长文本时生成的摘要主旨不显著以及编码速度慢的问题,提出了一种融合序列语法知识... 针对基于编码-解码的生成式摘要模型不能充分提取语法知识导致摘要出现不符合语法规则的问题,循环神经网络易遗忘历史信息且训练时无法并行计算导致处理长文本时生成的摘要主旨不显著以及编码速度慢的问题,提出了一种融合序列语法知识的卷积-自注意力生成式摘要方法.该方法对文本构建短语结构树,将语法知识序列化并嵌入到编码器中,使编码时能充分利用语法信息;使用卷积-自注意力模型替换循环神经网络进行编码,更好学习文本的全局和局部信息.在CNN/Daily Mail语料上进行实验,结果表明提出的方法优于当前先进方法,生成的摘要更符合语法规则、主旨更显著且模型的编码速度更快. 展开更多
关键词 生成式摘要 编码-解码模型 语法分析 卷积-自注意力模型 注意力机制
在线阅读 下载PDF
基于关键短语和主题的生成式文本摘要模型
5
作者 郭常江 赵铁军 《中文信息学报》 北大核心 2025年第8期149-157,共9页
序列到序列式的生成式文本摘要研究中一直存在噪声干扰,导致模型生成的摘要无法抓住重点信息,甚至会丢失信息;另一方面,模型又受到训练方式的影响,存在“曝光偏差”问题。经研究发现,在模型训练过程中引入文章关键短语和主题信息,可以... 序列到序列式的生成式文本摘要研究中一直存在噪声干扰,导致模型生成的摘要无法抓住重点信息,甚至会丢失信息;另一方面,模型又受到训练方式的影响,存在“曝光偏差”问题。经研究发现,在模型训练过程中引入文章关键短语和主题信息,可以有效帮助模型在生成摘要时获取文章的重要信息,基于此该文提出了一个基于关键短语和主题的生成式文本摘要模型。该模型在编码器端引入关键短语门控网络,在解码器端引入主题感知网络,同时加入强化学习方法,缓解传统有监督训练方式的缺陷。该模型在中文数据集LCSTS和英文数据集CNN/Daily Mail数据集上的ROUGE指标均优于前人的结果。进一步,通过消融实验验证各个组件的正向作用。 展开更多
关键词 生成式文本摘要 关键短语门控 主题感知 强化学习
在线阅读 下载PDF
基于过滤注意力机制的生成式自动社交媒体文本摘要模型 被引量:2
6
作者 许天翼 颜兆萍 +1 位作者 朱恩耀 石进 《现代情报》 CSSCI 北大核心 2024年第12期40-51,共12页
[目的/意义]为了帮助用户在浩如烟海的社交媒体文本中快速获取所需信息,本研究创新地设计了一种基于过滤注意力机制的自动摘要生成模型Filter Unit Model(FUM)。[方法/过程]首先,采用微调BERT对于输入的社交媒体文本进行向量嵌入;其次,... [目的/意义]为了帮助用户在浩如烟海的社交媒体文本中快速获取所需信息,本研究创新地设计了一种基于过滤注意力机制的自动摘要生成模型Filter Unit Model(FUM)。[方法/过程]首先,采用微调BERT对于输入的社交媒体文本进行向量嵌入;其次,设计了过滤注意力机制来滤除嵌入社交媒体文本中的无用信息,基于字词层面和语句层面两种过滤注意力机制,旨在从不同角度对于嵌入向量进行过滤;最后,采用Transformer的解码器部分进行解码工作,并根据过滤注意力机制的不同设计相应的解码策略。[结果/结论]本研究在微博数据集上与摘要生成领域中经典、优秀的基线模型进行对比实验。实验结果表明,本研究所设计的FUM模型有着比其他基线方法更出色的表现。同时,基于语句层面的过滤注意力机制比基于字词层面的有更好的过滤效果。 展开更多
关键词 生成式摘要模型 社交媒体 过滤注意力机制
在线阅读 下载PDF
融合卷积收缩门控的生成式文本摘要方法 被引量:1
7
作者 甘陈敏 唐宏 +2 位作者 杨浩澜 刘小洁 刘杰 《计算机工程》 CAS CSCD 北大核心 2024年第2期98-104,共7页
在深度学习技术的推动下,基于编码器-解码器架构并结合注意力机制的序列到序列模型成为文本摘要研究中应用最广泛的模型之一,尤其在生成式文本摘要任务中取得显著效果。然而,现有的采用循环神经网络的模型存在并行能力不足和时效低下的... 在深度学习技术的推动下,基于编码器-解码器架构并结合注意力机制的序列到序列模型成为文本摘要研究中应用最广泛的模型之一,尤其在生成式文本摘要任务中取得显著效果。然而,现有的采用循环神经网络的模型存在并行能力不足和时效低下的局限性,无法充分概括有用信息,忽视单词与句子间的联系,易产生冗余重复或语义不相关的摘要。为此,提出一种基于Transformer和卷积收缩门控的文本摘要方法。利用BERT作为编码器,提取不同层次的文本表征得到上下文编码,采用卷积收缩门控单元调整编码权重,强化全局相关性,去除无用信息的干扰,过滤后得到最终的编码输出,并通过设计基础Transformer解码模块、共享编码器的解码模块和采用生成式预训练Transformer(GPT)的解码模块3种不同的解码器,加强编码器与解码器的关联,以此探索能生成高质量摘要的模型结构。在LCSTS和CNNDM数据集上的实验结果表明,相比主流基准模型,设计的TCSG、ES-TCSG和GPT-TCSG模型的评价分数增量均不低于1.0,验证了该方法的有效性和可行性。 展开更多
关键词 生成式文本摘要 序列到序列模型 Transformer模型 BERT编码器 卷积收缩门控单元 解码器
在线阅读 下载PDF
基于三元组信息指导的生成式文本摘要研究
8
作者 张云佐 李怡 《北京航空航天大学学报》 EI CAS CSCD 北大核心 2024年第12期3677-3685,共9页
针对当前生成式文本摘要模型在解码时对文本事实性信息利用不充分的问题,提出一种以事实三元组为指导的文本摘要模型SPOATS。该模型基于Transformer结构搭建具有事实提取能力的双编码器和融合事实特征的解码器。构建LTP-BiLSTM-GAT (LB... 针对当前生成式文本摘要模型在解码时对文本事实性信息利用不充分的问题,提出一种以事实三元组为指导的文本摘要模型SPOATS。该模型基于Transformer结构搭建具有事实提取能力的双编码器和融合事实特征的解码器。构建LTP-BiLSTM-GAT (LBiG)模型,并设计最优事实三元组选择算法,从非结构化中文文本中提取最优事实三元组,并获取事实性信息的特征表示;利用改进的S-BERT模型对原文进行句子级向量表示,获取语义丰富的句子编码;设计基于注意力的事实融合机制,融合双编码特征来提高模型在解码阶段对事实性信息的选择能力。实验结果表明:在LCSTS数据集上,所提模型相比于基线模型ERPG的R1值提升了2.0%,摘要质量得到明显提升。 展开更多
关键词 事实融合机制 三元组 事实一致性 TRANSFORMER 生成式文本摘要
在线阅读 下载PDF
基于序列到序列模型的生成式文本摘要研究综述 被引量:16
9
作者 石磊 阮选敏 +1 位作者 魏瑞斌 成颖 《情报学报》 CSSCI CSCD 北大核心 2019年第10期1102-1116,共15页
相较于早期的生成式摘要方法,基于序列到序列模型的文本摘要方法更接近人工摘要的生成过程,生成摘要的质量也有明显提高,越来越受到学界的关注。本文梳理了近年来基于序列到序列模型的生成式文本摘要的相关研究,根据模型的结构,分别综... 相较于早期的生成式摘要方法,基于序列到序列模型的文本摘要方法更接近人工摘要的生成过程,生成摘要的质量也有明显提高,越来越受到学界的关注。本文梳理了近年来基于序列到序列模型的生成式文本摘要的相关研究,根据模型的结构,分别综述了编码、解码、训练等方面的研究工作,并对这些工作进行了比较和讨论,在此基础上总结出该领域未来研究的若干技术路线和发展方向。 展开更多
关键词 生成式摘要 序列到序列模型 编码器-解码器模型 注意力机制 神经网络
在线阅读 下载PDF
基于审判逻辑步骤的裁判文书摘要生成方法 被引量:5
10
作者 余帅 宋玉梅 +2 位作者 秦永彬 黄瑞章 陈艳平 《计算机工程与应用》 CSCD 北大核心 2024年第4期113-121,共9页
面向裁判文书的司法摘要是提升裁判文书分析能力的关键技术。裁判文书作为审判活动的载体,精准地呈现了案件的审判逻辑,但目前针对裁判文书的摘要方法只关注裁判文书的序列化信息,忽视了裁判文书的逻辑结构,且不能有效解决文本过长、信... 面向裁判文书的司法摘要是提升裁判文书分析能力的关键技术。裁判文书作为审判活动的载体,精准地呈现了案件的审判逻辑,但目前针对裁判文书的摘要方法只关注裁判文书的序列化信息,忽视了裁判文书的逻辑结构,且不能有效解决文本过长、信息冗余等问题。提出基于审判逻辑步骤的裁判文书摘要生成方法,采取“抽取+生成”相结合的方式,在抽取部分利用多标签分类方法,依据人民法院审理案件的逻辑步骤抽取出“类型、诉请、事实、结果”四个句子集合,在生成部分由微调后的T5-PEGASUS模型得到摘要。利用基于内部知识的最大相似度匹配算法对“事实”部分的输入文本进行降噪处理,进一步改善了摘要效果。实验结果表明,相比于主流的指针生成网络模型,该方法在ROUGE-1、ROUGE-2和ROUGE-L的F1指标上分别提升了17.99个百分点、21.24个百分点、21.86个百分点,说明在司法摘要任务中引入逻辑结构能够提升性能。 展开更多
关键词 裁判文书 审判逻辑步骤 多标签分类 内部知识 生成式摘要
在线阅读 下载PDF
主题关键词信息融合的中文生成式自动摘要研究 被引量:30
11
作者 侯丽微 胡珀 曹雯琳 《自动化学报》 EI CSCD 北大核心 2019年第3期530-539,共10页
随着大数据和人工智能技术的迅猛发展,传统自动文摘研究正朝着从抽取式摘要到生成式摘要的方向演化,从中达到生成更高质量的自然流畅的文摘的目的.近年来,深度学习技术逐渐被应用于生成式摘要研究中,其中基于注意力机制的序列到序列模... 随着大数据和人工智能技术的迅猛发展,传统自动文摘研究正朝着从抽取式摘要到生成式摘要的方向演化,从中达到生成更高质量的自然流畅的文摘的目的.近年来,深度学习技术逐渐被应用于生成式摘要研究中,其中基于注意力机制的序列到序列模型已成为应用最广泛的模型之一,尤其在句子级摘要生成任务(如新闻标题生成、句子压缩等)中取得了显著的效果.然而,现有基于神经网络的生成式摘要模型绝大多数将注意力均匀分配到文本的所有内容中,而对其中蕴含的重要主题信息并没有细致区分.鉴于此,本文提出了一种新的融入主题关键词信息的多注意力序列到序列模型,通过联合注意力机制将文本中主题下重要的一些关键词语的信息与文本语义信息综合起来实现对摘要的引导生成.在NLPCC 2017的中文单文档摘要评测数据集上的实验结果验证了所提方法的有效性和先进性. 展开更多
关键词 联合注意力机制 序列到序列模型 生成式摘要 主题关键词
在线阅读 下载PDF
一种基于深度学习的中文生成式自动摘要方法 被引量:5
12
作者 李维勇 柳斌 +1 位作者 张伟 陈云芳 《广西师范大学学报(自然科学版)》 CAS 北大核心 2020年第2期51-63,共13页
针对中文的象形性和结构性特点,本文提出了一种新的生成式自动摘要解决方案,包括基于笔画的文本向量生成技术和一个生成式自动摘要模型。基于笔画的文本向量方法针对组成汉字的最小粒度笔画进行编码,增强了通过Skip-Gram模型得到对应的... 针对中文的象形性和结构性特点,本文提出了一种新的生成式自动摘要解决方案,包括基于笔画的文本向量生成技术和一个生成式自动摘要模型。基于笔画的文本向量方法针对组成汉字的最小粒度笔画进行编码,增强了通过Skip-Gram模型得到对应的中文词向量语义信息;然后通过对Seq2Seq模型进行优化,使用Bi-LSTM解决长序列文本信息丢失以及逆向信息的补充问题;并在编码端加入Attention机制以计算不同输入词对解码端的影响权重,在解码端加入Beam Search算法优化生成序列的流畅度。基于LCSTS数据集实验表明,本文提出的模型在中文文本摘要生成质量和可读性上有所提升。 展开更多
关键词 深度学习 生成式自动摘要 笔画向量 Seq2Seq 注意力机制
在线阅读 下载PDF
基于深度学习的自动文本摘要研究综述 被引量:1
13
作者 其其日力格 斯琴图 王斯日古楞 《计算机工程与应用》 北大核心 2025年第18期24-40,共17页
自动文本摘要技术是自然语言处理领域的重要研究方向,旨在实现信息的高效压缩与核心语义的保留。随着深度学习技术的快速发展,基于该技术的自动文本摘要方法逐渐成为主流。从抽取式与生成式两大技术路线出发,系统梳理了序列标注、图神... 自动文本摘要技术是自然语言处理领域的重要研究方向,旨在实现信息的高效压缩与核心语义的保留。随着深度学习技术的快速发展,基于该技术的自动文本摘要方法逐渐成为主流。从抽取式与生成式两大技术路线出发,系统梳理了序列标注、图神经网络、预训练语言模型、序列到序列模型和强化学习等技术在自动文本摘要中的应用,并分析了各类模型的优缺点;介绍了自动文本摘要领域常用的公开数据集、国内低资源语言数据集及评价指标。通过多维度实验对比分析总结了现有技术面临的问题,提出了相应的改进方案。最后,探讨了自动文本摘要的未来研究方向,为后续研究提供参考。 展开更多
关键词 自动文本摘要 深度学习 生成式摘要 抽取式摘要 自然语言处理
在线阅读 下载PDF
基于Graph Attention的双通道中文文本摘要生成
14
作者 曹渝昆 徐越 《计算机应用与软件》 北大核心 2024年第4期159-164,241,共7页
传统的中文生成式摘要方法未充分考虑中文文本字特征和词特征之间的不同含义,容易对原文内容的信息做出错误理解。提出一种基于Graph Attention的双通道中文文本摘要生成方法,采用双通道的编码器结构分别提取文本的字级和词级特征,并通... 传统的中文生成式摘要方法未充分考虑中文文本字特征和词特征之间的不同含义,容易对原文内容的信息做出错误理解。提出一种基于Graph Attention的双通道中文文本摘要生成方法,采用双通道的编码器结构分别提取文本的字级和词级特征,并通过Graph Attention提取文本对应的三元组集合特征,进行融合之后输入到带copy机制的解码端进行解码,从而提升原始文本的信息提取能力。对比实验结果表明,该方法在两个数据集上都有较好的表现。 展开更多
关键词 文本摘要 注意力机制 生成式摘要
在线阅读 下载PDF
基于语义对齐的生成式文本摘要研究 被引量:9
15
作者 吴世鑫 黄德根 李玖一 《北京大学学报(自然科学版)》 EI CAS CSCD 北大核心 2021年第1期1-6,共6页
针对当前生成式文本摘要模型在解码时对摘要整体语义信息利用不充分的问题,提出一种基于语义对齐的神经网络文本摘要方法。该方法以带注意力、Pointer机制和Coverage机制的Sequence-to-Sequence模型为基础,在编码器与解码器之间加入语... 针对当前生成式文本摘要模型在解码时对摘要整体语义信息利用不充分的问题,提出一种基于语义对齐的神经网络文本摘要方法。该方法以带注意力、Pointer机制和Coverage机制的Sequence-to-Sequence模型为基础,在编码器与解码器之间加入语义对齐网络,实现文本到摘要的语义信息对齐;将获得的摘要整体语义信息与解码器的词汇预测上下文向量进行拼接,使解码器在预测当前词汇时不仅利用已预测词汇序列的部分语义,而且考虑拟预测摘要的整体语义。在中文新闻语料LCSTS上的实验表明,该模型能够有效地提高文本摘要的质量,在字粒度上的实验显示,加入语义对齐机制可以使Rouge_L值提高5.4个百分点。 展开更多
关键词 生成式文本摘要 Sequence-to-Sequence模型 语义对齐网络
在线阅读 下载PDF
指针生成网络和覆盖损失优化的Transformer在生成式文本摘要领域的应用 被引量:4
16
作者 李想 王卫兵 尚学达 《计算机应用》 CSCD 北大核心 2021年第6期1647-1651,共5页
针对生成式文本摘要应用场景,提出了以Transformer为基础的摘要模型,并在Transformer模型中加入了指针生成(Pointer Generator)网络和覆盖损失(Coverage Loss)进行优化。首先,提出了基于Transformer模型作为基础结构的方法,利用其注意... 针对生成式文本摘要应用场景,提出了以Transformer为基础的摘要模型,并在Transformer模型中加入了指针生成(Pointer Generator)网络和覆盖损失(Coverage Loss)进行优化。首先,提出了基于Transformer模型作为基础结构的方法,利用其注意力机制更好地捕捉上下文的语意信息。然后,在模型的损失函数中引入Coverage Loss来惩罚不断出现的重复的词的分布和覆盖范围,从而解决Transformer模型中的注意力机制在生成式任务中出现不断生成同一个词的问题。最后,在模型中加入了Pointer Generator网络,从而允许模型从源文本中复制词用作生成词来解决词表无法覆盖(OOV)的问题。探索了改进后的模型是否减少了不准确的表达以及重复出现相同词的现象是否得以解决。该模型相较于原始的Transformer模型在ROUGE-1评测函数上得分提升了1.98个百分点、ROUGE-2评测函数上得分提升0.95个百分点,在ROUGE-L评测函数上得分提升了2.27个百分点,并提升了摘要结果的可读性及准确性。实验结果表明,Transformer在加入Coverage Loss和Pointer Generator网络后可应用于生成式文本摘要领域。 展开更多
关键词 生成式文本摘要 注意力机制 TRANSFORMER 覆盖损失 指针生成网络
在线阅读 下载PDF
基于深度学习的生成式文本摘要技术综述 被引量:25
17
作者 朱永清 赵鹏 +3 位作者 赵菲菲 慕晓冬 白坤 尤轩昂 《计算机工程》 CAS CSCD 北大核心 2021年第11期11-21,28,共12页
在互联网数据急剧扩张和深度学习技术高速发展的背景下,自动文本摘要任务作为自然语言处理领域的主要研究方向之一,其相关技术及应用被广泛研究。基于摘要任务深化研究需求,以研究过程中存在的关键问题为导向,介绍现有基于深度学习的生... 在互联网数据急剧扩张和深度学习技术高速发展的背景下,自动文本摘要任务作为自然语言处理领域的主要研究方向之一,其相关技术及应用被广泛研究。基于摘要任务深化研究需求,以研究过程中存在的关键问题为导向,介绍现有基于深度学习的生成式文本摘要模型,简述定义及来源、数据预处理及基本框架、常用数据集及评价标准等,指出发展优势和关键问题,并针对关键问题阐述对应的可行性解决方案。对比常用的深度预训练模型和创新方法融合模型,分析各模型的创新性和局限性,提出对部分局限性问题的解决思路。进一步地,对该技术领域的未来发展方向进行展望总结。 展开更多
关键词 深度学习 生成式文本摘要 未登录词 生成重复 长程依赖 评价标准
在线阅读 下载PDF
基于TRF-IM模型的个性化酒店评论摘要生成 被引量:2
18
作者 高玮军 朱婧 +1 位作者 赵华洋 李磊 《计算机工程与应用》 CSCD 北大核心 2023年第2期135-142,共8页
针对传统的酒店评论摘要生成模型在生成摘要过程中存在对评论的上下文理解不够充分、并行能力不足和长距离文本依赖缺陷的问题,提出了一种基于TRF-IM(improved mask for transformer)模型的个性化酒店评论摘要生成方法。该方法利用Trans... 针对传统的酒店评论摘要生成模型在生成摘要过程中存在对评论的上下文理解不够充分、并行能力不足和长距离文本依赖缺陷的问题,提出了一种基于TRF-IM(improved mask for transformer)模型的个性化酒店评论摘要生成方法。该方法利用Transformer译码器结构对评论摘要任务进行建模,通过改进其结构中的掩码方式,使得源评论内容都能够更好地学习到上下文语义信息;同时引入了用户类型的个性化词特征信息,使其生成高质量且满足用户需求的个性化酒店评论摘要。实验结果表明,该模型相比传统模型在ROUGE指标上取得了更高的分数,生成了高质量的个性化酒店评论摘要。 展开更多
关键词 个性化酒店评论 生成式摘要 TRANSFORMER 掩码方式 语言模型
在线阅读 下载PDF
基于BERT的语义增强中文文本自动摘要研究
19
作者 盖泽超 池越 周亚同 《中文信息学报》 北大核心 2025年第5期110-119,共10页
目前,基于BERT预训练的文本摘要模型效果良好。然而,预训练模型内部使用的自注意力机制倾向于关注文本中字与字之间的相关信息,对词信息关注度较低,并且在解码时存在语义理解不充分的情况。针对上述问题,该文提出了一种基于BERT的语义... 目前,基于BERT预训练的文本摘要模型效果良好。然而,预训练模型内部使用的自注意力机制倾向于关注文本中字与字之间的相关信息,对词信息关注度较低,并且在解码时存在语义理解不充分的情况。针对上述问题,该文提出了一种基于BERT的语义增强文本摘要模型CBSUM-Aux(Convolution and BERT Based Summarization Model with Auxiliary Information)。首先,使用窗口大小不同的卷积神经网络模块提取原文中的词特征信息,并与输入的字嵌入进行特征融合,之后通过预训练模型对融合特征进行深度特征挖掘。然后,在解码输出阶段,将卷积之后的词特征信息作为解码辅助信息输入解码器中指导模型解码。最后,针对束搜索算法倾向于输出短句的问题对其进行优化。该文使用LCSTS和CSTSD数据集对模型进行验证,实验结果表明,该文模型在ROUGE指标上有明显提升,生成的摘要与原文语义更加贴合。 展开更多
关键词 生成式文本摘要 预训练模型 自注意力机制 卷积神经网络 辅助信息
在线阅读 下载PDF
基于BERT-PGN模型的中文新闻文本自动摘要生成 被引量:15
20
作者 谭金源 刁宇峰 +1 位作者 祁瑞华 林鸿飞 《计算机应用》 CSCD 北大核心 2021年第1期127-132,共6页
针对文本自动摘要任务中生成式摘要模型对句子的上下文理解不够充分、生成内容重复的问题,基于BERT和指针生成网络(PGN),提出了一种面向中文新闻文本的生成式摘要模型——BERT-指针生成网络(BERTPGN)。首先,利用BERT预训练语言模型结合... 针对文本自动摘要任务中生成式摘要模型对句子的上下文理解不够充分、生成内容重复的问题,基于BERT和指针生成网络(PGN),提出了一种面向中文新闻文本的生成式摘要模型——BERT-指针生成网络(BERTPGN)。首先,利用BERT预训练语言模型结合多维语义特征获取词向量,从而得到更细粒度的文本上下文表示;然后,通过PGN模型,从词表或原文中抽取单词组成摘要;最后,结合coverage机制来减少重复内容的生成并获取最终的摘要结果。在2017年CCF国际自然语言处理与中文计算会议(NLPCC2017)单文档中文新闻摘要评测数据集上的实验结果表明,与PGN、伴随注意力机制的长短时记忆神经网络(LSTM-attention)等模型相比,结合多维语义特征的BERT-PGN模型对摘要原文的理解更加充分,生成的摘要内容更加丰富,全面且有效地减少重复、冗余内容的生成,Rouge-2和Rouge-4指标分别提升了1.5%和1.2%。 展开更多
关键词 生成式摘要模型 预训练语言模型 多维语义特征 指针生成网络 coverage机制
在线阅读 下载PDF
上一页 1 2 3 下一页 到第
使用帮助 返回顶部