期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
基于过滤注意力机制的生成式自动社交媒体文本摘要模型 被引量:2
1
作者 许天翼 颜兆萍 +1 位作者 朱恩耀 石进 《现代情报》 CSSCI 北大核心 2024年第12期40-51,共12页
[目的/意义]为了帮助用户在浩如烟海的社交媒体文本中快速获取所需信息,本研究创新地设计了一种基于过滤注意力机制的自动摘要生成模型Filter Unit Model(FUM)。[方法/过程]首先,采用微调BERT对于输入的社交媒体文本进行向量嵌入;其次,... [目的/意义]为了帮助用户在浩如烟海的社交媒体文本中快速获取所需信息,本研究创新地设计了一种基于过滤注意力机制的自动摘要生成模型Filter Unit Model(FUM)。[方法/过程]首先,采用微调BERT对于输入的社交媒体文本进行向量嵌入;其次,设计了过滤注意力机制来滤除嵌入社交媒体文本中的无用信息,基于字词层面和语句层面两种过滤注意力机制,旨在从不同角度对于嵌入向量进行过滤;最后,采用Transformer的解码器部分进行解码工作,并根据过滤注意力机制的不同设计相应的解码策略。[结果/结论]本研究在微博数据集上与摘要生成领域中经典、优秀的基线模型进行对比实验。实验结果表明,本研究所设计的FUM模型有着比其他基线方法更出色的表现。同时,基于语句层面的过滤注意力机制比基于字词层面的有更好的过滤效果。 展开更多
关键词 生成式摘要模型 社交媒体 过滤注意力机制
在线阅读 下载PDF
基于BERT-PGN模型的中文新闻文本自动摘要生成 被引量:15
2
作者 谭金源 刁宇峰 +1 位作者 祁瑞华 林鸿飞 《计算机应用》 CSCD 北大核心 2021年第1期127-132,共6页
针对文本自动摘要任务中生成式摘要模型对句子的上下文理解不够充分、生成内容重复的问题,基于BERT和指针生成网络(PGN),提出了一种面向中文新闻文本的生成式摘要模型——BERT-指针生成网络(BERTPGN)。首先,利用BERT预训练语言模型结合... 针对文本自动摘要任务中生成式摘要模型对句子的上下文理解不够充分、生成内容重复的问题,基于BERT和指针生成网络(PGN),提出了一种面向中文新闻文本的生成式摘要模型——BERT-指针生成网络(BERTPGN)。首先,利用BERT预训练语言模型结合多维语义特征获取词向量,从而得到更细粒度的文本上下文表示;然后,通过PGN模型,从词表或原文中抽取单词组成摘要;最后,结合coverage机制来减少重复内容的生成并获取最终的摘要结果。在2017年CCF国际自然语言处理与中文计算会议(NLPCC2017)单文档中文新闻摘要评测数据集上的实验结果表明,与PGN、伴随注意力机制的长短时记忆神经网络(LSTM-attention)等模型相比,结合多维语义特征的BERT-PGN模型对摘要原文的理解更加充分,生成的摘要内容更加丰富,全面且有效地减少重复、冗余内容的生成,Rouge-2和Rouge-4指标分别提升了1.5%和1.2%。 展开更多
关键词 生成式摘要模型 预训练语言模型 多维语义特征 指针生成网络 coverage机制
在线阅读 下载PDF
基于优势演员-评论家算法的强化自动摘要模型 被引量:7
3
作者 杜嘻嘻 程华 房一泉 《计算机应用》 CSCD 北大核心 2021年第3期699-705,共7页
针对长文本自动摘要任务中抽取式模型摘要较为冗余,而生成式摘要模型时常有关键信息丢失、摘要不准确和生成内容重复等问题,提出一种面向长文本的基于优势演员-评论家算法的强化自动摘要模型(A2C-RLAS)。首先,用基于卷积神经网络(CNN)... 针对长文本自动摘要任务中抽取式模型摘要较为冗余,而生成式摘要模型时常有关键信息丢失、摘要不准确和生成内容重复等问题,提出一种面向长文本的基于优势演员-评论家算法的强化自动摘要模型(A2C-RLAS)。首先,用基于卷积神经网络(CNN)和循环神经网络(RNN)的混合神经网络的抽取器(extractor)来提取原文关键句;然后,用基于拷贝机制和注意力机制的重写器(rewriter)来精炼关键句;最后,使用强化学习的优势演员-评论家(A2C)算法训练整个网络,把重写摘要和参考摘要的语义相似性(BERTScore值)作为奖励(reward)来指导抽取过程,从而提高抽取器提取句子的质量。在CNN/Daily Mail数据集上的实验结果表明,与基于强化学习的抽取式摘要(Refresh)模型、基于循环神经网络的抽取式摘要序列模型(SummaRuNNer)和分布语义奖励(DSR)模型等模型相比,A2C-RLAS的最终摘要内容更加准确、语言更加流畅,冗余的内容有效减少,且A2C-RLAS的ROUGE和BERTScore指标均有提升。相较于Refresh模型和SummaRuNNer模型,A2C-RLAS模型的ROUGE-L值分别提高了6.3%和10.2%;相较于DSR模型,A2C-RLAS模型的F1值提高了30.5%。 展开更多
关键词 自动摘要模型 抽取式摘要模型 生成式摘要模型 编码器-解码器 强化学习 优势演员-评论家算法
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部