期刊导航
期刊开放获取
上海教育软件发展有限公..
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
3
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
融合关键信息的PGN文本主题句生成方法
被引量:
2
1
作者
葛斌
何春辉
黄宏斌
《计算机工程与设计》
北大核心
2022年第6期1601-1608,共8页
针对现有模型无法充分理解上下文和同时解决不同类型文本主题句自动生成以及生成重复内容的难题,对一种融合关键信息的PGN文本主题句生成方法进行研究。融合句子情感倾向加权特征和TextRank迭代算法筛选关键句;根据不同文本类型进行参...
针对现有模型无法充分理解上下文和同时解决不同类型文本主题句自动生成以及生成重复内容的难题,对一种融合关键信息的PGN文本主题句生成方法进行研究。融合句子情感倾向加权特征和TextRank迭代算法筛选关键句;根据不同文本类型进行参数自动配置,利用BERT预训练语言模型对获取的关键句进行向量化表征并输入到融合coverage复制机制的指针生成网络模型中生成主题句;采用后处理技术对生成的主题句内容和长度进行检测与修正得到最终主题句。在公开数据集LCSTS上的实验结果表明,所提模型可以更充分地理解原文并有效减少重复内容的生成,它的Rouge-1和Rouge-L值均高于基线模型。
展开更多
关键词
信息抽取
主题句生成
指针生成网络
迭代算法
复制机制
深度学习
后处理技术
在线阅读
下载PDF
职称材料
基于BERT-PGN模型的中文新闻文本自动摘要生成
被引量:
15
2
作者
谭金源
刁宇峰
+1 位作者
祁瑞华
林鸿飞
《计算机应用》
CSCD
北大核心
2021年第1期127-132,共6页
针对文本自动摘要任务中生成式摘要模型对句子的上下文理解不够充分、生成内容重复的问题,基于BERT和指针生成网络(PGN),提出了一种面向中文新闻文本的生成式摘要模型——BERT-指针生成网络(BERTPGN)。首先,利用BERT预训练语言模型结合...
针对文本自动摘要任务中生成式摘要模型对句子的上下文理解不够充分、生成内容重复的问题,基于BERT和指针生成网络(PGN),提出了一种面向中文新闻文本的生成式摘要模型——BERT-指针生成网络(BERTPGN)。首先,利用BERT预训练语言模型结合多维语义特征获取词向量,从而得到更细粒度的文本上下文表示;然后,通过PGN模型,从词表或原文中抽取单词组成摘要;最后,结合coverage机制来减少重复内容的生成并获取最终的摘要结果。在2017年CCF国际自然语言处理与中文计算会议(NLPCC2017)单文档中文新闻摘要评测数据集上的实验结果表明,与PGN、伴随注意力机制的长短时记忆神经网络(LSTM-attention)等模型相比,结合多维语义特征的BERT-PGN模型对摘要原文的理解更加充分,生成的摘要内容更加丰富,全面且有效地减少重复、冗余内容的生成,Rouge-2和Rouge-4指标分别提升了1.5%和1.2%。
展开更多
关键词
生成式摘要模型
预训练语言模型
多维语义特征
指针生成网络
coverage机制
在线阅读
下载PDF
职称材料
融合预训练和注意力增强的中文自动摘要研究
被引量:
2
3
作者
李旭军
王珺
余孟
《计算机工程与应用》
CSCD
北大核心
2023年第14期134-141,共8页
通过对源文本信息压缩来提炼文本核心内容。目前,大多数生成式自动摘要任务采用基于注意力机制的序列到序列模型,但该模型解码预测生成的摘要具有语义准确率低且内容重复率高的问题。针对上述问题,提出了一种融合预训练和注意力增强的...
通过对源文本信息压缩来提炼文本核心内容。目前,大多数生成式自动摘要任务采用基于注意力机制的序列到序列模型,但该模型解码预测生成的摘要具有语义准确率低且内容重复率高的问题。针对上述问题,提出了一种融合预训练和注意力增强的自动摘要生成方法来提高生成摘要的质量。该模型以带覆盖机制的指针生成网络(pointer generator network,PGN)模型为基础,利用Transformer模型的编码器预训练文本获得具有语义联系的词向量;在序列到序列模型的解码器中,通过注意力增强机制让解码端的当前时刻注意力分布参考历史时刻注意力分布信息;优化束搜索算法抑制解码端输出短句。实验评价指标采用ROUGE值。在公共中文数据集NLPCC2018和LCSTS上的实验结果表明,与伴随覆盖机制的PGN模型训练结果相比,ROUGE-1、ROUGE-2和ROUGE-L指标均得到了提高,验证了所提方法的先进性和有效性。
展开更多
关键词
生成式摘要
指针生成网络(
pgn
)
预训练
注意力增强机制
在线阅读
下载PDF
职称材料
题名
融合关键信息的PGN文本主题句生成方法
被引量:
2
1
作者
葛斌
何春辉
黄宏斌
机构
国防科技大学信息系统工程重点实验室
湖南艾珂人力资源服务有限公司研发部
出处
《计算机工程与设计》
北大核心
2022年第6期1601-1608,共8页
基金
国家自然科学基金项目(71971212、61902417)。
文摘
针对现有模型无法充分理解上下文和同时解决不同类型文本主题句自动生成以及生成重复内容的难题,对一种融合关键信息的PGN文本主题句生成方法进行研究。融合句子情感倾向加权特征和TextRank迭代算法筛选关键句;根据不同文本类型进行参数自动配置,利用BERT预训练语言模型对获取的关键句进行向量化表征并输入到融合coverage复制机制的指针生成网络模型中生成主题句;采用后处理技术对生成的主题句内容和长度进行检测与修正得到最终主题句。在公开数据集LCSTS上的实验结果表明,所提模型可以更充分地理解原文并有效减少重复内容的生成,它的Rouge-1和Rouge-L值均高于基线模型。
关键词
信息抽取
主题句生成
指针生成网络
迭代算法
复制机制
深度学习
后处理技术
Keywords
information extraction
topic sentence generator(TSG)
pointer
generation
network
(
pgn
)
iterative algorithm
copy mechanism
deep learning
post-processing technology
分类号
TP391 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
基于BERT-PGN模型的中文新闻文本自动摘要生成
被引量:
15
2
作者
谭金源
刁宇峰
祁瑞华
林鸿飞
机构
大连理工大学计算机科学与技术学院
大连外国语大学语言智能研究中心
出处
《计算机应用》
CSCD
北大核心
2021年第1期127-132,共6页
基金
国家重点研发计划项目(2019YFC1200302)
国家自然科学基金重点项目(61632011)。
文摘
针对文本自动摘要任务中生成式摘要模型对句子的上下文理解不够充分、生成内容重复的问题,基于BERT和指针生成网络(PGN),提出了一种面向中文新闻文本的生成式摘要模型——BERT-指针生成网络(BERTPGN)。首先,利用BERT预训练语言模型结合多维语义特征获取词向量,从而得到更细粒度的文本上下文表示;然后,通过PGN模型,从词表或原文中抽取单词组成摘要;最后,结合coverage机制来减少重复内容的生成并获取最终的摘要结果。在2017年CCF国际自然语言处理与中文计算会议(NLPCC2017)单文档中文新闻摘要评测数据集上的实验结果表明,与PGN、伴随注意力机制的长短时记忆神经网络(LSTM-attention)等模型相比,结合多维语义特征的BERT-PGN模型对摘要原文的理解更加充分,生成的摘要内容更加丰富,全面且有效地减少重复、冗余内容的生成,Rouge-2和Rouge-4指标分别提升了1.5%和1.2%。
关键词
生成式摘要模型
预训练语言模型
多维语义特征
指针生成网络
coverage机制
Keywords
abstractive summarization model
pre-trained language model
multi-dimensional semantic feature
pointer
Generator
network
(
pgn
)
coverage mechanism
分类号
TP391.1 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
融合预训练和注意力增强的中文自动摘要研究
被引量:
2
3
作者
李旭军
王珺
余孟
机构
湘潭大学物理与光电工程学院
出处
《计算机工程与应用》
CSCD
北大核心
2023年第14期134-141,共8页
基金
国家社会科学基金重大项目(21&ZD298)。
文摘
通过对源文本信息压缩来提炼文本核心内容。目前,大多数生成式自动摘要任务采用基于注意力机制的序列到序列模型,但该模型解码预测生成的摘要具有语义准确率低且内容重复率高的问题。针对上述问题,提出了一种融合预训练和注意力增强的自动摘要生成方法来提高生成摘要的质量。该模型以带覆盖机制的指针生成网络(pointer generator network,PGN)模型为基础,利用Transformer模型的编码器预训练文本获得具有语义联系的词向量;在序列到序列模型的解码器中,通过注意力增强机制让解码端的当前时刻注意力分布参考历史时刻注意力分布信息;优化束搜索算法抑制解码端输出短句。实验评价指标采用ROUGE值。在公共中文数据集NLPCC2018和LCSTS上的实验结果表明,与伴随覆盖机制的PGN模型训练结果相比,ROUGE-1、ROUGE-2和ROUGE-L指标均得到了提高,验证了所提方法的先进性和有效性。
关键词
生成式摘要
指针生成网络(
pgn
)
预训练
注意力增强机制
Keywords
abstractive summarization
pointer
generator
network
(
pgn
)
pre-trained
attention enhancement mechanism
分类号
TP391.1 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
融合关键信息的PGN文本主题句生成方法
葛斌
何春辉
黄宏斌
《计算机工程与设计》
北大核心
2022
2
在线阅读
下载PDF
职称材料
2
基于BERT-PGN模型的中文新闻文本自动摘要生成
谭金源
刁宇峰
祁瑞华
林鸿飞
《计算机应用》
CSCD
北大核心
2021
15
在线阅读
下载PDF
职称材料
3
融合预训练和注意力增强的中文自动摘要研究
李旭军
王珺
余孟
《计算机工程与应用》
CSCD
北大核心
2023
2
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部