期刊文献+
共找到151篇文章
< 1 2 8 >
每页显示 20 50 100
基于TextRank和自注意力的长文档无监督抽取式摘要
1
作者 邢玲 程兵 闫强 《计算机应用与软件》 北大核心 2025年第3期274-283,共10页
针对中文长文档自动文本摘要问题,提出将TextRank与自注意力相融合的两种模型:TRAI和TRAO。TRAI将基于统计共现字数得到的句子相似性同基于自注意力得到的句子相关性进行加权求和,作为TextRank边的权重参与迭代计算,对句子进行打分。TRA... 针对中文长文档自动文本摘要问题,提出将TextRank与自注意力相融合的两种模型:TRAI和TRAO。TRAI将基于统计共现字数得到的句子相似性同基于自注意力得到的句子相关性进行加权求和,作为TextRank边的权重参与迭代计算,对句子进行打分。TRAO利用TextRank对句子打分;利用自注意力重新表示每个句子融合整个文档信息的分布式向量,在此基础上计算句子间余弦相似度,作为TextRank边的权重参与迭代计算,给句子打分;将两种得分加权求和作为句子最终得分。两种模型均根据得分对句子进行排序得到候选摘要。为去除摘要冗余性,利用最大边界相关法(Maximal Marginal Relevance,MMR)在候选摘要中选取摘要句子。将提出的两种模型在构建的长文档上进行实验,与TextRank方法相比,所提方法在ROUGE评价指标上有显著提高。 展开更多
关键词 中文长文本摘要 textRank 自注意力机制 分布式向量表示 语义信息 融合文档信息
在线阅读 下载PDF
结合对比学习和双流网络融合知识图谱摘要模型
2
作者 赵霞 王钊 《计算机应用研究》 北大核心 2025年第3期720-727,共8页
提出了一种融合对比学习与双流网络的新型知识图谱摘要模型(KGDR-CLSUM),旨在解决现有模型在生成摘要时存在的事实性错误和信息提取不足的问题。该模型通过设计双流网络同时处理文本特征和知识图谱特征,并采用对比学习来强化这两类特征... 提出了一种融合对比学习与双流网络的新型知识图谱摘要模型(KGDR-CLSUM),旨在解决现有模型在生成摘要时存在的事实性错误和信息提取不足的问题。该模型通过设计双流网络同时处理文本特征和知识图谱特征,并采用对比学习来强化这两类特征的有效融合。此外,引入动量蒸馏策略以降低知识图谱中的数据噪声,从而提升摘要生成的质量和准确性。在CNN/Daily Mail数据集上,KGDR-CLSUM相较于基线模型PEGASUS BASE,在ROUGE-1、ROUGE-2和ROUGE-L指标上分别提升了3.03%、3.42%和2.56%,在XSum数据集上更是达到了7.54%、8.78%和8.51%的显著提升。此外,人工评分显著高于ChatGPT,进一步证明了该模型的优越性能。结果表明,KGDR-CLSUM在生成摘要时,尤其在短文本生成任务中,能够有效降低错误信息,并显著提高摘要的质量。 展开更多
关键词 文本摘要 知识图谱 动量蒸馏 对比学习 双流网络
在线阅读 下载PDF
基于去噪图自编码器的无监督社交媒体文本摘要
3
作者 贺瑞芳 赵堂龙 刘焕宇 《软件学报》 北大核心 2025年第5期2130-2150,共21页
社交媒体文本摘要旨在为面向特定话题的大规模社交媒体短文本(称为帖子)产生简明扼要的摘要描述.考虑帖子表达内容短小、非正式等特点,传统方法面临特征稀疏与信息不足的挑战.近期研究利用帖子间的社交关系学习更好的帖子表示并去除冗... 社交媒体文本摘要旨在为面向特定话题的大规模社交媒体短文本(称为帖子)产生简明扼要的摘要描述.考虑帖子表达内容短小、非正式等特点,传统方法面临特征稀疏与信息不足的挑战.近期研究利用帖子间的社交关系学习更好的帖子表示并去除冗余信息,但其忽略了真实社交媒体情景中存在的不可靠噪声关系,使得模型会误导帖子的重要性与多样性判断.因此,提出一种无监督模型DSNSum,其通过去除社交网络中的噪声关系来改善摘要性能.首先,对真实社交关系网络中的噪声关系进行了统计验证;其次,根据社会学理论设计两个噪声函数,并构建一种去噪图自编码器(denoising graph auto-encoder,DGAE),以降低噪声关系的影响,并学习融合可信社交关系的帖子表示;最终,通过稀疏重构框架选择保持覆盖性、重要性及多样性的帖子构成一定长度的摘要.在两个真实社交媒体(Twitter与新浪微博)共计22个话题上的实验结果证明了所提模型的有效性,也为后续相关领域的研究提供了新的思路. 展开更多
关键词 社交媒体文本摘要 图表示学习 图神经网络 去噪自编码器
在线阅读 下载PDF
基于改进的TextRank的自动摘要提取方法 被引量:43
4
作者 余珊珊 苏锦钿 李鹏飞 《计算机科学》 CSCD 北大核心 2016年第6期240-247,共8页
经典的TextRank算法在文档的自动摘要提取时往往只考虑了句子节点间的相似性,而忽略了文档的篇章结构及句子的上下文信息。针对这些问题,结合中文文本的结构特点,提出一种改进后的iTextRank算法,通过将标题、段落、特殊句子、句子位置... 经典的TextRank算法在文档的自动摘要提取时往往只考虑了句子节点间的相似性,而忽略了文档的篇章结构及句子的上下文信息。针对这些问题,结合中文文本的结构特点,提出一种改进后的iTextRank算法,通过将标题、段落、特殊句子、句子位置和长度等信息引入到TextRank网络图的构造中,给出改进后的句子相似度计算方法及权重调整因子,并将其应用于中文文本的自动摘要提取,同时分析了算法的时间复杂度。最后,实验证明iTextRank比经典的TextRank方法具有更高的准确率和更低的召回率。 展开更多
关键词 中文文本 自动摘要提取 textRank 篇章结构 无监督学习方法
在线阅读 下载PDF
基于加权TextRank的中文自动文本摘要 被引量:21
5
作者 黄波 刘传才 《计算机应用研究》 CSCD 北大核心 2020年第2期407-410,共4页
现有中文自动文本摘要方法主要是利用文本自身信息,其缺陷是不能充分利用词语之间的语义相关等信息。鉴于此,提出了一种改进的中文文本摘要方法。此方法将外部语料库信息用词向量的形式融入到TextRank算法中,通过TextRank与word2vec的结... 现有中文自动文本摘要方法主要是利用文本自身信息,其缺陷是不能充分利用词语之间的语义相关等信息。鉴于此,提出了一种改进的中文文本摘要方法。此方法将外部语料库信息用词向量的形式融入到TextRank算法中,通过TextRank与word2vec的结合,把句子中每个词语映射到高维词库形成句向量。充分考虑了句子之间的相似度、关键词的覆盖率和句子与标题的相似度等因素,以此计算句子之间的影响权重,并选取排序最靠前的句子重新排序作为文本的摘要。实验结果表明,此方法在本数据集中取得了较好的效果,自动提取中文摘要的效果比原方法好。 展开更多
关键词 文本摘要 textRank 词向量 句子相似度
在线阅读 下载PDF
融合RNN与稀疏自注意力的文本摘要方法 被引量:1
6
作者 刘钟 唐宏 +1 位作者 王宁喆 朱传润 《计算机工程》 北大核心 2025年第1期312-320,共9页
随着深度学习的高速发展,基于序列到序列(Seq2Seq)架构的文本摘要方法成为研究焦点,但现有大多数文本摘要模型受限于长期依赖,忽略了注意力机制复杂度以及词序信息对文本摘要生成的影响,生成的摘要丢失关键信息,偏离原文内容与意图,影... 随着深度学习的高速发展,基于序列到序列(Seq2Seq)架构的文本摘要方法成为研究焦点,但现有大多数文本摘要模型受限于长期依赖,忽略了注意力机制复杂度以及词序信息对文本摘要生成的影响,生成的摘要丢失关键信息,偏离原文内容与意图,影响用户体验。为了解决上述问题,提出一种基于Transformer改进的融合递归神经网络(RNN)与稀疏自注意力的文本摘要方法。首先采用窗口RNN模块,将输入文本按窗口划分,每个RNN对窗口内词序信息进行压缩,并通过窗口级别的表示整合为整个文本的表示,进而增强模型捕获局部依赖的能力;其次采用基于递归循环机制的缓存模块,循环缓存上一文本片段的信息到当前片段,允许模型更好地捕获长期依赖和全局信息;最后采用稀疏自注意力模块,通过块稀疏矩阵对注意力矩阵按块划分,关注并筛选出重要令牌对,而不是在所有令牌对上平均分配注意力,从而降低注意力的时间复杂度,提高长文本摘要任务的效率。实验结果表明,该方法在数据集text8、enwik8上的BPC分数相比于LoBART模型降低了0.02,在数据集wikitext-103以及ptb上的PPL分数相比于LoBART模型分别降低了1.0以上,验证了该方法的可行性与有效性。 展开更多
关键词 序列到序列架构 文本摘要 Transformer模型 递归神经网络 递归循环机制 稀疏自注意力机制
在线阅读 下载PDF
PLSGA:阶段式长文本摘要生成方法
7
作者 方缙 李宝安 +1 位作者 游新冬 吕学强 《计算机工程与应用》 北大核心 2025年第2期170-178,共9页
针对现有方法在处理长文本时,存在冗余信息处理困难和无法筛选出最高质量摘要的问题,提出了一种阶段式长文本摘要生成方法(PLSGA)。将样本数据的文本和参考摘要分割,利用Sentence-BERT获取语义向量并进行相似度比对,从中抽取文本的关键... 针对现有方法在处理长文本时,存在冗余信息处理困难和无法筛选出最高质量摘要的问题,提出了一种阶段式长文本摘要生成方法(PLSGA)。将样本数据的文本和参考摘要分割,利用Sentence-BERT获取语义向量并进行相似度比对,从中抽取文本的关键信息;通过关键信息和非关键信息训练抽取模型,以尽可能地保留原文本的语义信息;将抽取的关键信息和参考摘要作为样本输入骨干模型BART进行生成模型训练;通过生成模型生成多条候选摘要,并使用无参考摘要评分模型筛选出质量最好的摘要。提出的阶段式长文本摘要生成方法在多个中文长文本数据集上进行实验,结果表明相对于目前主流的方法以及ChatGPT,其效果均有提升,具有领域优势,生成的摘要质量更好,更具可读性。 展开更多
关键词 文本摘要 Sentence-BERT 关键信息 BART 无参考摘要评分模型
在线阅读 下载PDF
结合知识蒸馏的中文文本摘要生成方法
8
作者 崔健 汪永伟 +3 位作者 李飞扬 李强 苏北荣 张小健 《计算机科学与探索》 北大核心 2025年第7期1899-1908,共10页
生成是自然语言处理领域的主要研究方向之一。针对当前中文摘要模型语义提取能力弱、大模型生成质量不稳定、部署资源要求高等问题,提出了结合知识蒸馏的中文文本摘要生成方法。采取多线程调用大模型接口的方式对训练数据进行增强,引入... 生成是自然语言处理领域的主要研究方向之一。针对当前中文摘要模型语义提取能力弱、大模型生成质量不稳定、部署资源要求高等问题,提出了结合知识蒸馏的中文文本摘要生成方法。采取多线程调用大模型接口的方式对训练数据进行增强,引入提示工程,对齐摘要质量并生成参考标签;利用蒸馏技术在知识迁移方面的优势,采取离线知识蒸馏方法,将大模型输出作为知识传授给学生网络,提升学生网络摘要准确性和可读性,同时降低训练成本和资源消耗;对学生网络进行改进,使用复制机制缓解未登录词问题,并对输出结果进行双向相似度计算以优化损失函数,进一步提升模型稳定性。在NLPCC2017数据集上的实验表明,所提方法在ROUGE评价指标上的综合性能优于现有主流的摘要生成方法。在摘要生成质量方面,提出的方法在中文摘要过程中提高了准确率,提升了流畅度;在模型部署要求方面,所提方法具备较小参数量,能够满足轻量级低开销离线部署。 展开更多
关键词 文本摘要 知识蒸馏 提示工程 大语言模型
在线阅读 下载PDF
基于强化语言关联的中缅越跨语言摘要研究
9
作者 何志磊 高盛祥 +1 位作者 朱恩昌 余正涛 《计算机工程》 北大核心 2025年第8期160-167,共8页
跨语言摘要(CLS)旨在用目标语言(如中文)的文本对源语言(如缅甸语)的文本核心内容进行概括和总结。CLS实质上是机器翻译(MT)和单语摘要(MS)的联合任务,需要模型同时具备这两方面的能力。在面向越南语、缅甸语等低资源语言场景时,CLS训... 跨语言摘要(CLS)旨在用目标语言(如中文)的文本对源语言(如缅甸语)的文本核心内容进行概括和总结。CLS实质上是机器翻译(MT)和单语摘要(MS)的联合任务,需要模型同时具备这两方面的能力。在面向越南语、缅甸语等低资源语言场景时,CLS训练数据稀缺,且中文与缅甸语、越南语属于不同的语系,语言差异较大,导致当前的CLS方法泛化性较差。为此,以缅-中、越-中为研究对象,提出一种语言关系增强的CLS方法。首先将输入序列转化为连续词对;然后计算源语言和目标语言之间的连续词对之间的关系;最后引入MT和MS的联合训练方法,有效地捕捉目标语言和源语言之间的关系,提高模型的泛化性和对连续文本的处理能力。在自建数据集上进行实验,结果表明,相较其他基线模型,该方法在ROUGE-1、ROUGE-2和ROUGE-L评价指标上分别提升了5、1、4百分点。 展开更多
关键词 跨语言摘要 低资源语言 语言差异 连续文本 泛化性
在线阅读 下载PDF
面向可溯源文本生成的科技文献伪反馈训练数据合成研究
10
作者 马永强 刘家伟 高影繁 《情报学报》 北大核心 2025年第7期830-845,共16页
在学术文本中插入恰当的引文标识是学术写作的基本规范,可以帮助读者验证文本内容的真实性。引文标识符可以用于实现内容溯源、保证内容可验证性。在学术场景中,现有大语言模型普遍缺乏内置的内容溯源机制,导致所生成学术文本的可验证... 在学术文本中插入恰当的引文标识是学术写作的基本规范,可以帮助读者验证文本内容的真实性。引文标识符可以用于实现内容溯源、保证内容可验证性。在学术场景中,现有大语言模型普遍缺乏内置的内容溯源机制,导致所生成学术文本的可验证性不足。当前,借助领域数据集来优化大模型是主流的研究思路。然而,在优化模型可溯源性方面,基于人类撰写的学术文本所构建的训练集存在内在一致性不足、引文标注行为差异性大等问题,基于大模型的数据合成方法在数据多样性方面也存在局限性。为此,本文提出了一种面向可溯源学术文本的引文标识符体系与评测方法,用于分析大模型所生成学术文本的可溯源性。然后,从训练数据的角度,针对可溯源的学术文本生成,本文提出了一种两阶段伪反馈训练数据合成方法,兼顾大模型标注文本和人类标注文本的特性,构建高质量、多样化的训练数据。研究结果表明,采用本文构建的合成数据训练的小模型,能够生成更具可溯源性的学术文本;通过第二阶段的伪反馈进一步优化数据分布和任务多样性,有助于增强模型的泛化能力。 展开更多
关键词 大语言模型 数据合成 学术多文档摘要 文本可溯源性
在线阅读 下载PDF
不同基本单元信息融合的藏文短文本摘要生成
11
作者 夏吾吉 黄鹤鸣 +2 位作者 樊永红 更藏措毛 范玉涛 《计算机工程》 北大核心 2025年第6期174-183,共10页
藏文文本摘要能使用户快速有效地理解藏文文本内容。然而,公开的、多领域的大规模藏文摘要数据集的稀缺,使得藏文文本摘要生成的发展面临挑战;此外,藏文文本摘要生成研究借用中文和英文等以词作为基本单元的文本摘要生成技术构建模型,... 藏文文本摘要能使用户快速有效地理解藏文文本内容。然而,公开的、多领域的大规模藏文摘要数据集的稀缺,使得藏文文本摘要生成的发展面临挑战;此外,藏文文本摘要生成研究借用中文和英文等以词作为基本单元的文本摘要生成技术构建模型,但由于藏文受分词技术的限制,直接以词作为文本摘要生成的基本单元,对性能的影响较大。针对上述问题,构建包含10523条文本-摘要对的多领域藏文短文本摘要数据集TB-SUM,在研究藏文文本构成单元的基础上,提出适用于藏文文本摘要生成的不同基本单元融合方法,并构建融合不同基本单元的藏文文本摘要生成模型Fusion_GloVe_GRU_Atten,利用全局词向量表示(GloVe)模块实现藏文文本向量化后通过双向门控循环单元(Bi-GRU)模块对输入向量进行编码,利用注意力机制获取输入向量的完整语义信息,使解码器更加关注与当前单词相关的编码器输出,同时将GRU作为解码器生成藏文摘要。在数据集TB-SUM和Ti-SUM上的实验结果表明,以音节和词的融合作为模型训练的基本单元,以音节作为测试的基本单元时,Fusion_GloVe_GRU_Atten模型生成短文本摘要效果更好,能得到更高的ROUGE(Recall-Oriented Understudy for Gisting Evaluation)分数。 展开更多
关键词 基本单元 信息融合 词向量 数据集构建 藏文短文本摘要生成
在线阅读 下载PDF
适用于多领域少样本的元适配器整合学习方法
12
作者 于信 马廷淮 +2 位作者 彭可兴 贾莉 蒋永溢 《计算机工程与应用》 北大核心 2025年第5期122-133,共12页
针对多域少样本文本摘要任务中迁移学习面临的诸多挑战,尤其是源域数据的多样性以及目标域数据的数据稀缺性问题,提出了一种创新的学习方法,名为元适配器整合学习方法(meta-adapter integration learning,MAIL)。MAIL使用基于Transforme... 针对多域少样本文本摘要任务中迁移学习面临的诸多挑战,尤其是源域数据的多样性以及目标域数据的数据稀缺性问题,提出了一种创新的学习方法,名为元适配器整合学习方法(meta-adapter integration learning,MAIL)。MAIL使用基于Transformer的预训练模型作为基础模型,融合适配器模块限制模型参数及层数,并采用元学习方法微调适配器。此外,为了增强在不同领域间的迁移和泛化能力,设计了一种元适配器整合算法,旨在最大化利用多域信息,增强模型跨领域泛化能力。实验结果显示,MAIL在标准文本生成评价指标上超越现有主流模型,并能有效应对跨领域迁移中常见的灾难性遗忘、任务干扰和训练不稳定等问题。 展开更多
关键词 文本摘要生成 少样本学习 迁移学习 预训练模型 适配器 元学习
在线阅读 下载PDF
中文大模型生成式摘要能力评估
13
作者 王俊超 樊可汗 霍智恒 《中文信息学报》 北大核心 2025年第1期1-15,共15页
从传统的纸带机到当今大语言模型时代,自动文本摘要技术发展经历了多次质的飞跃并不断提升。但在中文摘要方面,由于其语言特点及叙述方式,机器生成的摘要难以与人工撰写的相媲美。如今,众多国产开源大模型均加强了对中文语料的训练并展... 从传统的纸带机到当今大语言模型时代,自动文本摘要技术发展经历了多次质的飞跃并不断提升。但在中文摘要方面,由于其语言特点及叙述方式,机器生成的摘要难以与人工撰写的相媲美。如今,众多国产开源大模型均加强了对中文语料的训练并展示出较为优秀的成果。为了评估这些开源大模型在中文摘要任务上的实际表现,该文筛选ChatGLM2-6B、Baichuan2-7B和InternLM-7B等中文大模型作为研究对象,在中文摘要数据集上采用不同提示词生成零样本和少样本摘要,通过自动评估和人工比对的方法详细分析了它们在自动文本摘要任务上的表现及其不足之处。评估结果表明,ChatGLM2-6B和Baichuan2-7B通过零样本的方法通常能够总结出语句通顺叙述详尽的摘要,但在凝练程度上仍有不足;而少样本的方法可以使大模型生成更为精炼的摘要,但对重点信息的把握程度明显下降。此外,大模型也存在陷入重复、出现幻觉、与事实矛盾等问题。 展开更多
关键词 自动文本摘要 大语言模型 能力评估
在线阅读 下载PDF
融合引导注意力的中文长文本摘要生成
14
作者 郭哲 张智博 +2 位作者 周炜杰 樊养余 张艳宁 《电子学报》 CSCD 北大核心 2024年第12期3914-3930,共17页
当前基于深度学习的中文长文本摘要生成的研究存在以下问题:(1)生成模型缺少信息引导,缺乏对关键词汇和语句的关注,存在长文本跨度下关键信息丢失的问题;(2)现有中文长文本摘要模型的词表常以字为基础,并不包含中文常用词语与标点,不利... 当前基于深度学习的中文长文本摘要生成的研究存在以下问题:(1)生成模型缺少信息引导,缺乏对关键词汇和语句的关注,存在长文本跨度下关键信息丢失的问题;(2)现有中文长文本摘要模型的词表常以字为基础,并不包含中文常用词语与标点,不利于提取多粒度的语义信息.针对上述问题,本文提出了融合引导注意力的中文长文本摘要生成(Chinese Long text Summarization with Guided Attention,CLSGA)方法.首先,针对中文长文本摘要生成任务,利用抽取模型灵活抽取长文本中的核心词汇和语句,构建引导文本,用以指导生成模型在编码过程中将注意力集中于更重要的信息.其次,设计中文长文本词表,将文本结构长度由字统计改变至词组统计,有利于提取更加丰富的多粒度特征,进一步引入层次位置分解编码,高效扩展长文本的位置编码,加速网络收敛.最后,以局部注意力机制为骨干,同时结合引导注意力机制,以此有效捕捉长文本跨度下的重要信息,提高摘要生成的精度.在四个不同长度的公共中文摘要数据集LCSTS(大规模中文短文本摘要数据集)、CNewSum(大规模中国新闻摘要数据集)、NLPCC2017和SFZY2020上的实验结果表明:本文方法对于长文本摘要生成具有显著优势,能够有效提高ROUGE-1、ROUGE-2、ROUGE-L值. 展开更多
关键词 自然语言处理 中文长文本摘要生成 引导注意力 层次位置分解编码 局部注意力
在线阅读 下载PDF
基于深度学习的抽取式摘要研究综述
15
作者 田萱 李嘉梁 孟晓欢 《计算机科学与探索》 CSCD 北大核心 2024年第11期2823-2847,共25页
自动文本摘要(ATS)是自然语言处理的热门研究方向,主要实现方法分为抽取式和生成式两类。抽取式摘要直接采用源文档中的文字内容,相比生成式摘要具有更高的语法正确性和事实正确性,在政策解读、官方文件总结、法律和医药等要求较为严谨... 自动文本摘要(ATS)是自然语言处理的热门研究方向,主要实现方法分为抽取式和生成式两类。抽取式摘要直接采用源文档中的文字内容,相比生成式摘要具有更高的语法正确性和事实正确性,在政策解读、官方文件总结、法律和医药等要求较为严谨的领域具有广泛应用前景。目前基于深度学习的抽取式摘要研究受到广泛关注。主要梳理了近几年基于深度学习的抽取式摘要技术研究进展;针对抽取式摘要的两个关键步骤——文本单元编码和摘要抽取,分别分析了相关研究工作。根据模型框架的不同,将文本单元编码方法分为层级序列编码、基于图神经网络的编码、融合式编码和基于预训练的编码四类进行介绍;根据摘要抽取阶段抽取粒度的不同,将摘要抽取方法分为文本单元级抽取和摘要级抽取两类进行分析。介绍了抽取式摘要任务常用的公共数据集和性能评估指标。预测并分析总结了该领域未来可能的研究方向及相应的发展趋势。 展开更多
关键词 自然语言处理 神经网络 深度学习 抽取 模型框架 预训练 编码方法 融合式
在线阅读 下载PDF
以对比学习与时序递推提升摘要泛化性的方法
16
作者 汤文亮 陈帝佑 +2 位作者 桂玉杰 刘杰明 徐军亮 《重庆理工大学学报(自然科学)》 CAS 北大核心 2024年第2期170-180,共11页
为了有效缓解基于交叉熵损失函数训练的传统文本摘要模型所面临的推理过程中性能下降、泛化性较低、生成过程中曝光偏差现象严重、生成的摘要与参考摘要文本相似度较低等问题,提出了一种新颖的训练方式,一方面,模型本身以beamsearch的... 为了有效缓解基于交叉熵损失函数训练的传统文本摘要模型所面临的推理过程中性能下降、泛化性较低、生成过程中曝光偏差现象严重、生成的摘要与参考摘要文本相似度较低等问题,提出了一种新颖的训练方式,一方面,模型本身以beamsearch的方式生成候选集,以候选摘要的评估分数选取正负样本,在输出的候选集中以“argmax-贪心搜索概率值”和“标签概率值”构建2组对比损失函数;另一方面,设计作用于候选集句内的时序递推函数引导模型在输出每个单独的候选摘要时确保时序准确性,并缓解曝光偏差问题。实验表明,所提方法在CNN/DailyMail和Xsum公共数据集上的泛化性得到提升,Rouge与BertScore在CNN/DailyMail上达到47.54和88.51,在Xsum上达到了48.75和92.61。 展开更多
关键词 自然语言处理 文本摘要 对比学习 模型微调
在线阅读 下载PDF
Lacmia:抗混淆的多民族语言生成式摘要模型
17
作者 翁彧 罗皓予 +3 位作者 刘征 超木日力格 刘轩 董俊 《中文信息学报》 CSCD 北大核心 2024年第10期80-94,共15页
该文提出了一种针对中国多民族低资源语言生成式摘要模型Lacmia(Language-Anti-confusioned Chinese Minority Abstractive Summarization Model)。为了克服以往模型只能处理单一语言的限制,Lacmia采用了一种统一的生成式架构来执行不... 该文提出了一种针对中国多民族低资源语言生成式摘要模型Lacmia(Language-Anti-confusioned Chinese Minority Abstractive Summarization Model)。为了克服以往模型只能处理单一语言的限制,Lacmia采用了一种统一的生成式架构来执行不同民族语言的摘要生成任务。此外,为了解决以往模型在多民族低资源语言处理上的性能不足问题,该模型在框架中加入了语言信息嵌入模块。该文通过在损失函数中引入目标语言偏好性正则化项,有效减轻了多语言摘要中出现的语言混淆现象,从而提升摘要生成准确性和流畅度。广泛的实验表明,Lacmia在包括藏语和维吾尔语在内的多民族低资源语言摘要任务中,取得了卓越成绩。除了在ROUGE评价标准上实现了显著性能提升外,Lacmia在该文新提出的CINOScore和NLCR两项指标上均达到了最佳效果,验证了模型的有效性和先进性。 展开更多
关键词 生成式摘要 多语言预训练模型 低资源语言信息处理 多目标学习
在线阅读 下载PDF
基于大语言模型的教育文本幂等摘要方法 被引量:2
18
作者 杨兴睿 马斌 +1 位作者 李森垚 钟忺 《计算机工程》 CAS CSCD 北大核心 2024年第7期32-41,共10页
大语言模型在自然语言处理领域蓬勃发展,但在教育数字化领域应用过程中仍面临一系列重要挑战。针对教育数字化领域垂域数据稀缺、摘要长度不稳定导致信息缺失或冗余的问题,提出一种用于教育领域文本摘要的轻量化幂等模型框架IGLM。该模... 大语言模型在自然语言处理领域蓬勃发展,但在教育数字化领域应用过程中仍面临一系列重要挑战。针对教育数字化领域垂域数据稀缺、摘要长度不稳定导致信息缺失或冗余的问题,提出一种用于教育领域文本摘要的轻量化幂等模型框架IGLM。该模型首先采用多源训练进行自适应扩增以提升数据多样性,然后对下游的文本摘要任务进行多种微调。同时,为降低文本长度的影响,设计幂等摘要生成策略拉近初次摘要与幂等摘要来约束模型,减少语料分布不均导致的偏见,结合量化技术在低资源条件下生成更为精确和流畅的摘要文本。实验以ROUGE分数为评估指标,在公开中文文本摘要数据集LCSTS、EDUCATION、NLPCC上进行验证。实验结果表明,该框架在生成摘要的准确率和流畅性上有明显提升,其中ROUGE-1/2/L相较基线模型在LCSTS数据集上分别提升7.9、7.4、8.7个百分点,在EDUCATION数据集上分别提升12.9、15.4、15.7个百分点,在NLPCC数据集上分别提升12.2、11.7、12.7个百分点,验证了模型有效性。 展开更多
关键词 教育数字化 文本摘要 大语言模型 低资源场景 幂等 扩增
在线阅读 下载PDF
融合卷积收缩门控的生成式文本摘要方法 被引量:1
19
作者 甘陈敏 唐宏 +2 位作者 杨浩澜 刘小洁 刘杰 《计算机工程》 CAS CSCD 北大核心 2024年第2期98-104,共7页
在深度学习技术的推动下,基于编码器-解码器架构并结合注意力机制的序列到序列模型成为文本摘要研究中应用最广泛的模型之一,尤其在生成式文本摘要任务中取得显著效果。然而,现有的采用循环神经网络的模型存在并行能力不足和时效低下的... 在深度学习技术的推动下,基于编码器-解码器架构并结合注意力机制的序列到序列模型成为文本摘要研究中应用最广泛的模型之一,尤其在生成式文本摘要任务中取得显著效果。然而,现有的采用循环神经网络的模型存在并行能力不足和时效低下的局限性,无法充分概括有用信息,忽视单词与句子间的联系,易产生冗余重复或语义不相关的摘要。为此,提出一种基于Transformer和卷积收缩门控的文本摘要方法。利用BERT作为编码器,提取不同层次的文本表征得到上下文编码,采用卷积收缩门控单元调整编码权重,强化全局相关性,去除无用信息的干扰,过滤后得到最终的编码输出,并通过设计基础Transformer解码模块、共享编码器的解码模块和采用生成式预训练Transformer(GPT)的解码模块3种不同的解码器,加强编码器与解码器的关联,以此探索能生成高质量摘要的模型结构。在LCSTS和CNNDM数据集上的实验结果表明,相比主流基准模型,设计的TCSG、ES-TCSG和GPT-TCSG模型的评价分数增量均不低于1.0,验证了该方法的有效性和可行性。 展开更多
关键词 生成式文本摘要 序列到序列模型 Transformer模型 BERT编码器 卷积收缩门控单元 解码器
在线阅读 下载PDF
基于深度学习的海洋热点新闻挖掘方法 被引量:2
20
作者 覃娴萍 丁昭旭 +1 位作者 仲国强 王栋 《计算机科学》 CSCD 北大核心 2024年第S02期98-107,共10页
移动互联网的快速发展和现代移动客户端的普及推动了网络新闻行业、社交媒体和自媒体等的蓬勃发展,为用户提供了多元、丰富的海量信息。随着我国海洋强国战略的稳步推进,国民海洋意识的显著增强,有关海洋领域的多方面信息充斥着网络,相... 移动互联网的快速发展和现代移动客户端的普及推动了网络新闻行业、社交媒体和自媒体等的蓬勃发展,为用户提供了多元、丰富的海量信息。随着我国海洋强国战略的稳步推进,国民海洋意识的显著增强,有关海洋领域的多方面信息充斥着网络,相关媒体报道、公众舆论在网上大量涌现,热点事件频频发生。针对多来源、多属性的网络海洋信息,基于多源文本聚类和自动摘要技术,提出一种基于深度学习的海洋热点新闻自动挖掘系统,包括多源涉海数据自动采集、数据预处理、特征提取、文本聚类、自动摘要五大功能模块。具体而言,网络爬虫程序从多个数据源采集多样且分散的海洋数据,自动将数据结构化后存入数据库;根据文本特征的近似程度和文本间的关联关系实现聚类分析,聚类结果为后继摘要生成、主题发现提供数据支撑;基于预训练语言模型强大的上下文理解能力和丰富的语言表达能力,提出基于预训练语言模型的海洋新闻自动摘要生成方法。通过多组实验证明了所提方法在各个评估指标上的有效性,突显出其在多源异构网络海洋新闻挖掘方面的优势。该方法为处理分散的海洋资讯信息、生成可读性更强的内容摘要提供可行的解决方案,对提高海洋信息获取效率、监测公众舆论走向、推动海洋信息的应用与传播具有重要意义。 展开更多
关键词 海洋新闻 文本聚类 自动摘要 深度学习 自然语言处理 预训练模型
在线阅读 下载PDF
上一页 1 2 8 下一页 到第
使用帮助 返回顶部