期刊文献+
共找到1,770篇文章
< 1 2 89 >
每页显示 20 50 100
基于XLNet和多粒度对比学习的新闻主题文本分类方法 被引量:1
1
作者 陈敏 王雷春 +2 位作者 徐瑞 史含笑 徐渺 《郑州大学学报(理学版)》 CAS 北大核心 2025年第2期16-23,共8页
新闻主题文本内容简短却含义丰富,传统方法通常只考虑词粒度或句粒度向量中的一种进行研究,未能充分利用新闻主题文本不同粒度向量之间的关联信息。为深入挖掘文本的词向量和句向量间的依赖关系,提出一种基于XLNet和多粒度特征对比学习... 新闻主题文本内容简短却含义丰富,传统方法通常只考虑词粒度或句粒度向量中的一种进行研究,未能充分利用新闻主题文本不同粒度向量之间的关联信息。为深入挖掘文本的词向量和句向量间的依赖关系,提出一种基于XLNet和多粒度特征对比学习的新闻主题分类方法。首先,利用XLNet对新闻主题文本进行特征提取获得文本中词、句粒度的特征表示和潜在空间关系;然后,通过对比学习R-Drop策略生成不同粒度特征的正负样本对,以一定权重对文本的词向量-词向量、词向量-句向量和句向量-句向量进行特征相似度学习,使模型深入挖掘出字符属性和语句属性之间的关联信息,提升模型的表达能力。在THUCNews、Toutiao和SHNews数据集上进行实验,实验结果表明,与基准模型相比,所提方法在准确率和F 1值上都有更好的表现,在三个数据集上的F 1值分别达到了93.88%、90.08%、87.35%,验证了方法的有效性和合理性。 展开更多
关键词 自然语言处理 文本分类 新闻主题 XLNet 对比学习
在线阅读 下载PDF
基于标签构建与特征融合的多标签文本分类研究方法 被引量:1
2
作者 王旭阳 卢世红 《贵州师范大学学报(自然科学版)》 北大核心 2025年第1期105-114,共10页
目前存在的多标签文本分类任务算法,对于标签的建模不是很成熟,其中对于标签的依赖性问题,以及标签特征和文本特征的融合程度问题,均缺乏有效的处理方法。为了更有效地利用标签间的依赖关系,以及整合标签特征与文本特征的融合,提出了一... 目前存在的多标签文本分类任务算法,对于标签的建模不是很成熟,其中对于标签的依赖性问题,以及标签特征和文本特征的融合程度问题,均缺乏有效的处理方法。为了更有效地利用标签间的依赖关系,以及整合标签特征与文本特征的融合,提出了一种名为CGTCN的多标签文本分类模型。该模型从标签构建和特征融合的角度出发,通过CompGCN建模标签依赖关系,先利用Transformer中的多头交叉注意力机制初步融合标签特征和文本特征,然后再通过CorNet网络进一步捕获标签特征与文本特征之间的相关性,从而得到最终的标签预测。实验结果显示,与基准模型相比,该方法能够有效的提升模型性能,在多标签文本分类任务中取得更好的分类效果。 展开更多
关键词 多标签文本分类 CompGCN TRANSFORMER CorNet 标签相关性
在线阅读 下载PDF
一种融合BERT和注意力机制的新闻文本分类方法
3
作者 熊亿坤 付雪峰 +2 位作者 盛黄煜 胡昊 汪涛涛 《江西师范大学学报(自然科学版)》 北大核心 2025年第1期49-57,共9页
文本分类任务是在自然语言处理中的一项重要任务,旨在将给定的文本分配到预定义的不同类别或标签中.针对近年来备受关注的注意力机制和一种基于Transformer结构的预训练模型BERT,该文提出一种基于BERT-TextRCNN-Attention混合神经网络... 文本分类任务是在自然语言处理中的一项重要任务,旨在将给定的文本分配到预定义的不同类别或标签中.针对近年来备受关注的注意力机制和一种基于Transformer结构的预训练模型BERT,该文提出一种基于BERT-TextRCNN-Attention混合神经网络的新闻文本分类方法.为了增强文本的特征表示和模型的分类效果,该分类方法首先使用BERT预训练模型对文本进行预训练,并作为TextRCNN的词向量嵌入,其次采用TextRCNN模型和注意力机制进一步对文本的上下文特征和局部关键特征进行提取,再对新闻文本进行分类;最后在THUCNews数据集上进行对比实验.实验结果表明:该文提出方法在准确率和F_(1)值上比Transformer、TextRNN、TextCNN、DPCNN等文本分类模型均有所提升. 展开更多
关键词 BERT模型 基于卷积神经网络的文本分类模型 注意力机制 新闻文本分类
在线阅读 下载PDF
基于双超图神经网络特征融合的文本分类
4
作者 郑诚 李鹏飞 《计算机工程》 北大核心 2025年第6期127-135,共9页
近年来,图神经网络(GNN)在文本分类任务中受到广泛应用。当前基于GNN的文本分类模型首先将文本建模为图,然后使用GNN对文本图进行特征传播与聚合,但是此类方法有两点不足:一是现有模型由于图结构的限制无法捕获单词之间的高阶语义关系;... 近年来,图神经网络(GNN)在文本分类任务中受到广泛应用。当前基于GNN的文本分类模型首先将文本建模为图,然后使用GNN对文本图进行特征传播与聚合,但是此类方法有两点不足:一是现有模型由于图结构的限制无法捕获单词之间的高阶语义关系;二是现有模型无法捕获文本中的关键语义信息。为了解决上述问题,提出一种基于双超图卷积网络特征融合的文本分类模型。一方面,使用原始文本建立文本超图;另一方面,为短文本引入外部知识,使用基于SenticNet词库的外部知识对文本进行语义增强,构建语义超图。经过超图卷积后通过注意力机制对双超图特征进行融合,实现短文本分类。在4个文本分类数据集上的实验结果表明,该模型优于基线模型,具有优越的文本分类性能。 展开更多
关键词 文本分类 超图 特征融合 SenticNet词库 自然语言处理
在线阅读 下载PDF
基于链接策略和不同粒度特征融合的极限多标签文本分类模型
5
作者 胡婕 郑启扬 +1 位作者 曹芝兰 刘梦赤 《中文信息学报》 北大核心 2025年第3期84-95,共12页
现有基于Transformer的极限多标签文本分类模型尽管引入了标签语义,但利用标签语义来探索文本和标签之间的语义潜在关系仍存在不足。对此,该文将标签合并成序列,并使用链接策略在同一空间内联合学习文本和标签特征来捕获文本和标签的语... 现有基于Transformer的极限多标签文本分类模型尽管引入了标签语义,但利用标签语义来探索文本和标签之间的语义潜在关系仍存在不足。对此,该文将标签合并成序列,并使用链接策略在同一空间内联合学习文本和标签特征来捕获文本和标签的语义。然后,通过注意力机制将标签语义和文档内容相结合生成感知文本,有效地探索文本信息和标签语义的交互关系。此外,该文通过融合机制将粗粒度层次特征和细粒度特征相结合,帮助模型更好地学习不同层次粒度的文档语义信息。在三个公开的数据集Eurlex-4K、Wiki10-30K和Kan-Shan Cup上进行了模型验证,实验结果表明,该文所提模型P@k值优于对比模型,综合性能得到有效提升。 展开更多
关键词 极限多标签文本分类 链接策略 感知文本 细粒度特征
在线阅读 下载PDF
融合预训练和双级元蒸馏的医学短文本分类方法
6
作者 廖列法 姜炫至 《计算机工程与应用》 北大核心 2025年第8期117-125,共9页
为解决医学文本使用预训练模型处理速度慢、对硬件的算力要求高、难以分辨少样本类别,以及使用传统小模型由于自身限制难以做到足够的准确度的问题,提出了一种融合预训练和元蒸馏的文本分类模型PTMD(fusion of pre-training and meta di... 为解决医学文本使用预训练模型处理速度慢、对硬件的算力要求高、难以分辨少样本类别,以及使用传统小模型由于自身限制难以做到足够的准确度的问题,提出了一种融合预训练和元蒸馏的文本分类模型PTMD(fusion of pre-training and meta distillation model)。PTMD针对医学文本的多标签问题,通过对比训练对RoBERTa预训练方法进行微调,再由双向内置注意力简单循环单元充分获取语义信息。最后在传统蒸馏模型的基础上融合元学习和助教的思想,通过教学实验和双级模型等方法,提高模型的教学水平,最终在减少训练成本的基础上得到一个高性能医学文本分类模型。实验结果表明,教师模型在CHIP2019评测三数据集上的F1值达到了85.47%,同时学生模型在F1值损失1.45个百分点的情况下,将模型规模缩小到教师模型的近1/6,效果高于大多数传统预训练模型和知识蒸馏模型,证明了该模型具有良好的实用价值。 展开更多
关键词 文本分类 预训练模型 知识蒸馏
在线阅读 下载PDF
结合对比学习和提示调优的层次文本分类方法
7
作者 郑诚 纪子威 《小型微型计算机系统》 北大核心 2025年第8期1878-1885,共8页
层次文本分类是文本分类领域一项重要的子任务,但复杂的标签层次结构使其具有挑战性.目前最先进的方法通过预训练语言模型对文本进行编码,并结合图编码器处理标签结构信息.但是,独立建模文本和标签信息可能导致信息利用率不高,预训练和... 层次文本分类是文本分类领域一项重要的子任务,但复杂的标签层次结构使其具有挑战性.目前最先进的方法通过预训练语言模型对文本进行编码,并结合图编码器处理标签结构信息.但是,独立建模文本和标签信息可能导致信息利用率不高,预训练和微调阶段的不同策略也限制了模型挖掘预训练模型的知识.本文提出一种结合对比学习和提示调优的层次文本分类方法,将层次标签信息嵌入到文本编码过程,同时设计提示模板整合标签信息,捕获文本与标签的关联性,弥合预训练模型与下游任务间的差距.借助对比学习,根据标签信息生成正样本,强化模型对关键特征的学习与保留,使模型有效指导文本特征表示的学习.在两个公开数据集上的大量实验表明了方法的有效性. 展开更多
关键词 层次文本分类 提示调优 对比学习 深度学习 自然语言处理
在线阅读 下载PDF
基于多尺度特征提取的层次多标签文本分类方法 被引量:1
8
作者 武子轩 王烨 于洪 《郑州大学学报(理学版)》 CAS 北大核心 2025年第2期24-30,共7页
针对现有的特征提取方法忽略文本局部和全局联系的问题,提出了基于多尺度特征提取的层次多标签文本分类方法。首先,设计了多尺度特征提取模块,对不同尺度特征进行捕捉,更好地表示文本语义。其次,将层次特征嵌入文本表示中,得到具有标签... 针对现有的特征提取方法忽略文本局部和全局联系的问题,提出了基于多尺度特征提取的层次多标签文本分类方法。首先,设计了多尺度特征提取模块,对不同尺度特征进行捕捉,更好地表示文本语义。其次,将层次特征嵌入文本表示中,得到具有标签特征的文本语义表示。最后,在标签层次结构的指导下对输入文本构建正负样本,进行对比学习,提高分类效果。在WOS、RCV1-V2、NYT和AAPD数据集上进行对比实验,结果表明,所提模型在评价指标上表现出色,超过了其他主流模型。此外,针对层次分类提出层次Micro-F 1和层次Macro-F 1指标,并对模型效果进行了评价。 展开更多
关键词 层次多标签文本分类 多尺度特征提取 对比学习 层次Micro-F 1 层次Macro-F 1
在线阅读 下载PDF
融合注意力机制的MacBERT-DPCNN农业文本分类模型
9
作者 张典 刘畅 +2 位作者 陈雯柏 缪祎晟 吴华瑞 《中国农机化学报》 北大核心 2025年第8期83-89,共7页
针对农业领域文本信息密度大、语义模糊、特征稀疏的特点,提出一种基于MacBERT(MLM as correction-BERT)、深度金字塔卷积网络(DPCNN)和注意力机制(Attention)的农业文本分类模型,命名为MacBERT—DPCNN—Attention(MDA)。首先,使用MacB... 针对农业领域文本信息密度大、语义模糊、特征稀疏的特点,提出一种基于MacBERT(MLM as correction-BERT)、深度金字塔卷积网络(DPCNN)和注意力机制(Attention)的农业文本分类模型,命名为MacBERT—DPCNN—Attention(MDA)。首先,使用MacBERT模型充分提取农业类文本内容的上下文信息,强化文本的语义特征表示。然后,DPCNN模型通过其多层卷积神经网络和池化操作,有效捕获文本的局部特征。最后,注意力机制进一步增强农业文本序列的特征表达。结果表明,与其他主流模型如BERT—DPCNN、BERT—CNN、BERT—RNN相比,MDA模型在农业文本分类任务上的精确率提升1.04%以上,召回率提升0.95%以上,F1值提升0.14%以上。表明所提模型在解决农业领域文本分类问题方面的有效性和优越性。 展开更多
关键词 农业文本分类 MacBERT模型 深度金字塔卷积网络 注意力机制 预训练模型
在线阅读 下载PDF
基于对比学习增强双注意力机制的多标签文本分类方法
10
作者 余明峰 秦永彬 +2 位作者 黄瑞章 陈艳平 林川 《计算机应用》 北大核心 2025年第6期1732-1740,共9页
针对现有的基于注意力机制的方法难以捕捉文本之间复杂的依赖关系的问题,提出一种基于对比学习增强双注意力机制的多标签文本分类方法。首先,分别学习基于自注意力和基于标签注意力的文本表示,并融合二者以获得更全面的文本表示捕捉文... 针对现有的基于注意力机制的方法难以捕捉文本之间复杂的依赖关系的问题,提出一种基于对比学习增强双注意力机制的多标签文本分类方法。首先,分别学习基于自注意力和基于标签注意力的文本表示,并融合二者以获得更全面的文本表示捕捉文本的结构特征以及文本与标签之间的语义关联;其次,给定一个多标签对比学习目标,利用标签引导的文本相似度监督文本表示的学习,以捕捉文本之间在主题、内容和结构层面上复杂的依赖关系;最后,使用前馈神经网络作为分类器进行文本分类。实验结果表明,相较于LDGN(Label-specific Dual Graph neural Network),所提方法在EUR-Lex(European Union Law Document)数据集与Reuters-21578数据集上的排名第5处的归一化折现累积收益(nDCG@5)值分别提升了1.81和0.86个百分点,在AAPD(Arxiv Academic Paper Dataset)数据集与RCV1(Reuters Corpus VolumeⅠ)数据集上也都取得了有竞争力的结果。可见,所提方法能有效捕捉文本之间在主题、内容和结构层面上复杂的依赖关系,从而在多标签文本分类任务上取得较优结果。 展开更多
关键词 多标签文本分类 对比学习 双注意力 标签注意力 自注意力
在线阅读 下载PDF
融合降噪微调与图注意力机制的藏文长文本分类
11
作者 敬容 万福成 +2 位作者 黄锐 于洪志 马宁 《计算机工程与科学》 北大核心 2025年第6期1133-1140,共8页
在藏文长文本分类任务中,长距离依赖问题尤为突出。同时,多语言预训练模型在处理藏文文本分类任务时也存在一定的偏差。针对以上问题,基于预训练语言模型CINO-Large,提出融合降噪微调与图注意力机制的藏文长文本分类方法。首先,在CINO-L... 在藏文长文本分类任务中,长距离依赖问题尤为突出。同时,多语言预训练模型在处理藏文文本分类任务时也存在一定的偏差。针对以上问题,基于预训练语言模型CINO-Large,提出融合降噪微调与图注意力机制的藏文长文本分类方法。首先,在CINO-Large中引入不完全信任损失函数In-trust,通过任务适应性损失增强模型在下游任务中的泛化能力。其次,在图结构建模中引入滑动窗口和线性分类,选择性增加文档与文档边缘,提高节点间的特征区分度。最后,利用图注意力机制GAT捕捉不同节点在图中的重要性,完成藏文长文本分类任务。在TNCC中的新闻长文本上,由所提方法构建的模型的分类准确率达到了71.66%,与预训练语言模型CINO-Large相比,其准确率、精确度和F1分数分别提高了1.77%、2.67%和2.03%,在部分分类困难的子类别上,模型的F1分数能显著提升20%左右。 展开更多
关键词 预训练模型 降噪微调 图注意力机制 藏文长文本分类
在线阅读 下载PDF
基于GNN与注意力机制的文本分类模型
12
作者 曾谁飞 孟瑶 刘静 《电信科学》 北大核心 2025年第5期129-140,共12页
针对图数据动态聚合未知邻节点学习能力难及融合语义特征不足造成的模型性能欠佳而分类准确率低的问题,提出了一种基于图神经网络(graph neural network,GNN)和注意力机制的分类模型——图注意力文本分类(graph attention text classifi... 针对图数据动态聚合未知邻节点学习能力难及融合语义特征不足造成的模型性能欠佳而分类准确率低的问题,提出了一种基于图神经网络(graph neural network,GNN)和注意力机制的分类模型——图注意力文本分类(graph attention text classification,GATC)。首先,构建了一种归纳式学习的图神经模型,利用聚合函数实现动态嵌入未知邻节点,增强模型泛化能力。其次,引入多头潜在注意力机制,通过低秩联合压缩技术减少推理键值缓存,显著地降低了内存占用,提高了模型性能。最后,融合GNN和门循环单元(gated recurrent unit,GRU)网络模型,进一步捕获图数据中结构和时序属性信息的语义特征,实现了特征的高效融合,并提升了模型的分类准确率。实验结果表明,所提方法既有效,又相比算法ADGL(adaptive dynamic graph learning)+MLA(multi-head latent attention)的分类准确率在CSI 100、CSI 300和Rus 1K数据集上分别提高至少4.0%、2.4%和3.1%。 展开更多
关键词 图神经网络 注意力机制 图数据 文本分类
在线阅读 下载PDF
结合标签混淆的中文文本分类数据增强技术
13
作者 孙海涛 林佳瑜 +1 位作者 梁祖红 郭洁 《计算机应用》 北大核心 2025年第4期1113-1119,共7页
传统数据增强技术,如同义词替换、随机插入和随机删除等,可能改变文本的原始语义,甚至导致关键信息丢失。此外,在文本分类任务中,数据通常包含文本部分和标签部分,然而传统数据增强方法仅针对文本部分。为解决这些问题,提出一种结合标... 传统数据增强技术,如同义词替换、随机插入和随机删除等,可能改变文本的原始语义,甚至导致关键信息丢失。此外,在文本分类任务中,数据通常包含文本部分和标签部分,然而传统数据增强方法仅针对文本部分。为解决这些问题,提出一种结合标签混淆的数据增强(LCDA)技术,从文本和标签这2个基本方面入手,为数据提供全面的强化。在文本方面,通过对文本进行标点符号随机插入和替换以及句末标点符号补齐等增强,在保留全部文本信息和顺序的同时增加文本的多样性;在标签方面,采用标签混淆方法生成模拟标签分布替代传统的one-hot标签分布,以更好地反映实例和标签与标签之间的关系。在THUCNews(TsingHua University Chinese News)和Toutiao这2个中文新闻数据集构建的小样本数据集上分别结合TextCNN、TextRNN、BERT(Bidirectional Encoder Representations from Transformers)和RoBERTa-CNN(Robustly optimized BERT approach Convolutional Neural Network)文本分类模型的实验结果表明,与增强前相比,性能均得到显著提升。其中,在由THUCNews数据集构造的50-THU数据集上,4种模型结合LCDA技术后的准确率相较于增强前分别提高了1.19、6.87、3.21和2.89个百分点;相较于softEDA(Easy Data Augmentation with soft labels)方法增强的模型分别提高了0.78、7.62、1.75和1.28个百分点。通过在文本和标签这2个维度的处理结果可知,LCDA技术能显著提升模型的准确率,在数据量较少的应用场景中表现尤为突出。 展开更多
关键词 数据增强 文本分类 标签混淆 中文新闻主题 预训练模型
在线阅读 下载PDF
融合网络剪枝和动态扩展的终身文本分类方法
14
作者 张泽 王炯 +3 位作者 王晓艺 聂凯峰 刘杰 周建设 《小型微型计算机系统》 北大核心 2025年第6期1319-1325,共7页
随着互联网技术的发展,产生了大量的各种背景下的文本信息,包括新闻资料,科学文献等等,这些文本信息所包含的内容并不统一.对于神经网络而言,不断地增加新领域的训练数据必然会导致对旧信息的灾难遗忘.因此在实际应用中,训练出可以终身... 随着互联网技术的发展,产生了大量的各种背景下的文本信息,包括新闻资料,科学文献等等,这些文本信息所包含的内容并不统一.对于神经网络而言,不断地增加新领域的训练数据必然会导致对旧信息的灾难遗忘.因此在实际应用中,训练出可以终身学习的文本分类器具有很高的应用价值.为此,该文提出了一种基于网络剪枝和动态扩展策略的终身文本分类方法,适用于知识背景不断增加的文本分类场景.具体而言,该文将网络剪枝、参数正则化更新和网络扩展相结合,保证神经网络可以在不遗忘旧任务知识的前提下更有效的学习新任务.通过使用不确定正则化参数更新策略防止旧领域信息的遗忘,实现任务之间的知识迁移.在5个流行的文本分类数据集上进行终身学习的实验设置下进行验证,实验结果表明本文的方法与BERT预训练模型相比高出约10%,并且均优于其他终身学习的方法. 展开更多
关键词 文本分类 终身学习 动态网络扩展 正则化更新
在线阅读 下载PDF
基于最优传输理论和格兰杰因果关系检验的文本分类优化
15
作者 李静娟 邢凯 聂挺 《计算机应用与软件》 北大核心 2025年第6期167-177,共11页
随着深度学习及相关预训练模型等在文本分类任务上取得较好表现,其模型泛化性要求与有限的数据规模之间的冲突愈发严峻。基于梯度下降的网络优化方法要求所做变换必须连续可微,且优化过程中容易囿于局部极小值。对此,提出一种基于格兰... 随着深度学习及相关预训练模型等在文本分类任务上取得较好表现,其模型泛化性要求与有限的数据规模之间的冲突愈发严峻。基于梯度下降的网络优化方法要求所做变换必须连续可微,且优化过程中容易囿于局部极小值。对此,提出一种基于格兰杰因果关系检验和最优传输理论的预训练模型性能优化方法。将随机化算法与数据驱动的概率分布算法结合,基于格兰杰因果关系检验在小样本数据集上生成有效特征。然后基于最优传输理论学习有效特征间结构化组合表征,进而兼容连续/非连续高维流形结构间的传输映射造成的不稳定性。实验表明,对比直接使用BERT和TextGCN主流预训练模型,在中英文数据集上准确率均有提升。 展开更多
关键词 预训练 最优传输理论 数据分布 文本分类
在线阅读 下载PDF
基于特征融合动态图网络的多标签文本分类算法
16
作者 黄靖 陶竹林 +1 位作者 杜晓宇 项欣光 《软件学报》 北大核心 2025年第7期3239-3252,共14页
多标签文本分类旨在为文本分配若干预定义的标签或类别.为了充分发掘标签间的关联,目前的方法通常使用标签关系图并结合图神经网络获取标签特征表示.然而,这类方法过度依赖初始建图策略,忽视了当前文本中固有的标签相关性,使得分类结果... 多标签文本分类旨在为文本分配若干预定义的标签或类别.为了充分发掘标签间的关联,目前的方法通常使用标签关系图并结合图神经网络获取标签特征表示.然而,这类方法过度依赖初始建图策略,忽视了当前文本中固有的标签相关性,使得分类结果更依赖于数据集统计信息,而容易忽视当前文本段中的标签相关信息.因此,提出一种基于特征融合动态图网络的多标签文本分类算法,设计动态图来建模当前文本中的标签相关性,并结合特征融合与图神经网络,形成基于当前文本的标签表示,并由此形成更为准确的多标签文本结果.随后,设计实验进行验证,在3个数据集实验结果表明,所提出的模型在多标签分类任务中取得优秀的性能,验证其有效性和可行性. 展开更多
关键词 多标签文本分类 图卷积网络 注意力机制 动态图
在线阅读 下载PDF
自监督知识增强的零样本文本分类方法
17
作者 林铄浩 陈炜 +4 位作者 万怀宇 蒋致书 赵书源 廖梦祈 张芷毓 《中文信息学报》 北大核心 2025年第1期79-88,共10页
为了改善零样本文本分类任务中无标签数据存在的类别不平衡问题,并充分发挥预训练语言模型在该任务中的推理能力,该文提出了一种自监督知识增强的零样本文本分类方法(Knowledge Enhanced Zero-shot Text Classification,KE0TC)。该方法... 为了改善零样本文本分类任务中无标签数据存在的类别不平衡问题,并充分发挥预训练语言模型在该任务中的推理能力,该文提出了一种自监督知识增强的零样本文本分类方法(Knowledge Enhanced Zero-shot Text Classification,KE0TC)。该方法利用提示模板引导大规模预训练语言模型扩展类别标签并构建知识图谱,通过图结构进行去噪和自监督数据生成;然后,采用段落采样等方式将提取的带标签数据隐式映射到分类器的参数空间中,进而在不收集无标签训练数据的情况下实现对分类空间的建模。在三个文本分类数据集上与四个基线方法相比,KE0TC能基于较少的训练语料,以较低的耗时达到较高分类性能。 展开更多
关键词 零样本文本分类 知识图谱 数据增强
在线阅读 下载PDF
基于词素切分的低资源语言文本分类 被引量:1
18
作者 沙尔旦尔·帕尔哈提 木塔力甫·沙塔尔 +1 位作者 阿力木江·亚森 阿布都热合曼·卡的尔 《计算机工程与设计》 北大核心 2025年第2期530-536,共7页
针对维-哈-柯等派生类低资源语言文本分类中特征空间维数巨增、特征提取效率低等问题,提出一种基于Bi-LSTM_CRF的词素切和基于Bi-LSTM_Attention的文本分类方法。对实验文本进行词素切分及词干提取以有效减少特征空间维数,采用BERT嵌入... 针对维-哈-柯等派生类低资源语言文本分类中特征空间维数巨增、特征提取效率低等问题,提出一种基于Bi-LSTM_CRF的词素切和基于Bi-LSTM_Attention的文本分类方法。对实验文本进行词素切分及词干提取以有效减少特征空间维数,采用BERT嵌入向量表示较好地保留文本语义信息。将Bi-LSTM与Attention机制结合构建文本分类模型,有效提取文本词干之间长距离依赖关系特征,以此提高维-哈-柯语文本分类的效果,分别得到了96.68%、96.72%和96.54%的分类准确率。实验结果表明,高效词素切分和嵌入向量表示方法能够提高维-哈-柯等低资源语言文本分类的效果。 展开更多
关键词 维-哈-柯语 词素切分 词干提取 词干嵌入向量 特征表示 神经网络 文本分类
在线阅读 下载PDF
基于问题导向式提示调优小样本文本分类
19
作者 翟梦鑫 周艳玲 余杭 《计算机应用研究》 北大核心 2025年第3期708-713,共6页
低资源场景下提示调优比带有额外分类器的通用微调方法(fine-tuning)分类性能好,但提示调优中设计一个较好的提示模板和标签词映射器需要花费大量的精力。针对该问题,提出问题导向式提示调优的小样本分类方法(question-oriented prompt-... 低资源场景下提示调优比带有额外分类器的通用微调方法(fine-tuning)分类性能好,但提示调优中设计一个较好的提示模板和标签词映射器需要花费大量的精力。针对该问题,提出问题导向式提示调优的小样本分类方法(question-oriented prompt-tuning,QPT)。首先,利用数据集标签和可训练的连续提示构建提问形式的模板,通过预训练模型学习到最优提示模板;然后,每条样本用模板进行填充,将文本分类任务转换成完形填空任务;最后,使用外部知识及两种细化方法构建标签词映射器,通过预测的标签词与分类标签的映射关系得出分类结果。在公开数据集AG’s News和IMDB上进行实验,结果表明,该方法在5-shot、10-shot和20-shot任务上性能均有所提升,在5-shot任务上准确率分别提高了0.81和1.36百分点,与基线模型相比,不仅易于实现且性能取得了最优。 展开更多
关键词 小样本文本分类 提示调优 问题导向式模板
在线阅读 下载PDF
硬件有限环境中低资源文本分类新策略
20
作者 尹照煜 宋文爱 刘宏昊 《现代电子技术》 北大核心 2025年第8期56-62,共7页
针对在硬件资源有限的情况下,难以有效提升低资源分类任务性能这一难题,提出使用基于新一代大型语言模型Claude3 Haiku的数据增强,并设计了一种更小更快的文本分类模型EQSBERT。首先基于Claude3 Haiku,使用分布式比例增强法和动态均衡... 针对在硬件资源有限的情况下,难以有效提升低资源分类任务性能这一难题,提出使用基于新一代大型语言模型Claude3 Haiku的数据增强,并设计了一种更小更快的文本分类模型EQSBERT。首先基于Claude3 Haiku,使用分布式比例增强法和动态均衡过采样增强法来增强低资源文本分类任务数据集。通过二次自蒸馏、多目标知识蒸馏、多维剪枝,提出一种更小更快的BERT系列文本分类模型EQSBERT,采用EQSBERT对增强后的数据集进行分类。结果表明:Claude3 Haiku具有较好的性能,且成本效益高于GPT-4;EQSBERT在参数大幅减少的情况下也能维持其高性能,显著降低了运行成本。两者结合搭配使用,可以有效解决在硬件条件有限的情况下低资源分类任务方面的问题。该方案为资源受限情况下的自然语言处理任务提供了新的解决策略,在自动化数据标注、社交媒体监控以及内容审核系统应用方面有巨大潜力。 展开更多
关键词 自然语言处理 低资源文本分类 大型语言模型Claude3 Haiku 数据增强 GPT-4 多目标知识蒸馏
在线阅读 下载PDF
上一页 1 2 89 下一页 到第
使用帮助 返回顶部