期刊文献+
共找到53篇文章
< 1 2 3 >
每页显示 20 50 100
基于掩码语言模型的中文BERT攻击方法 被引量:4
1
作者 张云婷 叶麟 +2 位作者 唐浩林 张宏莉 李尚 《软件学报》 EI CSCD 北大核心 2024年第7期3392-3409,共18页
对抗文本是一种能够使深度学习分类器作出错误判断的恶意样本,敌手通过向原始文本中加入人类难以察觉的微小扰动制作出能欺骗目标模型的对抗文本.研究对抗文本生成方法,能对深度神经网络的鲁棒性进行评价,并助力于模型后续的鲁棒性提升... 对抗文本是一种能够使深度学习分类器作出错误判断的恶意样本,敌手通过向原始文本中加入人类难以察觉的微小扰动制作出能欺骗目标模型的对抗文本.研究对抗文本生成方法,能对深度神经网络的鲁棒性进行评价,并助力于模型后续的鲁棒性提升工作.当前针对中文文本设计的对抗文本生成方法中,很少有方法将鲁棒性较强的中文BERT模型作为目标模型进行攻击.面向中文文本分类任务,提出一种针对中文BERT的攻击方法Chinese BERT Tricker.该方法使用一种汉字级词语重要性打分方法——重要汉字定位法;同时基于掩码语言模型设计一种包含两类策略的适用于中文的词语级扰动方法实现对重要词语的替换.实验表明,针对文本分类任务,所提方法在两个真实数据集上均能使中文BERT模型的分类准确率大幅下降至40%以下,且其多种攻击性能明显强于其他基线方法. 展开更多
关键词 深度神经网络 对抗样本 文本对抗攻击 中文bert 掩码语言模型
在线阅读 下载PDF
问答式林业预训练语言模型ForestBERT 被引量:4
2
作者 谭晶维 张怀清 +2 位作者 刘洋 杨杰 郑东萍 《林业科学》 EI CAS CSCD 北大核心 2024年第9期99-110,共12页
【目的】针对林业文本利用率低、通用领域预训练语言模型对林业知识理解不足以及手动标注数据耗时费力等问题,基于大量林业文本,提出一种融合林业领域知识的预训练语言模型,并通过自动标注训练数据,高效实现林业抽取式问答,为林业决策... 【目的】针对林业文本利用率低、通用领域预训练语言模型对林业知识理解不足以及手动标注数据耗时费力等问题,基于大量林业文本,提出一种融合林业领域知识的预训练语言模型,并通过自动标注训练数据,高效实现林业抽取式问答,为林业决策管理提供智能化信息服务。【方法】首先,基于网络爬虫技术构建包含术语、法律法规和文献3个主题的林业语料库,使用该语料库对通用领域预训练语言模型BERT进行继续预训练,再通过掩码语言模型和下一句预测这2个任务进行自监督学习,使BERT能够有效地学习林业语义信息,得到具有林业文本通用特征的预训练语言模型ForestBERT。然后,对预训练语言模型mT5进行微调,实现样本的自动标注,通过人工校正后,构建包含3个主题共2280个样本的林业抽取式问答数据集。基于该数据集对BERT、RoBERTa、MacBERT、PERT、ELECTRA、LERT 6个通用领域的中文预训练语言模型以及本研究构建的ForestBERT进行训练和验证,以明确ForestBERT的优势。为探究不同主题对模型性能的影响,分别基于林业术语、林业法律法规、林业文献3个主题数据集对所有模型进行微调。将ForestBERT与BERT在林业文献中的问答结果进行可视化比较,以更直观展现ForestBERT的优势。【结果】ForestBERT在林业领域的抽取式问答任务中整体表现优于其他6个对比模型,与基础模型BERT相比,精确匹配(EM)分数和F1分数分别提升1.6%和1.72%,在另外5个模型的平均性能上也均提升0.96%。在各个模型最优划分比例下,ForestBERT在EM上分别优于BERT和其他5个模型2.12%和1.2%,在F1上分别优于1.88%和1.26%。此外,ForestBERT在3个林业主题上也均表现优异,术语、法律法规、文献任务的评估分数分别比其他6个模型平均提升3.06%、1.73%、2.76%。在所有模型中,术语任务表现最佳,F1的平均值达到87.63%,表现较差的法律法规也达到82.32%。在文献抽取式问答任务中,ForestBERT相比BERT可提供更准确、全面的答案。【结论】采用继续预训练的方式增强通用领域预训练语言模型的林业专业知识,可有效提升模型在林业抽取式问答任务中的表现,为林业文本和其他领域的文本处理和应用提供一种新思路。 展开更多
关键词 林业文本 bert 预训练语言模型 特定领域预训练 抽取式问答任务 自然语言处理
在线阅读 下载PDF
基于BERT模型的主设备缺陷诊断方法研究 被引量:3
3
作者 杨虹 孟晓凯 +3 位作者 俞华 白洋 韩钰 刘永鑫 《电力系统保护与控制》 北大核心 2025年第7期155-164,共10页
主设备缺陷诊断旨在及时定位处理电网的异常情况,是电力系统平稳运行的基础。传统方法以人工为主,存在效率低下、诊断成本高、依赖专家经验等问题。为了弥补这些不足,提出了一种基于BERT语言模型的主设备缺陷诊断方法。首先,使用BERT初... 主设备缺陷诊断旨在及时定位处理电网的异常情况,是电力系统平稳运行的基础。传统方法以人工为主,存在效率低下、诊断成本高、依赖专家经验等问题。为了弥补这些不足,提出了一种基于BERT语言模型的主设备缺陷诊断方法。首先,使用BERT初步理解输入,获取嵌入表示,结合缺陷等级分类任务判断故障的危急程度。然后,利用大语言模型汇总输入信息和评判结果,并通过大语言模型提示学习提高知识问答过程的准确性与推理可靠性,返回正确有效的回答。最后,探究了大语言模型在电力领域的应用潜力。实验结果表明,所提方法在缺陷等级分类任务和问答任务上都表现良好,可以生成高质量的分类证据和指导信息。 展开更多
关键词 缺陷诊断 语言模型 bert 提示学习 分类模型
在线阅读 下载PDF
基于BERT和Bi-LSTM的题目难度预测:知识点标签增强模型
4
作者 叶航 柴春来 +2 位作者 张思赟 陈东烁 吴霁航 《计算机应用》 北大核心 2025年第S1期37-42,共6页
目前在高校C语言编程课程中,使用客观评价的题目难度考验学生的学习情况是非常重要的手段。目前大部分难度评估方法都针对特有科目和特有题型,而对中文编程题目的难度评估存在不足。因此,提出一种融合题目文本和知识点标签的基于BERT(Bi... 目前在高校C语言编程课程中,使用客观评价的题目难度考验学生的学习情况是非常重要的手段。目前大部分难度评估方法都针对特有科目和特有题型,而对中文编程题目的难度评估存在不足。因此,提出一种融合题目文本和知识点标签的基于BERT(Bidirectional Encoder Representations from Transformers)和双向长短时记忆(Bi-LSTM)模型的C语言题目难度预测模型FTKB-BiLSTM(Fusion of Title and Knowledge based on BERT and Bi-LSTM)。首先,利用BERT的中文预训练模型获得题目文本和知识点的词向量;其次,融合模块将融合后的信息通过BERT处理得到文本的信息表示,并输入Bi-LSTM模型中学习其中的序列信息,提取更丰富的特征;最后,把经Bi-LSTM模型得到的特征表示通过全连接层并经过Softmax函数处理得到题目难度分类结果。在Leetcode中文数据集和ZjgsuOJ平台数据集上的实验结果表明,相较于XLNet等主流的深度学习模型,所提模型的准确率更优,具有较强的分类能力。 展开更多
关键词 自然语言处理 深度学习 题目难度预测 bert 预训练模型
在线阅读 下载PDF
基于全局语义信息的GR-BERT模型 被引量:1
5
作者 王煜华 胡俊英 +2 位作者 孙凯 常培菊 费蓉蓉 《工程数学学报》 北大核心 2025年第4期751-762,共12页
关系抽取是提取实体间关系的一项重要的自然语言处理任务。最近的研究发现,预训练BERT模型在自然语言处理任务中取得了非常好的效果。此后,诞生了大量使用预训练BERT模型处理关系抽取任务的方法,其中具有代表性的是R-BERT方法。但是,该... 关系抽取是提取实体间关系的一项重要的自然语言处理任务。最近的研究发现,预训练BERT模型在自然语言处理任务中取得了非常好的效果。此后,诞生了大量使用预训练BERT模型处理关系抽取任务的方法,其中具有代表性的是R-BERT方法。但是,该方法在实现时未考虑主语实体与宾语实体在语义上的差异,以及全局语义信息对关系抽取任务准确性的影响。通过设置两个不同的全连接层来分别提取主语实体和宾语实体的信息,从而将主语实体与宾语实体在语义上的差异引入模型的学习过程中。此外,还在原有的信息融合模块后面添加了一层带有激活函数的新全连接层来将高维全局语义信息与实体对充分融合。将融合了语义差异与全局语义信息的R-BERT简称为GR-BERT。通过在中文人物关系抽取数据集上进行实验,结果表明新提出的GR-BERT的效果较原始R-BERT取得了显著提升,从而验证了新方法GR-BERT的有效性。 展开更多
关键词 bert模型 自然语言处理 关系抽取 神经网络
在线阅读 下载PDF
基于预训练语言模型的机器翻译最新进展 被引量:9
6
作者 杨滨瑕 罗旭东 孙凯丽 《计算机科学》 CSCD 北大核心 2024年第S01期38-45,共8页
自然语言处理涉及许多重要主题,其中之一是机器翻译。预训练语言模型,如BERT和GPT,是用于处理包括机器翻译在内的各种自然语言处理任务的先进方法。因此,许多研究人员使用预训练语言模型来解决机器翻译问题。为推动研究向前发展,首先概... 自然语言处理涉及许多重要主题,其中之一是机器翻译。预训练语言模型,如BERT和GPT,是用于处理包括机器翻译在内的各种自然语言处理任务的先进方法。因此,许多研究人员使用预训练语言模型来解决机器翻译问题。为推动研究向前发展,首先概述了这一领域的最新进展,包括主要的研究问题和基于各种预训练语言模型的解决方案;其次比较了这些解决方案的动机、共性、差异和局限性;然后总结了训练这类机器翻译模型常用的数据集,以及评估这些模型的指标;最后讨论了进一步的研究方向。 展开更多
关键词 自然语言处理 机器翻译 预训练语言模型 bert GPT
在线阅读 下载PDF
基于BERT模型的源代码漏洞检测技术研究
7
作者 罗乐琦 张艳硕 +2 位作者 王志强 文津 薛培阳 《信息安全研究》 CSCD 北大核心 2024年第4期294-301,共8页
源代码漏洞检测常使用代码指标、机器学习和深度学习等技术.但是这些技术存在无法保留源代码中的句法和语义信息、需要大量专家知识对漏洞特征进行定义等问题.为应对现有技术存在的问题,提出基于BERT(bidirectional encoder representat... 源代码漏洞检测常使用代码指标、机器学习和深度学习等技术.但是这些技术存在无法保留源代码中的句法和语义信息、需要大量专家知识对漏洞特征进行定义等问题.为应对现有技术存在的问题,提出基于BERT(bidirectional encoder representations from transformers)模型的源代码漏洞检测模型.该模型将需要检测的源代码分割为多个小样本,将每个小样本转换成近似自然语言的形式,通过BERT模型实现源代码中漏洞特征的自动提取,然后训练具有良好性能的漏洞分类器,实现Python语言多种类型漏洞的检测.该模型在不同类型的漏洞中实现了平均99.2%的准确率、97.2%的精确率、96.2%的召回率和96.7%的F1分数的检测水平,对比现有的漏洞检测方法有2%~14%的性能提升.实验结果表明,该模型是一种通用的、轻量级的、可扩展的漏洞检测方法. 展开更多
关键词 漏洞检测 深度学习 PYTHON语言 bert模型 自然语言处理
在线阅读 下载PDF
基于BERT的农作物命名实体识别模型研究 被引量:2
8
作者 沈子雷 杜永强 《计算机应用与软件》 北大核心 2024年第6期223-229,共7页
随着数字农业的快速发展,农作物命名实体识别作为农业领域知识图谱构建的基础,成为一种高效率的农作物研究领域识别方法。由于农作物实体识别呈现结构复杂、实体指称不一致、干扰因素多等特征,严重制约了农作物领域实体识别的性能,提出... 随着数字农业的快速发展,农作物命名实体识别作为农业领域知识图谱构建的基础,成为一种高效率的农作物研究领域识别方法。由于农作物实体识别呈现结构复杂、实体指称不一致、干扰因素多等特征,严重制约了农作物领域实体识别的性能,提出一种基于预训练语言模型的实体识别模型,使用BERT为文本中词进行编码、采用双向LSTM(Long-Short Term Memory)获取句子中关键词的上下文,采用CRFs(Conditional Random Fields)捕获词之间的依赖关系,并结合所构建的农作物命名实体识别数据集进行验证。实验证明该模型能够有效对农作物实体进行识别,且性能优于当前已有的实体识别模型。 展开更多
关键词 命名实体识别 bert预训练语言模型 双向LSTM 农作物
在线阅读 下载PDF
基于BERT的电网调度语音识别语言模型研究 被引量:21
9
作者 陈蕾 郑伟彦 +3 位作者 余慧华 傅婧 刘宏伟 夏军强 《电网技术》 EI CSCD 北大核心 2021年第8期2955-2961,共7页
电网调度语音识别是实现智能虚拟电力调度的重要环节,其中语言模型的准确性直接关系到语音识别的效果。提出一种基于BERT的电网调度语音识别语言模型,首先介绍BERT的模型原理,以及利用BERT构建电网调度语音识别语言模型的方法;然后根据... 电网调度语音识别是实现智能虚拟电力调度的重要环节,其中语言模型的准确性直接关系到语音识别的效果。提出一种基于BERT的电网调度语音识别语言模型,首先介绍BERT的模型原理,以及利用BERT构建电网调度语音识别语言模型的方法;然后根据电网调度语言特点,提出对输入电网调度语音识别语言模型的调度语句进行语义特征、关键字特征和命名实体特征提取的方法,提高模型对电网调度语言的适应性;最后通过算例,对所构建的语言模型进行测试,并与其他常用的语言模型进行对比。算例结果表明,考虑了电网调度语言特点的电网调度语音识别语言模型,在语言模型的性能以及电网调度语音识别的准确性上,都有比较明显的优势。 展开更多
关键词 bert 电网调度 语音识别 语言模型
在线阅读 下载PDF
自然语言处理预训练模型的研究综述 被引量:63
10
作者 余同瑞 金冉 +2 位作者 韩晓臻 李家辉 郁婷 《计算机工程与应用》 CSCD 北大核心 2020年第23期12-22,共11页
近年来,深度学习技术被广泛应用于各个领域,基于深度学习的预处理模型将自然语言处理带入一个新时代。预训练模型的目标是如何使预训练好的模型处于良好的初始状态,在下游任务中达到更好的性能表现。对预训练技术及其发展历史进行介绍,... 近年来,深度学习技术被广泛应用于各个领域,基于深度学习的预处理模型将自然语言处理带入一个新时代。预训练模型的目标是如何使预训练好的模型处于良好的初始状态,在下游任务中达到更好的性能表现。对预训练技术及其发展历史进行介绍,并按照模型特点划分为基于概率统计的传统模型和基于深度学习的新式模型进行综述;简要分析传统预训练模型的特点及局限性,重点介绍基于深度学习的预训练模型,并针对它们在下游任务的表现进行对比评估;梳理出具有启发意义的新式预训练模型,简述这些模型的改进机制以及在下游任务中取得的性能提升;总结目前预训练的模型所面临的问题,并对后续发展趋势进行展望。 展开更多
关键词 深度学习 自然语言处理 预处理 词向量 语言模型
在线阅读 下载PDF
SentiBERT:结合情感信息的预训练语言模型 被引量:11
11
作者 杨晨 宋晓宁 宋威 《计算机科学与探索》 CSCD 北大核心 2020年第9期1563-1570,共8页
在大规模无监督语料上预训练的语言模型正逐渐受到自然语言处理领域研究者的关注。现有模型在预训练阶段主要提取文本的语义和结构特征,针对情感类任务的复杂情感特征,在最新的预训练语言模型BERT(双向transformers编码表示)的基础上,... 在大规模无监督语料上预训练的语言模型正逐渐受到自然语言处理领域研究者的关注。现有模型在预训练阶段主要提取文本的语义和结构特征,针对情感类任务的复杂情感特征,在最新的预训练语言模型BERT(双向transformers编码表示)的基础上,提出了一种侧重学习情感特征的预训练方法。在目标领域的预训练阶段,利用情感词典改进了BERT的预训练任务。同时,使用基于上下文的词粒度情感预测任务对掩盖词情感极性进行分类,获取偏向情感特征的文本表征。最后在少量标注的目标数据集上进行微调。实验结果表明,相较于原BERT模型,可将情感任务的精度提升1个百分点,特别是训练样本较少时,能取得更先进的效果。 展开更多
关键词 bert 情感分类 预训练语言模型 多任务学习
在线阅读 下载PDF
基于知识注入的燃气知识双向变换器模型
12
作者 柳晓昱 庄育锋 +2 位作者 赵兴昊 王珂璠 张国开 《中国安全科学学报》 北大核心 2025年第3期204-211,共8页
为提高燃气管网领域的应急管理水平,提出燃气知识双向变换器(Gas-kBERT)模型。该模型结合聊天生成预训练转换器(ChatGPT)扩充的燃气管网领域数据,以及构建的中文燃气语言理解-三元组(CGLU-Spo)和相关语料库,通过改变模型的掩码(MASK)机... 为提高燃气管网领域的应急管理水平,提出燃气知识双向变换器(Gas-kBERT)模型。该模型结合聊天生成预训练转换器(ChatGPT)扩充的燃气管网领域数据,以及构建的中文燃气语言理解-三元组(CGLU-Spo)和相关语料库,通过改变模型的掩码(MASK)机制,成功将领域知识注入模型中。考虑到燃气管网领域的专业性和特殊性,Gas-kBERT在不同规模和内容的语料库上进行预训练,并在燃气管网领域的命名实体识别和分类任务上进行微调。结果表明:与通用的双向变换器(BERT)模型相比,Gas-kBERT在燃气管网领域的文本挖掘任务中F 1值表现出显著的提升。在命名实体识别任务中,F 1值提高29.55%;在文本分类任务中,F 1值提升高达83.33%。由此证明Gas-kBERT模型在燃气管网领域的文本挖掘任务中具有出色的表现。 展开更多
关键词 燃气管网 燃气知识双向变换器(Gas-kbert)模型 自然语言处理(NLP) 知识注入 双向变换器(bert)模型
在线阅读 下载PDF
基于BERT-BiLSTM模型的短文本自动评分系统 被引量:12
13
作者 夏林中 叶剑锋 +3 位作者 罗德安 管明祥 刘俊 曹雪梅 《深圳大学学报(理工版)》 CAS CSCD 北大核心 2022年第3期349-354,共6页
针对短文本自动评分中存在的特征稀疏、一词多义及上下文关联信息少等问题,提出一种基于BERT-BiLSTM(bidirectional encoder representations from transformers-bidirectional long short-term memory)的短文本自动评分模型.使用BERT(b... 针对短文本自动评分中存在的特征稀疏、一词多义及上下文关联信息少等问题,提出一种基于BERT-BiLSTM(bidirectional encoder representations from transformers-bidirectional long short-term memory)的短文本自动评分模型.使用BERT(bidirectional encoder representations from transformers)语言模型预训练大规模语料库习得通用语言的语义特征,通过预训练好的BERT语言模型预微调下游具体任务的短文本数据集习得短文本的语义特征和关键词特定含义,再通过BiLSTM(bidirectional long short-term memory)捕获深层次上下文关联信息,最后将获得的特征向量输入Softmax回归模型进行自动评分.实验结果表明,对比CNN(convolutional neural networks)、CharCNN(character-level CNN)、LSTM(long short-term memory)和BERT等基准模型,基于BERT-BiLSTM的短文本自动评分模型所获的二次加权kappa系数平均值最优. 展开更多
关键词 信号与信息处理 自然语言处理 bert语言模型 短文本自动评分 长短时记忆网络 二次加权kappa系数
在线阅读 下载PDF
匹配预处理对XML查询的优化 被引量:2
14
作者 范通让 王奕 +1 位作者 赵永斌 佟宽章 《计算机工程与应用》 CSCD 北大核心 2009年第19期125-127,156,共4页
在基于匹配预处理的XML查询算法中,利用现有的三种树匹配模型,按照匹配代价高低得出数据集匹配结果。并在此基础上对现有算法加以改进,引入"匹配预处理"功能,进行一系列的实验。结果表明,当数据规模庞大时,该算法去除树中的... 在基于匹配预处理的XML查询算法中,利用现有的三种树匹配模型,按照匹配代价高低得出数据集匹配结果。并在此基础上对现有算法加以改进,引入"匹配预处理"功能,进行一系列的实验。结果表明,当数据规模庞大时,该算法去除树中的无用结点,提高了数据集的查询效率,特别是查全率、查准率以及平均响应时间均令人满意。该算法应用于科技资源数据库的统一检索系统中,实现了资源导航,缩小了查找范围,提高系统的易用度。 展开更多
关键词 可扩展标记语言 树匹配模型 匹配预处理
在线阅读 下载PDF
基于R-BERT-CNN模型的实体关系抽取 被引量:5
15
作者 曹卫东 徐秀丽 《计算机应用与软件》 北大核心 2023年第4期222-229,共8页
针对传统实体关系抽取准确率不高,依赖人工标注且未能充分利用句子和目标实体语义的问题,提出一种预训练卷积神经网络模型(R-BERT-CNN)。将实体级信息融入预训练模型获取目标实体的语义;采用CNN提取句子级的语义信息;连接句子向量、标... 针对传统实体关系抽取准确率不高,依赖人工标注且未能充分利用句子和目标实体语义的问题,提出一种预训练卷积神经网络模型(R-BERT-CNN)。将实体级信息融入预训练模型获取目标实体的语义;采用CNN提取句子级的语义信息;连接句子向量、标签向量和目标实体向量,获得全局信息;通过softmax分类器抽取实体关系。实验结果显示,在SemEval 2010 Task 8数据集上F1值达到了89.51%,比Attention-CNN、Att-Pooling-CNN模型分别提高3.61百分点和1.51百分点;比单独获取句子语义或目标实体语义的R-Bert、Bert-CNN模型分别提高2.61百分点和0.97百分点,训练时间分别缩短15和19 min。 展开更多
关键词 预训练模型 bert 卷积神经网络 自然语言处理 关系抽取
在线阅读 下载PDF
基于ProtBert预训练模型的HLA-Ⅰ和多肽的结合预测算法 被引量:1
16
作者 周丰丰 张亚琪 《吉林大学学报(理学版)》 CAS 北大核心 2023年第3期651-657,共7页
针对现有的第Ⅰ类HLA(HLA-Ⅰ)分子与多肽结合亲和力预测算法在特征构造时依赖传统序列评分函数的问题,为突破用经典机器学习算法构造氨基酸序列特征的局限性,提出一种基于蛋白质预训练模型ProtBert的HLA-Ⅰ与多肽的结合预测算法ProHLAⅠ... 针对现有的第Ⅰ类HLA(HLA-Ⅰ)分子与多肽结合亲和力预测算法在特征构造时依赖传统序列评分函数的问题,为突破用经典机器学习算法构造氨基酸序列特征的局限性,提出一种基于蛋白质预训练模型ProtBert的HLA-Ⅰ与多肽的结合预测算法ProHLAⅠ.该算法利用生命体语言与文本语言在组成上的共性,将氨基酸序列类比句子,通过整合ProtBert预训练模型、BiLSTM编码和注意力机制的网络结构优势,对HLA-Ⅰ序列和多肽序列进行特征提取,从而实现HLA-Ⅰ独立于位点的多肽结合预测.实验结果表明,该模型在两组独立测试集中均取得了最优性能. 展开更多
关键词 HLA-Ⅰ结合肽预测 自然语言处理 注意力机制 bert模型 双向长短期记忆模型(BiLSTM)
在线阅读 下载PDF
ALICE:一种面向中文科技文本分析的预训练语言表征模型 被引量:3
17
作者 王英杰 谢彬 李宁波 《计算机工程》 CAS CSCD 北大核心 2020年第2期48-52,58,共6页
深度学习模型应用于自然语言处理任务时依赖大型、高质量的人工标注数据集。为降低深度学习模型对大型数据集的依赖,提出一种基于BERT的中文科技自然语言处理预训练模型ALICE。通过对遮罩语言模型进行改进并将其与命名实体级遮罩相结合... 深度学习模型应用于自然语言处理任务时依赖大型、高质量的人工标注数据集。为降低深度学习模型对大型数据集的依赖,提出一种基于BERT的中文科技自然语言处理预训练模型ALICE。通过对遮罩语言模型进行改进并将其与命名实体级遮罩相结合,改善基础模型在下游任务中的表现,使其学习到的语言表征更贴合中文的语言特性。实验结果表明,与BERT模型相比,ALICE模型对于中文科技文本的分类准确率和命名实体识别的F1值分别提高1.2%和0.8%。 展开更多
关键词 预训练模型 迁移学习 bert模型 文本分类 命名实体识别 自然语言推断
在线阅读 下载PDF
基于BERT字向量和TextCNN的农业问句分类模型分析 被引量:14
18
作者 鲍彤 罗瑞 +2 位作者 郭婷 贵淑婷 任妮 《南方农业学报》 CAS CSCD 北大核心 2022年第7期2068-2076,共9页
【目的】研究不同词向量和深度学习模型组合对农业问句分类结果的影响,为构建农业智能问答系统提供技术支撑。【方法】通过爬虫获取农业种植网等网站的问答数据,选择20000条问句进行人工标注,构建农业问句分类语料库。采用BERT对农业问... 【目的】研究不同词向量和深度学习模型组合对农业问句分类结果的影响,为构建农业智能问答系统提供技术支撑。【方法】通过爬虫获取农业种植网等网站的问答数据,选择20000条问句进行人工标注,构建农业问句分类语料库。采用BERT对农业问句进行字符编码,利用文本卷积神经网络(TextCNN)提取问句高维度特征对农业问句进行分类。【结果】在词向量对比实验中,BERT字向量与TextCNN结合时农业问句分类F1值达93.32%,相比Word2vec字向量提高2.1%。在深度学习模型的分类精度对比方面,TextCNN与Word2vec和BERT字向量结合的F1值分别达91.22%和93.32%,均优于其他模型。在农业问句的细分试验中,BERT-TextCNN在栽培技术、田间管理、土肥水管理和其他4个类别中分类F1值分别为86.06%、90.56%、95.04%和85.55%,均优于其他深度学习模型。超参数设置方面,BERT-TextCNN农业问句分类模型卷积核大小设为[3,4,5]、学习率设为5e-5、迭代次数设为5时效果最优,该模型在数据样本不均衡的情况下,对于农业问句的平均分类准确率依然能达93.00%以上,可满足农业智能问答系统的问句分类需求。【建议】通过阿里NLP等开源平台提升数据标注质量;在分类过程中补充词频和文档特征,提高模型分类精度;农业相关政府职能部门加强合作,积极探索农业技术数字化推广和服务新模式。 展开更多
关键词 农业问句 智能问答系统 问句分类 预训练语言模型(bert) 文本卷积神经网络
在线阅读 下载PDF
基于BERT的混合字词特征中文文本摘要模型 被引量:5
19
作者 劳南新 王帮海 《计算机应用与软件》 北大核心 2022年第6期258-264,296,共8页
BERT预训练语言模型在一系列自然语言处理问题上取得了突破性进展,对此提出探究BERT预训练模型在中文文本摘要上的应用。探讨文本摘要信息论框架和ROUGE评分的关系,从信息论角度分析中文词级粒度表示和字级粒度表示的信息特征,根据文本... BERT预训练语言模型在一系列自然语言处理问题上取得了突破性进展,对此提出探究BERT预训练模型在中文文本摘要上的应用。探讨文本摘要信息论框架和ROUGE评分的关系,从信息论角度分析中文词级粒度表示和字级粒度表示的信息特征,根据文本摘要信息压缩的特性,提出采用全词遮罩(Whole Word Masking)的中文预训练语言模型BERT_wwm作为编码器提取词级粒度信息特征,采用多层Transformer作为解码器以字为粒度生成摘要的混合字词特征中文文本摘要模型。分别以BERT_base_Chinese、BERT_wwm_Chinese、BERT_wwm_ext_Chinese和RoBERTa_wwm_ext_Chinese四种预训练语言模型作为中文词级信息特征编码器,在LCSTS数据集上进行实验,采用ROUGE作为评价指标。结果表明,RoBERTa_wwm_ext_Chinese+Transformer的编码器-解码器框架的ROUGE-1、ROUGE-2和ROUGE-L的F1评分分别达到了44.60、32.33和41.37,性能超过了HWC+Transformer方法。 展开更多
关键词 中文文本摘要 信息论 bert语言模型 混合字词特征
在线阅读 下载PDF
基于BERT和TextCNN的智能制造成熟度评估方法 被引量:5
20
作者 张淦 袁堂晓 +1 位作者 汪惠芬 柳林燕 《计算机集成制造系统》 EI CSCD 北大核心 2024年第3期852-863,共12页
随着智能制造2025目标的临近,企业为了解自身能力水平纷纷加入到智能制造成熟度评估的行列中。然而,由于智能制造成熟度评估标准的复杂性,企业缺乏其对行业水平的了解,导致企业贸然申请,浪费自身时间的同时又占用大量评估资源。鉴于此,... 随着智能制造2025目标的临近,企业为了解自身能力水平纷纷加入到智能制造成熟度评估的行列中。然而,由于智能制造成熟度评估标准的复杂性,企业缺乏其对行业水平的了解,导致企业贸然申请,浪费自身时间的同时又占用大量评估资源。鉴于此,设计了一种新的评估流程,采用文本处理算法对整个评估过程进行了重构,通过利用国标文件中智能制造成熟度评估标准,将其作为训练集,采用基于预训练语言模型与文本神经网络(BERT+TextCNN)相结合的智能评估算法代替人工评估。在真实的企业智能制造数据集上的验证表明,当BERT+TextCNN评估模型在卷积核为[2,3,4]、迭代次数为6次、学习率为3e-5时,对智能制造成熟度进行评估,准确率达到85.32%。这表明所设计的评估方法能够较准确地帮助企业完成智能制造成熟度自评估,有助于企业了解自身智能制造能力水平,制定正确的发展方向。 展开更多
关键词 智能制造成熟度模型 bert预训练语言模型 文本卷积神经网络 评估过程重构
在线阅读 下载PDF
上一页 1 2 3 下一页 到第
使用帮助 返回顶部