期刊文献+
共找到29篇文章
< 1 2 >
每页显示 20 50 100
基于提示学习增强BERT的理解能力
1
作者 陈亚当 杨刚 +1 位作者 王铎霖 余文斌 《信息技术》 2024年第6期87-93,共7页
提示学习旨在利用提示模板减小语言模型的预训练任务和下游任务间的差距。其难点在于提示模板的设计,为此,文中在构造提示模板的过程中,提出一个通过自动搜索离散提示对连续提示优化的新方法。其中,自动搜索提示基于双向Transformer编码... 提示学习旨在利用提示模板减小语言模型的预训练任务和下游任务间的差距。其难点在于提示模板的设计,为此,文中在构造提示模板的过程中,提出一个通过自动搜索离散提示对连续提示优化的新方法。其中,自动搜索提示基于双向Transformer编码器(Bidirectional Encoder Representation from Transformers, BERT)的预训练任务掩码语言模型训练,连续提示优化是训练自动搜索输出的离散提示在连续空间内的映射张量,根据损失函数对提示模板进行训练。实验表明,在公共基准SuperGLUE中,基于提示学习的BERT相比于原始的BERT模型在准确率和F1值上均有显著的提升。 展开更多
关键词 提示学习 双向Transformer编码器 自然语言处理 连续提示优化 掩码语言模型
在线阅读 下载PDF
改进孪生BERT的石油钻井文献相似度分析研究 被引量:2
2
作者 张岩 王斌 +1 位作者 杨庆川 李玮 《吉林大学学报(信息科学版)》 CAS 2022年第2期188-197,共10页
针对传统方法在石油钻井领域由于检索词不标准、语义模糊导致检索结果偏差较大的问题,提出一种基于BERT(Bidirectional Encoder Representation from Transformers)孪生网络模型的注意力池化方法以提高文献相似度评估的准确率。首先使... 针对传统方法在石油钻井领域由于检索词不标准、语义模糊导致检索结果偏差较大的问题,提出一种基于BERT(Bidirectional Encoder Representation from Transformers)孪生网络模型的注意力池化方法以提高文献相似度评估的准确率。首先使用爬虫技术采集石油钻井文献并清洗整理,然后利用5类石油钻井文献数据集评估指标对样本进行打分标注,最后结合钻井文献数据集特征,提出基于孪生BERT网络的注意力池化方法,对多特征样本进行整体语义表达。实验结果表明,相较于常规的池化方法,该模型能提升石油钻井文献相似度度量的效果,并具有一定的泛化性能。 展开更多
关键词 文献相似度 bert网络 石油钻井文献 注意力池化
在线阅读 下载PDF
融合SikuBERT模型与MHA的古汉语命名实体识别 被引量:2
3
作者 陈雪松 詹子依 王浩畅 《吉林大学学报(信息科学版)》 CAS 2023年第5期866-875,共10页
针对传统的命名实体识别方法无法充分学习古汉语复杂的句子结构信息以及在长序列特征提取过程中容易带来信息损失的问题,提出一种融合SikuBERT(Siku Bidirectional Encoder Representation from Transformers)模型与MHA(Multi-Head Atte... 针对传统的命名实体识别方法无法充分学习古汉语复杂的句子结构信息以及在长序列特征提取过程中容易带来信息损失的问题,提出一种融合SikuBERT(Siku Bidirectional Encoder Representation from Transformers)模型与MHA(Multi-Head Attention)的古汉语命名实体识别方法。首先,利用SikuBERT模型对古汉语语料进行预训练,将训练得到的信息向量输入BiLSTM(Bidirectional Long Short-Term Memory)网络中提取特征,再将BiLSTM层的输出特征通过MHA分配不同的权重减少长序列的信息损失,最后通过CRF(Conditional Random Field)解码得到预测的序列标签。实验表明,与常用的BiLSTM-CRF、 BERT-BiLSTM-CRF等模型相比,该方法的F_(1)值有显著提升,证明了该方法能有效提升古汉语命名实体识别的效果。 展开更多
关键词 古汉语 命名实体识别 Sikubert模型 多头注意力机制
在线阅读 下载PDF
基于BERT-BiGRU-CNN模型的短文本分类研究 被引量:3
4
作者 陈雪松 邹梦 《吉林大学学报(信息科学版)》 CAS 2023年第6期1048-1053,共6页
针对传统语言模型不能解决深层双向表征和分类模型不能充分捕获文本显著特征的问题,提出了一种基于BERT-BiGRU-CNN(Bidirectional Encoder Representation from Transformers-Bidirectional Gating Recurrent Unit-Convolutional Neural... 针对传统语言模型不能解决深层双向表征和分类模型不能充分捕获文本显著特征的问题,提出了一种基于BERT-BiGRU-CNN(Bidirectional Encoder Representation from Transformers-Bidirectional Gating Recurrent Unit-Convolutional Neural Networks)的文本分类模型。首先,该模型使用BERT预训练语言模型进行文本表示;其次,将BERT的输出数据输入BiGRU中,以捕获文本的全局语义信息;然后,将BiGRU层的结果输入CNN中,捕获文本局部语义特征;最后,将特征向量输入Softmax层得到分类结果。实验采用中文新闻文本标题数据集,结果表明,基于BERT-BiGRU-CNN的文本分类模型在数据集上的F_(1)值达到0.948 5,优于其他基线模型,证明了BERT-BiGRU-CNN模型可提升短文本的分类性能。 展开更多
关键词 文本分类 bert预训练模型 双向门控循环单元 卷积神经网络
在线阅读 下载PDF
基于BERT-CNN编码特征融合的实体关系联合抽取方法 被引量:2
5
作者 丁建立 苏伟 《中国民航大学学报》 CAS 2023年第2期47-53,共7页
针对现有实体关系抽取模型结构复杂且抽取效果欠佳的问题,提出基于预训练的BERT(bidirectional encoder representation from transformers)与CNN(convolutional neural network)编码特征融合的实体关系联合抽取方法。首先,基于BERT-CN... 针对现有实体关系抽取模型结构复杂且抽取效果欠佳的问题,提出基于预训练的BERT(bidirectional encoder representation from transformers)与CNN(convolutional neural network)编码特征融合的实体关系联合抽取方法。首先,基于BERT-CNN编码的句子向量预测主语的首尾位置;其次,将预测的首尾位置索引句子中的特征向量作为预测主语的首尾向量,再将预测的主语首尾向量采用乘积方式进行特征融合得到主语向量;然后,将主语向量与句子向量以乘积方式融合得到新的句子编码向量,进而指导不同关系下宾语首尾位置的预测,得到实体关系三元组。为了验证模型效果,将本模型与其他类似算法模型在NYT与WebNLG公开数据集上进行对比实验,其准确率、召回率均优于对比模型且F1值分别达到92.75%与93.19%。 展开更多
关键词 bert CNN 特征融合 二分类 实体关系联合抽取 实体关系三元组
在线阅读 下载PDF
基于ALBERT的网络威胁情报命名实体识别 被引量:1
6
作者 周景贤 王曾琪 《陕西科技大学学报》 北大核心 2023年第1期187-195,共9页
网络威胁情报实体识别是网络威胁情报分析的关键,针对传统词嵌入无法表征一词多义而难以有效识别网络威胁情报实体关键信息,同时面临指数级增长的威胁情报,识别模型的效率亟待提高等问题,提出一种基于ALBERT的网络威胁情报命名实体识别... 网络威胁情报实体识别是网络威胁情报分析的关键,针对传统词嵌入无法表征一词多义而难以有效识别网络威胁情报实体关键信息,同时面临指数级增长的威胁情报,识别模型的效率亟待提高等问题,提出一种基于ALBERT的网络威胁情报命名实体识别模型.该模型首先使用ALBERT提取威胁情报动态特征词向量,然后将特征词向量输入到双向长短期记忆网络(BiLSTM)层得到句子中每个词对应的标签,最后在条件随机场(CRF)层修正并以最大概率输出序列标签.识别模型对比实验结果显示,提出模型的F1值为92.21%,明显优于其他模型.在识别准确率相同的情况下,提出模型的时间和资源成本也较低,适用于网络威胁情报领域海量高效的实体识别任务. 展开更多
关键词 网络威胁情报 命名实体识别 bert ALbert 双向长短期记忆网络 条件随机场
在线阅读 下载PDF
基于领域BERT模型的服务文本分类方法 被引量:2
7
作者 闫云飞 孙鹏 +2 位作者 张杰勇 马钰棠 赵亮 《空军工程大学学报》 CSCD 北大核心 2023年第1期103-111,共9页
针对BERT模型领域适应能力较差,无法解决训练数据类别数量不均衡和分类难易不均衡等问题,提出一种基于WBBI模型的服务文本分类方法。首先通过TF-IDF算法提取领域语料中的词汇扩展BERT词表,提升了BERT模型的领域适应性;其次,通过建立的BE... 针对BERT模型领域适应能力较差,无法解决训练数据类别数量不均衡和分类难易不均衡等问题,提出一种基于WBBI模型的服务文本分类方法。首先通过TF-IDF算法提取领域语料中的词汇扩展BERT词表,提升了BERT模型的领域适应性;其次,通过建立的BERT-BiLSTM模型实现服务文本分类;最后,针对数据集的类别数量不均衡和分类难易不均衡问题,在传统焦点损失函数的基础上提出了一种可以根据样本不均衡性特点动态调整的变焦损失函数。为了验证WBBI模型的性能,在互联网获取的真实数据集上进行了大量对比试验,实验结果表明:WBBI模型与通用文本分类模型TextCNN、BiLSTM-attention、RCNN、Transformer相比Macro-F1值分别提高了4.29%、6.59%、5.3%和43%;与基于BERT的文本分类模型BERT-CNN、BERT-DPCNN相比,WBBI模型具有更快的收敛速度和更好的分类效果。 展开更多
关键词 服务分类 文本分类 bert模型 双向长短时记忆网络(BiLSTM) 焦点损失函数
在线阅读 下载PDF
基于BERT的施工安全事故文本命名实体识别方法 被引量:1
8
作者 孙文涵 王俊杰 《电视技术》 2023年第1期20-26,共7页
为解决传统施工安全管理中对事故报告信息分析效率低的问题,利用自然语言处理(Natural Language Processing,NLP)技术,提出基于双向编码器表示(Bidirectional Encoder Representations from Transformers,BERT)的施工安全事故文本命名... 为解决传统施工安全管理中对事故报告信息分析效率低的问题,利用自然语言处理(Natural Language Processing,NLP)技术,提出基于双向编码器表示(Bidirectional Encoder Representations from Transformers,BERT)的施工安全事故文本命名实体识别方法。以自建的施工安全事故领域实体标注语料数据集为研究对象,首先利用BERT预训练模型获取动态字向量,然后采用双向长短时记忆网络-注意力机制-条件随机场(BiLSTM-Attention-CRF)对前一层输出的语义编码进行序列标注和解码以获取最优文本标签序列。实验结果表明,该模型在自建数据集上的F1值分数为92.58%,较基准模型BiLSTM-CRF提升了4.19%;该方法对事故时间等5类实体识别F1值均可达到91%以上,验证了该方法对施工安全事故实体识别的有效性,说明模型可用于实际施工知识管理中并指导建筑安全管理的安全培训。 展开更多
关键词 双向编码器表示(bert) 施工安全管理 命名实体识别 知识图谱 知识管理
在线阅读 下载PDF
基于BERT提示的矿产资源管理规则检测方法研究
9
作者 胡容波 张广发 +1 位作者 王雅雯 方金云 《高技术通讯》 CAS 2023年第11期1136-1145,共10页
政策文本中管理规则检测是一个新兴的自然语言处理任务,在政策冲突检测、政策智能检索、事项合规性检查以及政务系统需求工程等方面具有重要应用价值。本文以矿产资源管理规则检测为研究目标,提出基于转换器的双向编码表征(BERT)提示的... 政策文本中管理规则检测是一个新兴的自然语言处理任务,在政策冲突检测、政策智能检索、事项合规性检查以及政务系统需求工程等方面具有重要应用价值。本文以矿产资源管理规则检测为研究目标,提出基于转换器的双向编码表征(BERT)提示的政策文本管理规则检测方法。该方法通过构建融入管理规则信息、带有[MASK]标记的提示模板,可以充分发挥掩码语言模型的自编码优势,有效激发BERT模型提取与管理规则相关的文本特征,增加模型稳定性;提出基于BERT模型进行管理规则检测的新应用模式,放弃使用[CLS]隐向量而采用[MASK]隐向量进行分类预测;在矿产资源管理规则数据集上的实验结果表明,该方法的准确率、宏平均F_(1)值、加权平均F_(1)值均优于基线方法,在公开数据集上的实验结果也表明了该方法的有效性。 展开更多
关键词 矿产资源 管理规则 文本分类 基于转换器的双向编码表征(bert) 提示学习
在线阅读 下载PDF
基于BERT模型的检验检测领域命名实体识别
10
作者 苏展鹏 李洋 +4 位作者 张婷婷 让冉 张龙波 蔡红珍 邢林林 《高技术通讯》 CAS 2022年第7期749-755,共7页
针对检验检测领域存在的实体语料匮乏、实体嵌套严重、实体类型冗杂繁多等问题,提出了一种结合双向编码器表示法(BERT)预处理语言模型、双向门控循环单元(BIGRU)双向轻编码模型和随机条件场(CRF)的命名实体识别方法。BERT-BIGRU-CRF(BGC... 针对检验检测领域存在的实体语料匮乏、实体嵌套严重、实体类型冗杂繁多等问题,提出了一种结合双向编码器表示法(BERT)预处理语言模型、双向门控循环单元(BIGRU)双向轻编码模型和随机条件场(CRF)的命名实体识别方法。BERT-BIGRU-CRF(BGC)模型首先利用BERT预处理模型结合上下文语义训练词向量;然后经过BIGRU层双向编码;最后在CRF层计算后输出最优结果。利用含有检测组织、检测项目、检测标准和检测仪器4种命名实体的检验检测领域数据集来训练模型,结果表明BGC模型的准确率、召回率和F1值都优于不加入BERT的对比模型。同时对比BERT-BILSTM-CRF模型,BGC模型在训练时间上缩短了6%。 展开更多
关键词 命名实体识别 双向编码器表示法(bert) 检验检测领域 深度学习 双向门控循环单元(BIGRU)
在线阅读 下载PDF
基于BERT的中文健康问句分类研究
11
作者 徐星昊 《电视技术》 2022年第3期67-70,共4页
现有的医学健康问句数据大多数都是短文本,但短文本存在特征稀疏的局限性。对此,提出一种融合特征的方法,首先通过基于变换器的双向编码器表征技术(Bidirectional Encoder Representations from Transformers,BERT)字符级特征的输出取... 现有的医学健康问句数据大多数都是短文本,但短文本存在特征稀疏的局限性。对此,提出一种融合特征的方法,首先通过基于变换器的双向编码器表征技术(Bidirectional Encoder Representations from Transformers,BERT)字符级特征的输出取平均并与BERT句子级特征的输出进行拼接,然后使用分类器进行分类。实验结果表明,本模型可以有效地提高模型提取特征的能力,在处理Kesci公众健康问句分类数据集上F1值达到83.92%,在处理中文健康公众问句数据集时F1值达到87%。 展开更多
关键词 基于变换器的双向编码器表征(bert) 健康问句 字符级特征 句子级特征
在线阅读 下载PDF
基于BERT-BiLSTM-CRF的电力集控安全隐患数据处理
12
作者 张滈辰 屈红军 +1 位作者 牛雪莹 耿琴兰 《通信电源技术》 2023年第21期24-27,共4页
为了提高电力集控系统安全隐患数据处理的效果,提出一种基于来自变换器的双向编码器表示-双向长短期记忆网络-条件随机场(Bidirectional Encoder Representations from Transformers-Bidirectional Long Short Term Memory-Conditional ... 为了提高电力集控系统安全隐患数据处理的效果,提出一种基于来自变换器的双向编码器表示-双向长短期记忆网络-条件随机场(Bidirectional Encoder Representations from Transformers-Bidirectional Long Short Term Memory-Conditional Random Fields,BERT-BiLSTM-CRF)的电力集控安全隐患数据处理方法。构建电力集控隐患数据检测模型,应用改进长短时记忆网络(Long Short Term Memory,LSTM)来构建电力集控安全隐患数据修复网络,实现电力集控安全隐患数据处理。实验结果表明,采用所提方法能够更好地完成电力集控安全隐患数据检测与修复,应用效果较好。 展开更多
关键词 来自变换器的双向编码器表示(bert) 双向长短期记忆网络(BiLSTM) 条件随机场(CRF) 电力集控系统 安全隐患数据检测 数据修复
在线阅读 下载PDF
基于双向编码表示转换的双模态软件分类模型
13
作者 付晓峰 陈威岐 +1 位作者 孙曜 潘宇泽 《浙江大学学报(工学版)》 EI CAS CSCD 北大核心 2024年第11期2239-2246,共8页
针对已有方法在软件分类方面只考虑单一分类因素和精确率较低的不足,提出基于双向编码表示转换(BERT)的双模态软件分类方法.该方法遵循最新的国家标准对软件进行分类,通过集成基于代码的BERT(CodeBERT)和基于掩码语言模型的纠错BERT(Mac... 针对已有方法在软件分类方面只考虑单一分类因素和精确率较低的不足,提出基于双向编码表示转换(BERT)的双模态软件分类方法.该方法遵循最新的国家标准对软件进行分类,通过集成基于代码的BERT(CodeBERT)和基于掩码语言模型的纠错BERT(MacBERT)双向编码的优势,其中CodeBERT用于深入分析源码内容,MacBERT处理文本描述信息如注释和文档,利用这2种双模态信息联合生成词嵌入.结合卷积神经网络(CNN)提取局部特征,通过提出的交叉自注意力机制(CSAM)融合模型结果,实现对复杂软件系统的准确分类.实验结果表明,本文方法在同时考虑文本和源码数据的情况下精确率高达93.3%,与从奥集能和gitee平台收集并处理的数据集上训练的BERT模型和CodeBERT模型相比,平均精确率提高了5.4%.这表明了双向编码和双模态分类方法在软件分类中的高效性和准确性,证明了提出方法的实用性. 展开更多
关键词 软件分类 双向编码表示转换(bert) 卷积神经网络 双模态 交叉自注意力机制
在线阅读 下载PDF
基于多模态交叉互动的情感识别算法
14
作者 张慧 李菲菲 《电子科技》 2024年第10期81-87,共7页
由于单模态情感识别的局限性,研究者已将其研究重点转移到多模态情感识别领域。多模态情感识别围绕最优提取每个模态的特征以及有效融合所提取出的特征这两方面问题进行研究。文中提出了一种基于多模态交叉互动的情感识别方法,以捕获模... 由于单模态情感识别的局限性,研究者已将其研究重点转移到多模态情感识别领域。多模态情感识别围绕最优提取每个模态的特征以及有效融合所提取出的特征这两方面问题进行研究。文中提出了一种基于多模态交叉互动的情感识别方法,以捕获模态表达的多样性。各种模态的编辑器分别提取具有情感信息的特征,模态间注意力机制堆叠的交互模块建模视觉-文本-音频之间的潜在关系。在基于文本、语音和图像的CMU-MOSI和CMU-MOSEI情感识别数据集上进行实验,结果显示在Acc2(Accuracy2)、Acc7(Accuracy7)、F1、MAE(Mean Absolute Error)和Corr(Correlation)这5个指标上文中方法分别取得了86.5%、47.7%、86.4%、0.718、0.776和83.4%、51.5%、83.4%、0.566、0.737的成绩,证明该方法性能具有显著提升,同时也验证了模态间交叉映射互相表示机制比各单模态表示方法具有更好的性能。 展开更多
关键词 多模态 特征融合 情感识别 情感分析 注意力机制 变压器 变压器的双向编码器表示 交互映射
在线阅读 下载PDF
云边协同联邦计算方法在铁路信号系统故障检测中的应用
15
作者 王延峰 谢泽会 《信息安全研究》 CSCD 北大核心 2024年第8期753-759,共7页
铁路信号系统是当下社会交通运力的主要承载系统,其对安全性有极高的要求.而由于铁路信号系统容易受到外界多种因素影响,易出现故障,需要设计一种针对铁路信号系统的实时故障检测方案,进而才能采取有效的维护措施.不同于传统的机器学习(... 铁路信号系统是当下社会交通运力的主要承载系统,其对安全性有极高的要求.而由于铁路信号系统容易受到外界多种因素影响,易出现故障,需要设计一种针对铁路信号系统的实时故障检测方案,进而才能采取有效的维护措施.不同于传统的机器学习(ML)故障检测方法,采用双向编码器表示转换器(BERT)深度学习(DL)模型进行实时的智能故障检测.该模型能够在处理故障检测任务时获取双向上下文的理解,从而更准确地捕捉句子中的语义关系,使得其对故障描述的理解更为精准.采用了云边协同的联邦计算方法,使得各铁路运营单位的数据可以在本地进行初步处理,然后将汇总后的梯度上传至云端进行模型训练,最终将训练得到的模型参数发送回各边缘设备,实现模型的更新,突破了模型的训练数据分散的限制,同时允许多个铁路运营单位在保持数据隐私的前提下共同训练BERT模型.研究结果表明,采用联邦边云计算方法进行BERT模型训练,在解决数据保密性问题的同时,有效提升了轨道交通故障检测的准确性与可靠性,优于目前在铁路信号系统领域已有的故障检测方案. 展开更多
关键词 铁路信号系统 故障检测 云边协同计算 联邦学习 双向编码表示转换器
在线阅读 下载PDF
基于改进PageRank算法的文献相关度排序方法 被引量:2
16
作者 聂永丹 王斌 张岩 《吉林大学学报(信息科学版)》 CAS 2022年第3期464-470,共7页
科技文献检索时以专业角度给出合理的相关度排序是一项非常重要工作,传统PageRank算法采用了平均分配相似性权重的方式,但其会产生文献排序结果不合理的问题。为此,提出一种将深度学习方法与PageRank相结合的算法,提高文献相关度排序的... 科技文献检索时以专业角度给出合理的相关度排序是一项非常重要工作,传统PageRank算法采用了平均分配相似性权重的方式,但其会产生文献排序结果不合理的问题。为此,提出一种将深度学习方法与PageRank相结合的算法,提高文献相关度排序的可靠性。首先,使用具有注意力池化的孪生BERT(Bidirectional Encoder Representation from Transformers)深度学习网络计算文献与引文的相似度;然后,对文献与其所包含引文间的相似度进行规范化处理;最后,将标准化后的相似度作为分配权重对引文网络计算排序。实验结果表明,相较于传统的PageRank算法,该方法检索结果的相关度提升6%以上,因此更适合应用于科技文献的引文网络分析。 展开更多
关键词 PAGERANK算法 文献相似度 bert模型 文献排序
在线阅读 下载PDF
融合语义路径与语言模型的元学习知识推理框架 被引量:3
17
作者 段立 封皓君 +2 位作者 张碧莹 刘江舟 刘海潮 《电子与信息学报》 EI CSCD 北大核心 2022年第12期4376-4383,共8页
针对传统推理方法无法兼顾计算能力与可解释性,同时在小样本场景下难以实现知识的快速学习等问题,该文设计一款融合语义路径与双向Transformer编码(BERT)的模型无关元学习(MAML)推理框架,该框架由基训练和元训练两个阶段构成。基训练阶... 针对传统推理方法无法兼顾计算能力与可解释性,同时在小样本场景下难以实现知识的快速学习等问题,该文设计一款融合语义路径与双向Transformer编码(BERT)的模型无关元学习(MAML)推理框架,该框架由基训练和元训练两个阶段构成。基训练阶段,将图谱推理实例用语义路径表示,并代入BERT模型微调计算链接概率,离线保存推理经验;元训练阶段,该框架基于多种关系的基训练过程获得梯度元信息,实现初始权值优化,完成小样本下知识的快速学习。实验表明,基训练推理框架在链接预测与事实预测任务中多项指标高于平均水平,同时元学习框架可以实现部分小样本推理问题的快速收敛。 展开更多
关键词 知识推理 语义路径 双向Transformer编码表示 模型无关元学习
在线阅读 下载PDF
基于Deep Q-Learning的抽取式摘要生成方法
18
作者 王灿宇 孙晓海 +4 位作者 吴叶辉 季荣彪 李亚东 张少如 杨士豪 《吉林大学学报(信息科学版)》 CAS 2023年第2期306-314,共9页
为解决训练过程中需要句子级标签的问题,提出一种基于深度强化学习的无标签抽取式摘要生成方法,将文本摘要转化为Q-learning问题,并利用DQN(Deep Q-Network)学习Q函数。为有效表示文档,利用BERT(Bidirectional Encoder Representations ... 为解决训练过程中需要句子级标签的问题,提出一种基于深度强化学习的无标签抽取式摘要生成方法,将文本摘要转化为Q-learning问题,并利用DQN(Deep Q-Network)学习Q函数。为有效表示文档,利用BERT(Bidirectional Encoder Representations from Transformers)作为句子编码器,Transformer作为文档编码器。解码器充分考虑了句子的信息富集度、显著性、位置重要性以及其与当前摘要之间的冗余程度等重要性等信息。该方法在抽取摘要时不需要句子级标签,可显著减少标注工作量。实验结果表明,该方法在CNN(Cable News Network)/DailyMail数据集上取得了最高的Rouge-L(38.35)以及可比较的Rouge-1(42.07)和Rouge-2(18.32)。 展开更多
关键词 抽取式文本摘要 bert模型 编码器 深度强化学习
在线阅读 下载PDF
基于对抗训练与词性推理的文本情感分析
19
作者 邵党国 胡永健 《陕西理工大学学报(自然科学版)》 2023年第3期23-30,共8页
针对现有的方面级情感分析方法忽略或没有充分提取句子长距离依赖关系和上下文信息,以及模型鲁棒性和泛化能力较低等问题,提出了一种基于投影梯度下降(PGD)对抗训练和词性推理的方面级情感分析模型PGDBD。首先利用PGD攻击让模型对抗训练... 针对现有的方面级情感分析方法忽略或没有充分提取句子长距离依赖关系和上下文信息,以及模型鲁棒性和泛化能力较低等问题,提出了一种基于投影梯度下降(PGD)对抗训练和词性推理的方面级情感分析模型PGDBD。首先利用PGD攻击让模型对抗训练,进行正则化处理,增强模型的泛化能力;其次使用BERT生成的词向量取代深层金字塔卷积神经网络(DPCNN)模型本身的词向量,BERT能够捕捉句子中更长距离的依赖关系;最后,通过词性推理层提取方面词附近重要的局部特征,利用DPCNN对全局特征进行提取,获取更全面的上下文信息;将局部特征和全局特征进行融合,构成基于对抗训练和词性推理的情感分类模型。通过在4个公共数据集上进行实验,结果表明该模型的性能相较于其他基线模型有明显的提升。 展开更多
关键词 情感分析 对抗训练 词性推理 bert 深层金字塔卷积神经网络
在线阅读 下载PDF
基于跨度回归的中文事件触发词抽取 被引量:3
20
作者 赵宇豪 陈艳平 +1 位作者 黄瑞章 秦永彬 《应用科学学报》 CAS CSCD 北大核心 2023年第1期95-106,共12页
在中文事件触发词抽取任务中,基于词的模型会受到分词带来的错误,而基于字符的模型则难以捕获触发词的结构信息和上下文语义信息,为此提出了一种基于跨度回归的触发词抽取方法。该方法考虑到句子中特定长度的字符子序列(跨度)可能构成... 在中文事件触发词抽取任务中,基于词的模型会受到分词带来的错误,而基于字符的模型则难以捕获触发词的结构信息和上下文语义信息,为此提出了一种基于跨度回归的触发词抽取方法。该方法考虑到句子中特定长度的字符子序列(跨度)可能构成一个事件触发词,用基于Transformer的双向编码器的预训练语言模型获取句子的特征表示,进而生成触发词候选跨度;然后用一个分类器过滤低置信度的候选跨度,通过回归调整候选跨度的边界来准确定位触发词;最后对调整后的候选跨度进行分类得到抽取结果。在ACE2005中文数据集上的实验结果表明:基于跨度回归的方法对触发词识别任务的F1值为73.20%,对触发词分类任务的F1值为71.60%,优于现有模型;并与仅基于跨度的方法进行对比,验证了对跨度边界进行回归调整可以提高事件触发词检测的准确性。 展开更多
关键词 事件抽取 事件触发词 基于Transformer的双向编码器 特征表示 跨度表示 回归调整
在线阅读 下载PDF
上一页 1 2 下一页 到第
使用帮助 返回顶部