期刊文献+
共找到23篇文章
< 1 2 >
每页显示 20 50 100
融合词典的BERT-BiGRU的藏语句子情感分类方法
1
作者 公确多杰 索南才让 才藏太 《计算机工程与设计》 北大核心 2025年第3期918-926,共9页
针对藏文情感分析研究中,由于藏文缺乏公开的情感词典和能结合上下文的深度学习模型等导致的分类效果欠佳问题,构建一个规模可观的藏文情感词典,结合基于改进的BERT-BiGRU的藏语句子情感分类方法,在哈工大开源的CINO多语言的通用预训练... 针对藏文情感分析研究中,由于藏文缺乏公开的情感词典和能结合上下文的深度学习模型等导致的分类效果欠佳问题,构建一个规模可观的藏文情感词典,结合基于改进的BERT-BiGRU的藏语句子情感分类方法,在哈工大开源的CINO多语言的通用预训练语言模型上进行微调。实验结果表明,本文方法能够有效提高情感分类的准确率,验证了方法的有效性。模型在分类准确率和泛化能力上的表现优于相关工作,为进一步研究藏文文本情感分类问题提供一种思路和实验证据。 展开更多
关键词 情感分类 情感词典 情感词汇本体库 bert-bigru CINO 藏语句子 深度学习
在线阅读 下载PDF
一种处理严重不均衡数据的BERT-BiGRU-WCELoss短文本警情分类模型 被引量:1
2
作者 刘冬 翁海光 陈一民 《计算机应用与软件》 北大核心 2024年第9期217-223,229,共8页
针对110报警类警情文本数据存在着文本长度极短且样本类别分布严重不均衡的问题,提出一种BERT-BiGRU-WCELoss警情分类模型。该模型通过中文预训练BERT(Bidirectional Encoder Representations from Transformers)模型抽取文本的语义;使... 针对110报警类警情文本数据存在着文本长度极短且样本类别分布严重不均衡的问题,提出一种BERT-BiGRU-WCELoss警情分类模型。该模型通过中文预训练BERT(Bidirectional Encoder Representations from Transformers)模型抽取文本的语义;使用BiGRU(Bidirectional Gated Recurrent Unit)综合提炼文本的语义特征;通过优化自适应权重损失函数WCELoss(Weight Cross Entropy Loss function)给少数类样本赋予更大的损失权重。实验结果表明:该模型在某市2015年某一自然月的110报警数据集上取得了95.83%的分类准确率,精准率、召回率、F1值和G_mean均高于传统深度学习模型和交叉熵损失训练的模型。 展开更多
关键词 BERT BiGRU 警情分类 非均衡数据 短文本 样本加权
在线阅读 下载PDF
结合注意力机制的BERT-BiGRU-CRF中文电子病历命名实体识别 被引量:18
3
作者 陈娜 孙艳秋 燕燕 《小型微型计算机系统》 CSCD 北大核心 2023年第8期1680-1685,共6页
为了改善中文电子病历命名实体识别模型的性能,本文提出了基于BERT、双向门控循环单元(Bidirectional Gate Recurrent Unit,BiGRU)与条件随机场CRF相结合的中文电子病历命名实体识别模型,并在此基础上引入了注意力机制.利用BERT(Bidirec... 为了改善中文电子病历命名实体识别模型的性能,本文提出了基于BERT、双向门控循环单元(Bidirectional Gate Recurrent Unit,BiGRU)与条件随机场CRF相结合的中文电子病历命名实体识别模型,并在此基础上引入了注意力机制.利用BERT(Bidirectional Encoder Representation from Transformers)预训练模型得到结合语境信息的动态字向量,通过双向门控循环单元(Bidirectional Gate Recurrent Unit,BiGRU)提取全局语义特征,利用注意力机制获得增强语义特征,最后通过CRF(Conditional Random Field)解码输出概率最大的全局最优标签序列.利用含有解剖部位、手术、疾病和诊断、药物、实验室检验、影像检查6类实体的CCKS19中文电子病历数据集训练模型.对比实验表明了本文提出的命名实体识别模型的有效性,本文模型在CCKS19数据集上获得了84.11%的F1值。 展开更多
关键词 中文电子病历 命名实体识别 BERT BiGRU 注意力机制
在线阅读 下载PDF
基于BERT-BiGRU的中文专利文本自动分类 被引量:14
4
作者 刘燕 《郑州大学学报(理学版)》 CAS 北大核心 2023年第2期33-40,共8页
针对中文发明专利文本的文字描述专业性强、人工分类耗时耗力等问题,提出一种基于BERT-BiGRU模型的中文专利文本自动分类方法,利用预训练的BERT模型完成对中文发明专利文本进行向量化语义表征,引入词嵌入和多头注意力机制等方法抽取专... 针对中文发明专利文本的文字描述专业性强、人工分类耗时耗力等问题,提出一种基于BERT-BiGRU模型的中文专利文本自动分类方法,利用预训练的BERT模型完成对中文发明专利文本进行向量化语义表征,引入词嵌入和多头注意力机制等方法抽取专利文本中词语的上下文语境语义信息,最终通过双向GRU门控网络完成对中文发明专利的分类。以Incopat专利数据库中的专利文本构建数据集,设计多组对比实验,实验结果表明,所提方法可以有效提高分类模型对中文专利文本的差异性特征提取能力,对8类专利文本的分类准确率达到了85.44%。 展开更多
关键词 专利文本分类 BERT BiGRU 词嵌入
在线阅读 下载PDF
基于BERT-BiGRU-Attention的在线健康社区用户意图识别方法 被引量:8
5
作者 迟海洋 严馨 +2 位作者 周枫 徐广义 张磊 《河北科技大学学报》 CAS 2020年第3期225-232,共8页
针对传统用户意图识别主要使用基于模板匹配或人工特征集合方法导致成本高、扩展性低的问题,提出了一种基于BERT词向量和BiGRU-Attention的混合神经网络意图识别模型。首先使用BERT预训练的词向量作为输入,通过BiGRU对问句进行特征提取... 针对传统用户意图识别主要使用基于模板匹配或人工特征集合方法导致成本高、扩展性低的问题,提出了一种基于BERT词向量和BiGRU-Attention的混合神经网络意图识别模型。首先使用BERT预训练的词向量作为输入,通过BiGRU对问句进行特征提取,再引入Attention机制提取对句子含义有重要影响力的词的信息以及分配相应的权重,获得融合了词级权重的句子向量,并输入到softmax分类器,实现意图分类。爬取语料实验结果表明,BERT-BiGRU-Attention方法性能均优于传统的模板匹配、SVM和目前效果较好的CNN-LSTM深度学习组合模型。提出的新方法能有效提升意图识别模型的性能,提高在线健康信息服务质量、为在线健康社区问答系统提供技术支撑。 展开更多
关键词 自然语言处理 意图识别 在线健康社区 BERT词向量 BiGRU Attention机制
在线阅读 下载PDF
基于CoBERT-BiGRU的对话式机器阅读理解
6
作者 陈亮 褚燕华 +2 位作者 王丽颖 张晓琳 刘海佳 《计算机应用研究》 CSCD 北大核心 2021年第7期1983-1987,1997,共6页
基于现有模型不能有效处理多轮对话历史的不足,提出了CoBERT-BiGRU(concat bidirectional encoder representation from transformers-bidirectional gate recurrent unit)模型。对文章中的对话历史进行标记,将不同标记的文章及问题输入... 基于现有模型不能有效处理多轮对话历史的不足,提出了CoBERT-BiGRU(concat bidirectional encoder representation from transformers-bidirectional gate recurrent unit)模型。对文章中的对话历史进行标记,将不同标记的文章及问题输入CoBERT模型,得到多个序列的向量化表示;通过历史注意力网络把多个结果融合成一个序列的向量化表示;将融合后的结果输入BiGRU,对答案及对话行为进行推理预测。真实数据集上的实验结果表明,CoBERT-BiGRU模型能够有效处理多轮对话历史,与基准模型和在该数据集上已公开的部分模型相比,HEQ-Q、HEQ-D和F 1值都有提升。 展开更多
关键词 机器阅读理解 BERT 对话问答 双向门控循环单元
在线阅读 下载PDF
基于融合网络的HRRP目标识别方法 被引量:1
7
作者 吴文静 但波 王中训 《雷达科学与技术》 北大核心 2025年第2期192-198,205,共8页
高分辨一维距离像(High Resolution Range Profile,HRRP)常应用于雷达自动目标识别领域,HRRP数据结构复杂,从中提取稳定可靠的特征是HRRP目标识别的关键,本文提出一种融合网络模型,用于舰船HRRP的目标识别。模型首先通过BERT(Bidirectio... 高分辨一维距离像(High Resolution Range Profile,HRRP)常应用于雷达自动目标识别领域,HRRP数据结构复杂,从中提取稳定可靠的特征是HRRP目标识别的关键,本文提出一种融合网络模型,用于舰船HRRP的目标识别。模型首先通过BERT(Bidirectional Encoder Representations from Transformers)进行初步特征提取,再通过并行网络提取深度特征,左侧分支使用多尺度卷积神经网络(Multi‐scale Convolutional Neural Network,MCNN)模块提取不同尺度的局部特征信息,并通过SE(Squeeze‐and‐Excitation)对卷积结果进行优化,更好地关注数据中的关键信息,右侧分支使用双向门控循环网络(Bidirectional Gated Recurrent Unit,BiGRU)捕捉序列中的长期依赖关系,结合多头注意力模块可以更好地捕捉不同位置间的相关性,最后对结果进行拼接,最大程度地利用不同网络的优势,提升模型的分类性能。实验结果表明,模型能够有效学习HRRP序列中的特征,有较好的识别性能。 展开更多
关键词 高分辨距离像 BERT模块 MCNN网络 BiGRU网络
在线阅读 下载PDF
基于Shapley加性解释的ChatGPT生成文本检测模型研究
8
作者 刘冬 陈一民 《计算机应用与软件》 北大核心 2024年第10期212-220,共9页
针对如何快速识别文本内容是否为ChatGPT所生成的问题,提出一种基于BERT-BiGRU的AI生成文本检测模型。该模型使用预训练的BERT(Bidirectional Encoder Representations from Transformers)抽取文本的语义特征,并使用BiGRU(Bidirectional... 针对如何快速识别文本内容是否为ChatGPT所生成的问题,提出一种基于BERT-BiGRU的AI生成文本检测模型。该模型使用预训练的BERT(Bidirectional Encoder Representations from Transformers)抽取文本的语义特征,并使用BiGRU(Bidirectional Gated Recurrent Unit)进行特征综合提炼;将BERT-BiGRU分类模型在AI生成检测数据集HC3(Human ChatGPT Comparison Corpus)上的分类性能进行相关模型评估;引入Shapley加性解释工具(SHAP)从全局和局部两个维度对不同模型所识别出的关键特征和基准值进行比较分析。实验结果表明,虽然深度学习和预训练BERT分类模型均取得了较好的分类性能,但在未学习过语种数据集上性能下降严重,然而BERT-BiGRU模型表现优秀;不同模型使用可解释工具在同一数据集上计算得到的关键词差异较大,且关键词多为数字、生僻字和标点符号,模型并未真正理解人类撰写文本与AI生成文本的内在特征区别,基于已有封闭数据集训练得到的模型无法真正应对开放式的实际应用场景。 展开更多
关键词 ChatGPT SHAP BERT BiGRU HC3 AI生成文本检测
在线阅读 下载PDF
科技论文引用对象和引文功能的联合自动识别方法研究 被引量:2
9
作者 唐晓波 彭映寒 《现代情报》 CSSCI 2022年第6期38-48,共11页
[目的/意义]国家强调重视科技成果的质量,科技成果的质量体现了科技成果的学术价值和贡献。科技论文是科技成果的重要载体之一。基于文本语义分析识别科技论文的引用对象和引文功能,对于科技论文的学术贡献和价值的评价具有重要的作用。... [目的/意义]国家强调重视科技成果的质量,科技成果的质量体现了科技成果的学术价值和贡献。科技论文是科技成果的重要载体之一。基于文本语义分析识别科技论文的引用对象和引文功能,对于科技论文的学术贡献和价值的评价具有重要的作用。[方法/过程]本文利用文本数据挖掘技术提出基于BERT-BiGRU-CRF的科技论文引用对象和引文功能的联合自动识别方法模型。首先从知网数据库获取科技论文全文本,利用正则匹配引用标记的方式获取科技论文引文内容;其次借鉴已有研究确定科技论文引用对象和引文功能标注方法,实现科技论文引文内容的人工标注;然后在预训练语言模型BERT的基础上结合BiGRU与CRF构建科技论文引文内容的序列标注模型,实现科技论文引用对象和引文功能的联合自动识别,将识别结果利用三元组进行表达;最后采用图情领域5本高质量期刊2021年上半年的科技论文文本数据进行实验。[结果/结论]实验结果表明,本文提出的方法模型在引用对象、引文功能和两者联合自动识别上的F_(1)值分别为71.78%、68.33%、64.23%,均优于对比模型,初步验证了本文模型对于科技论文引用对象和引文功能自动识别的有效性。 展开更多
关键词 科技论文 价值评价 引用对象 引文功能 联合自动识别 bert-bigru-CRF
在线阅读 下载PDF
融合领域知识图谱的跨境民族文化分类 被引量:2
10
作者 毛存礼 王斌 +3 位作者 雷雄丽 满志博 王红斌 张亚飞 《小型微型计算机系统》 CSCD 北大核心 2022年第5期943-949,共7页
跨境民族是指居住地“跨越”了国境线,但又保留了原来共同的某些民族特色,彼此有着同一民族的认同感的民族,对于跨境民族文化中涉及到的文本分类问题可以看作领域文本细分类任务,但是,目前面临类别标签歧义的问题.为此提出一种融合领域... 跨境民族是指居住地“跨越”了国境线,但又保留了原来共同的某些民族特色,彼此有着同一民族的认同感的民族,对于跨境民族文化中涉及到的文本分类问题可以看作领域文本细分类任务,但是,目前面临类别标签歧义的问题.为此提出一种融合领域知识图谱的跨境民族文化分类方法.首先把知识图谱中的知识三元组通过TransE模型表示为实体语义向量,并且把实体语义向量与BERT预训练模型得到文本中的词语向量相融合得到增强后的文本语义表达,输入到BiGRU神经网络中进行深层语义特征提取;然后通过构建注意力权重矩阵,对特征进行权重分配,以此来提升特征的质量,最终完成跨境民族文化分类模型的训练.实验结果表明,提出的方法在跨境民族文化文本数据集上的F1值为89.6%,精确率和召回率分别为88.2%和90.1%. 展开更多
关键词 知识表示 BiGRU 向量融合 TransE BERT预训练模型 跨境民族文化分类
在线阅读 下载PDF
融合字注释的文本分类模型 被引量:2
11
作者 杨先凤 赵家和 李自强 《计算机应用》 CSCD 北大核心 2022年第5期1317-1323,共7页
针对传统文本特征表示方法无法充分解决一词多义的问题,构建了一种融合字注释的文本分类模型。首先,借助现有中文字典,获取文本由字上下文选取的字典注释,并对其进行Transformer的双向编码器(BERT)编码来生成注释句向量;然后,将注释句... 针对传统文本特征表示方法无法充分解决一词多义的问题,构建了一种融合字注释的文本分类模型。首先,借助现有中文字典,获取文本由字上下文选取的字典注释,并对其进行Transformer的双向编码器(BERT)编码来生成注释句向量;然后,将注释句向量与字嵌入向量融合作为输入层,并用来丰富输入文本的特征信息;最后,通过双向门控循环单元(BiGRU)学习文本的特征信息,并引入注意力机制突出关键特征向量。在公开数据集THUCNews和新浪微博情感分类数据集上进行的文本分类的实验结果表明,融合BERT字注释的文本分类模型相较未引入字注释的文本分类模型在性能上有显著提高,且在所有文本分类的实验模型中,所提出的BERT字注释_BiGRU_Attention模型有最高的精确率和召回率,能反映整体性能的F1-Score则分别高达98.16%和96.52%。 展开更多
关键词 一词多义 字注释 基于Transformer的双向编码器 双向门控循环单元 注意力机制 文本分类
在线阅读 下载PDF
基于字向量的BiGRU-CRF肺癌医案四诊信息实体抽取研究 被引量:10
12
作者 屈丹丹 杨涛 +1 位作者 朱垚 胡孔法 《世界科学技术-中医药现代化》 CSCD 北大核心 2021年第9期3118-3125,共8页
目的肺癌医案中蕴含丰富的四诊信息,这些四诊信息对肺癌的研究具有重要意义。本文通过基于字向量的BiGRU-CRF方法实现四诊信息实体抽取研究。方法研究利用BERT模型对基于自定义词典自动化标注后的肺癌临床数据进行预训练,得到包含上下... 目的肺癌医案中蕴含丰富的四诊信息,这些四诊信息对肺癌的研究具有重要意义。本文通过基于字向量的BiGRU-CRF方法实现四诊信息实体抽取研究。方法研究利用BERT模型对基于自定义词典自动化标注后的肺癌临床数据进行预训练,得到包含上下文语义的字向量,再将其作为BiGRU-CRF模型输入,实现肺癌医案四诊信息命名实体抽取。结果本文方法对临床表现、舌象、脉象、身体部位、程度副词五类实体抽取的F1值分别为98.17%、99.74%、99.77%、94.72%、93.36%,对比模型BERT-BiLSTM-CRF、BERT模型和Word2vec-BiGRU-CRF模型抽取的F1值分别为(96.46%、99.31%、98.78%、94.95%、92.44%)、(94.38%、95.14%、94.99%、90.89%、91.82%)和(91.27%、97.95%、98.09%、87.01%、86.77%)。结论本文利用基于字向量的BiGRU-CRF方法具有更强的命名实体识别能力,可以更好地应用于中医医案命名实体抽取研究,进而为医案的关系抽取以及知识图谱构建提供支持。 展开更多
关键词 BERT模型 BiGRU-CRF模型 肺癌 四诊信息 实体抽取
在线阅读 下载PDF
融入BERT的企业年报命名实体识别方法 被引量:15
13
作者 张靖宜 贺光辉 +1 位作者 代洲 刘亚东 《上海交通大学学报》 EI CAS CSCD 北大核心 2021年第2期117-123,共7页
自动提取企业年报关键数据是企业评价工作自动化的重要手段.针对企业年报领域关键实体结构复杂、与上下文语义关联强、规模较小的特点,提出基于转换器的双向编码器表示-双向门控循环单元-注意力机制-条件随机场(BERT-BiGRU-Attention-C... 自动提取企业年报关键数据是企业评价工作自动化的重要手段.针对企业年报领域关键实体结构复杂、与上下文语义关联强、规模较小的特点,提出基于转换器的双向编码器表示-双向门控循环单元-注意力机制-条件随机场(BERT-BiGRU-Attention-CRF)模型.在BiGRU-CRF模型的基础上,首先引入BERT预训练语言模型,以增强词向量模型的泛化能力,捕捉长距离的上下文信息;然后引入注意力机制,以充分挖掘文本的全局和局部特征.在自行构建的企业年报语料库内进行实验,将该模型与多组传统模型进行对比.结果表明:该模型的F 1值(精确率和召回率的调和平均数)为93.69%,对企业年报命名实体识别性能优于其他传统模型,有望成为企业评价工作自动化的有效方法. 展开更多
关键词 命名实体识别 企业年报 BERT 注意力机制 双向门控循环单元
在线阅读 下载PDF
基于BERT嵌入的中文命名实体识别方法 被引量:125
14
作者 杨飘 董文永 《计算机工程》 CAS CSCD 北大核心 2020年第4期40-45,52,共7页
在基于神经网络的中文命名实体识别过程中,字的向量化表示是重要步骤,而传统的词向量表示方法只是将字映射为单一向量,无法表征字的多义性.针对该问题,通过嵌入BERT预训练语言模型,构建BERT-BiGRU-CRF模型用于表征语句特征.利用具有双向... 在基于神经网络的中文命名实体识别过程中,字的向量化表示是重要步骤,而传统的词向量表示方法只是将字映射为单一向量,无法表征字的多义性.针对该问题,通过嵌入BERT预训练语言模型,构建BERT-BiGRU-CRF模型用于表征语句特征.利用具有双向Transformer结构的BERT预训练语言模型增强字的语义表示,根据其上下文动态生成语义向量.在此基础上,将字向量序列输入BiGRU-CRF模型中进行训练,包括训练整个模型和固定BERT只训练BiGRU-CRF2种方式.在MSRA语料上的实验结果表明,该模型2种训练方式的F1值分别达到95.43%和94.18%,优于BiGRU-CRF、Radical-BiLSTM-CRF和Lattice-LSTM-CRF模型. 展开更多
关键词 中文命名实体识别 BERT模型 BiGRU模型 预训练语言模型 条件随机场
在线阅读 下载PDF
基于迁移学习的维吾尔语命名实体识别 被引量:11
15
作者 孔祥鹏 吾守尔·斯拉木 +1 位作者 杨启萌 李哲 《东北师大学报(自然科学版)》 CAS 北大核心 2020年第2期58-65,共8页
针对维吾尔语命名实体识别存在无法关注词序列依赖关系等问题,提出一种基于迁移学习的联合深度模型(TBIBC).首先通过BERT(Bidirectional Encoder Representations from Transformers)预训练中文数据集生成具有语义信息的词向量,再将词... 针对维吾尔语命名实体识别存在无法关注词序列依赖关系等问题,提出一种基于迁移学习的联合深度模型(TBIBC).首先通过BERT(Bidirectional Encoder Representations from Transformers)预训练中文数据集生成具有语义信息的词向量,再将词向量序列通过空洞卷积神经网络(IDCNN)进行膨胀操作以减少神经元层数和参数,输出向量输入到双向门控循环单元(BiGRU)进行上下文语义信息提取,然后通过CRF层得到最优标签序列.模型采用共享深度神经网络隐藏层的方法将训练好的中文实体识别模型迁移到维吾尔语模型上.结果表明,该模型的准确率为91.39%,召回率为90.11%,F 1值达到90.75%,能显著提升维吾尔语命名实体识别性能. 展开更多
关键词 迁移学习 BERT BiGRU 空洞卷积网络
在线阅读 下载PDF
地质领域文本实体关系联合抽取方法 被引量:8
16
作者 邱芹军 王斌 +4 位作者 徐德馨 马凯 谢忠 潘声勇 陶留锋 《高校地质学报》 CAS CSCD 北大核心 2023年第3期419-428,共10页
地质领域实体关系抽取是构建地质知识图谱的基础,对地质领域文本信息抽取与知识库构建具有重要的作用。针对地质领域实体关系复杂、缺少人工标注语料库等特点,提出了面向地质领域实体关系联合抽取模型,着重对多地质文本中存在的复杂重... 地质领域实体关系抽取是构建地质知识图谱的基础,对地质领域文本信息抽取与知识库构建具有重要的作用。针对地质领域实体关系复杂、缺少人工标注语料库等特点,提出了面向地质领域实体关系联合抽取模型,着重对多地质文本中存在的复杂重叠关系进行识别,避免传统流水线模型中由于实体识别错误造成级联误差。文章构建了高质量地质领域实体关系语料库,提出了基于预训练语言模型BERT(Bidirectional Encoder Representations from Transformers)和双向门控循环单元BiGRU(Bidirectional Gated Recurrent Units)与条件随机场CRF(Conditional Random Field)的序列标注模型,实现对实体关系的联合抽取。在构建数据集上进行了实验,结果表明,本文提出的联合抽取模型在实体关系抽取上的F1值达到0.671,验证了本文模型在地质实体关系抽取的有效性。 展开更多
关键词 地质领域 实体关系联合抽取 知识图谱 BERT BiGRU
在线阅读 下载PDF
融合BERT中间隐藏层的方面级情感分析模型 被引量:10
17
作者 曾桢 王擎宇 《科学技术与工程》 北大核心 2023年第12期5161-5169,共9页
现有的基于BERT(bidirectional encoder representations from transformers)的方面级情感分析模型仅使用BERT最后一层隐藏层的输出,忽略BERT中间隐藏层的语义信息,存在信息利用不充分的问题,提出一种融合BERT中间隐藏层的方面级情感分... 现有的基于BERT(bidirectional encoder representations from transformers)的方面级情感分析模型仅使用BERT最后一层隐藏层的输出,忽略BERT中间隐藏层的语义信息,存在信息利用不充分的问题,提出一种融合BERT中间隐藏层的方面级情感分析模型。首先,将评论和方面信息拼接为句子对输入BERT模型,通过BERT的自注意力机制建立评论与方面信息的联系;其次,构建门控卷积网络(gated convolutional neural network,GCNN)对BERT所有隐藏层输出的词向量矩阵进行特征提取,并将提取的特征进行最大池化、拼接得到特征序列;然后,使用双向门控循环单元(bidirectional gated recurrent unit,BiGRU)网络对特征序列进行融合,编码BERT不同隐藏层的信息;最后,引入注意力机制,根据特征与方面信息的相关程度赋予权值。在公开的SemEval2014 Task4评论数据集上的实验结果表明:所提模型在准确率和F 1值两种评价指标上均优于BERT、CapsBERT(capsule BERT)、BERT-PT(BERT post train)、BERT-LSTM(BERT long and short-term memory)等对比模型,具有较好的情感分类效果。 展开更多
关键词 方面级情感分析 BERT 门控卷积网络(GCNN) 双向门控循环单元(BiGRU) 注意力机制
在线阅读 下载PDF
基于BERT和双通道注意力的文本情感分类模型 被引量:27
18
作者 谢润忠 李烨 《数据采集与处理》 CSCD 北大核心 2020年第4期642-652,共11页
对于句子级文本情感分析问题,目前的深度学习方法未能充分运用情感词、否定词、程度副词等情感语言资源。提出一种基于变换器的双向编码器表征技术(Bidirectional encoder representations from transformers,BERT)和双通道注意力的新... 对于句子级文本情感分析问题,目前的深度学习方法未能充分运用情感词、否定词、程度副词等情感语言资源。提出一种基于变换器的双向编码器表征技术(Bidirectional encoder representations from transformers,BERT)和双通道注意力的新模型。基于双向门控循环单元(BiGRU)神经网络的通道负责提取语义特征,而基于全连接神经网络的通道负责提取情感特征;同时,在两个通道中均引入注意力机制以更好地提取关键信息,并且均采用预训练模型BERT提供词向量,通过BERT依据上下文语境对词向量的动态调整,将真实情感语义嵌入到模型;最后,通过对双通道的语义特征与情感特征进行融合,获取最终语义表达。实验结果表明,相比其他词向量工具,BERT的特征提取能力更强,而情感信息通道和注意力机制增强了模型捕捉情感语义的能力,明显提升了情感分类性能,且在收敛速度和稳定性上更优。 展开更多
关键词 文本情感分析 深度学习 基于变换器的双向编码器表征技术 双通道 注意力 双向门控循环单元
在线阅读 下载PDF
融合BERT和记忆网络的实体识别 被引量:6
19
作者 陈德 宋华珠 +1 位作者 张娟 周泓林 《计算机科学》 CSCD 北大核心 2021年第10期91-97,共7页
实体识别是信息提取的子任务,传统实体识别模型针对人员、组织、位置名称等类型的实体进行识别,而在现实世界中必须考虑更多类别的实体,需要细粒度的实体识别。同时,BiGRU等传统实体识别模型无法充分利用更大范围内的全局特征。文中提... 实体识别是信息提取的子任务,传统实体识别模型针对人员、组织、位置名称等类型的实体进行识别,而在现实世界中必须考虑更多类别的实体,需要细粒度的实体识别。同时,BiGRU等传统实体识别模型无法充分利用更大范围内的全局特征。文中提出了一种基于命名记忆网络和BERT的实体识别模型,记忆网络模块能够记忆更大范围的特征,BERT语言预训练模型能进行更好的语义表示。对水泥熟料生产语料数据进行实体识别,实验结果表明,所提方法能够识别实体且较其他传统模型更具优势。为了进一步验证所提模型的性能,在CLUENER2020数据集上进行实验,结果表明,在BiGRU-CRF模型的基础上使用BERT和记忆网络模块进行优化是能够提高实体识别效果的。 展开更多
关键词 实体识别 BERT 记忆网络 BiGRU-CRF
在线阅读 下载PDF
基于BERT和BiGRU的在线评论文本情感分类研究 被引量:8
20
作者 姚妮 高政源 +1 位作者 娄坤 朱付保 《轻工学报》 CAS 2020年第5期80-86,共7页
针对互联网用户在线评论文本情感分类不准确的问题,提出一种基于BERT和BiGRU的在线评论文本情感分类模型.该模型首先使用Word2Vec框架对文本内容进行词向量表示,然后利用BERT预训练语言模型提取词向量的深层动态表示,最后将其输入BiGRU... 针对互联网用户在线评论文本情感分类不准确的问题,提出一种基于BERT和BiGRU的在线评论文本情感分类模型.该模型首先使用Word2Vec框架对文本内容进行词向量表示,然后利用BERT预训练语言模型提取词向量的深层动态表示,最后将其输入BiGRU网络进行情感分类.实验结果表明,与双向LSTM结合Attention机制模型(W2V-BiLSTM-Attention)、传统卷积神经网络模型(W2V-CNN)和传统循环神经网络模型(W2V-RNN)相比,本文模型的MicroF1值最高(0.91),分类效果最好. 展开更多
关键词 深度学习 情感分类 BERT Word2Vec BiGRU
在线阅读 下载PDF
上一页 1 2 下一页 到第
使用帮助 返回顶部