期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
基于XLNet—BiLSTM—AFF—CRF的谷物收割机械维修知识命名实体识别
1
作者 李先旺 刘赛虎 +1 位作者 黄忠祥 章霞东 《中国农机化学报》 北大核心 2025年第2期319-325,352,共8页
针对谷物收割机械维修实体识别过程中存在上下文语义特征缺失、长距离依赖信息不充足、实体复杂度较高等问题,提出一种引入注意力机制特征融合的谷物收割机械维修知识命名实体识别模型XLNet—BiLSTM—AFF—CRF。该模型采用基于Transfor... 针对谷物收割机械维修实体识别过程中存在上下文语义特征缺失、长距离依赖信息不充足、实体复杂度较高等问题,提出一种引入注意力机制特征融合的谷物收割机械维修知识命名实体识别模型XLNet—BiLSTM—AFF—CRF。该模型采用基于Transformer—XL的广义自回归XLNet预训练模型作为嵌入层提取字向量;然后使用双向长短时记忆网络(BiLSTM)获取上下文语义特征;利用注意力特征融合AFF将XLNet层输出与BiLSTM层输出进行组合,增强序列的语义信息;最后输入条件随机场CRF模型学习标注约束规则生成全局最优序列。在创建的维修语料库上展开试验,结果表明:所提模型的精确率、召回率和F1值分别为98.4%、97.6%和97.9%,均高于对比模型,验证所提模型的有效性。 展开更多
关键词 谷物收割机械 维修 命名实体识别 注意力机制 广义自回归训练语言模型(xlnet)
在线阅读 下载PDF
基于 XLNet 的农业命名实体识别方法 被引量:4
2
作者 陈明 顾凡 《河北农业大学学报》 CAS CSCD 北大核心 2023年第4期111-117,共7页
随着农业领域人工智能的研究不断深入,农业文本中命名实体识别是其他任务开展的基础之一。鉴于农业领域缺乏公开语料库,本文构建了自己的农业文本的注释语料库。针对目前存在的文本语义表达不足、缺乏语境特征、词向量多样性表达困难等... 随着农业领域人工智能的研究不断深入,农业文本中命名实体识别是其他任务开展的基础之一。鉴于农业领域缺乏公开语料库,本文构建了自己的农业文本的注释语料库。针对目前存在的文本语义表达不足、缺乏语境特征、词向量多样性表达困难等问题,本文提出了基于XLNet(Generalized Autoregressive Pretraining for Language Understanding,XLNet)的农业命名实体识别模型XLNet-IDCNN-CRF。嵌入层XLNet对于输入文本进行向量化表示,丰富文本的语义信息,缓解一词多义问题,通过编码层迭代膨胀卷积神经网络(Iterated Dilated Convolutional Neural Network,IDCNN)并行计算减少训练时间,获取文本特征信息,结合起来输入到输出层条件随机场模型(Conditional Random Field,CRF)识别标签信息,输出最优序列。本文在自建语料库上准确率达到95.58%,召回率92.36%,F1值93.91%,对比优于其他模型。实验结果表明,XLNet-IDCNNCRF模型能够较好地完成农业命名实体识别任务。 展开更多
关键词 农业文本 命名实体识别 xlnet模型 训练语言模型 迭代膨胀卷积
在线阅读 下载PDF
基于XLNet的中文文本情感分析 被引量:1
3
作者 李东金 单锐 +2 位作者 阴良魁 王芳 程宝娜 《燕山大学学报》 CAS 北大核心 2022年第6期547-553,共7页
针对Word2vec等静态词向量模型不能解决一词多义、传统情感分析模型不能同时提取文本的全局和局部信息问题,本文提出了结合广义自回归预训练语言模型(XLNet)的文本情感分析模型。首先利用XLNet表示文本特征,然后利用卷积神经网络提取文... 针对Word2vec等静态词向量模型不能解决一词多义、传统情感分析模型不能同时提取文本的全局和局部信息问题,本文提出了结合广义自回归预训练语言模型(XLNet)的文本情感分析模型。首先利用XLNet表示文本特征,然后利用卷积神经网络提取文本向量的局部特征,再利用双向门控循环单元提取文本的更深层次上下文信息,最后引入注意力机制,根据特征的重要性赋予特征不同的权重,并进行文本情感极性分析。仿真实验中将本文模型与5种常用的情感分析模型进行对比,验证了模型的准确率和优越性。 展开更多
关键词 情感分析 广义自回归训练语言模型 卷积神经网络 双向门控循环单元 注意力机制
在线阅读 下载PDF
自然语言处理技术发展 被引量:28
4
作者 王海宁 《中兴通讯技术》 2022年第2期59-64,共6页
基于神经网络和深度学习的预训练语言模型为自然语言处理技术带来了突破性发展。基于自注意力机制的Transformer模型是预训练语言模型的基础。GPT、BERT、XLNet等大规模预训练语言模型均基于Transformer模型进行堆叠和优化。认为目前依... 基于神经网络和深度学习的预训练语言模型为自然语言处理技术带来了突破性发展。基于自注意力机制的Transformer模型是预训练语言模型的基础。GPT、BERT、XLNet等大规模预训练语言模型均基于Transformer模型进行堆叠和优化。认为目前依赖强大算力和海量数据的大规模预训练语言模型存在实用问题,指出轻量预训练语言模型是未来重要的发展方向。 展开更多
关键词 自然语言处理 训练语言模型 TRANSFORMER GPT BERT xlnet 模型优化
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部