期刊导航
期刊开放获取
上海教育软件发展有限公..
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于Self-Attention和TextCNN-BiLSTM的中文评论文本情感分析模型
被引量:
2
1
作者
龙宇
李秋生
《石河子大学学报(自然科学版)》
北大核心
2025年第1期111-121,共11页
目前关于中文评论文本的情感分类方法大都无法充分捕捉到句子的全局语义信息,同时也在长距离的语义连接或者情感转折理解上具有局限性,因而导致情感分析的准确度不高。针对这个问题,本文提出一种融合SelfAttention和TextCNN-BiLSTM的文...
目前关于中文评论文本的情感分类方法大都无法充分捕捉到句子的全局语义信息,同时也在长距离的语义连接或者情感转折理解上具有局限性,因而导致情感分析的准确度不高。针对这个问题,本文提出一种融合SelfAttention和TextCNN-BiLSTM的文本情感分析方法。该方法首先采用文本卷积神经网络(TextCNN)来提取局部特征,并利用双向长短期记忆网络(BiLSTM)来捕捉序列信息,从而综合考虑了全局和局部信息,在特征融合阶段,再采用自注意力机制来动态地融合不同层次的特征表示,对不同尺度特征进行加权,从而提高重要特征的响应。实验结果表明,所提出的模型在家电商品中文评论语料和谭松波酒店评论语料数据集上的准确率分别达到93.79%和90.05%,相较于基准模型分别提高0.69%~3.59%和4.44%~11.70%,优于传统的基于卷积神经网络(Convolutional Neural Networks, CNN)、BiLSTM或CNN-BiLSTM等的情感分析模型。
展开更多
关键词
自注意力机制
中文评论文本
深度学习
情感分析
在线阅读
下载PDF
职称材料
题名
基于Self-Attention和TextCNN-BiLSTM的中文评论文本情感分析模型
被引量:
2
1
作者
龙宇
李秋生
机构
赣南师范大学物理与电子信息学院
赣南师范大学智能控制工程技术研究中心
出处
《石河子大学学报(自然科学版)》
北大核心
2025年第1期111-121,共11页
基金
江西省教育厅科学技术研究项目(GJJ201408)。
文摘
目前关于中文评论文本的情感分类方法大都无法充分捕捉到句子的全局语义信息,同时也在长距离的语义连接或者情感转折理解上具有局限性,因而导致情感分析的准确度不高。针对这个问题,本文提出一种融合SelfAttention和TextCNN-BiLSTM的文本情感分析方法。该方法首先采用文本卷积神经网络(TextCNN)来提取局部特征,并利用双向长短期记忆网络(BiLSTM)来捕捉序列信息,从而综合考虑了全局和局部信息,在特征融合阶段,再采用自注意力机制来动态地融合不同层次的特征表示,对不同尺度特征进行加权,从而提高重要特征的响应。实验结果表明,所提出的模型在家电商品中文评论语料和谭松波酒店评论语料数据集上的准确率分别达到93.79%和90.05%,相较于基准模型分别提高0.69%~3.59%和4.44%~11.70%,优于传统的基于卷积神经网络(Convolutional Neural Networks, CNN)、BiLSTM或CNN-BiLSTM等的情感分析模型。
关键词
自注意力机制
中文评论文本
深度学习
情感分析
Keywords
Self-Attention
Chinese commentary text
deep learning
sentiment analysis
分类号
TP391.1 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于Self-Attention和TextCNN-BiLSTM的中文评论文本情感分析模型
龙宇
李秋生
《石河子大学学报(自然科学版)》
北大核心
2025
2
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部