期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
用于文本分类的CNN_BiLSTM_Attention混合模型 被引量:24
1
作者 吴汉瑜 严江 +2 位作者 黄少滨 李熔盛 姜梦奇 《计算机科学》 CSCD 北大核心 2020年第S02期23-27,34,共6页
文本分类是许多自然语言处理任务的基础。卷积神经网络可以提取文本的短语级特征,但是不能很好地捕获文本的结构信息;循环神经网络可以提取文本的全局结构信息,但是对关键模式信息捕获能力不足;而注意力机制能够学习到不同词或短语对文... 文本分类是许多自然语言处理任务的基础。卷积神经网络可以提取文本的短语级特征,但是不能很好地捕获文本的结构信息;循环神经网络可以提取文本的全局结构信息,但是对关键模式信息捕获能力不足;而注意力机制能够学习到不同词或短语对文本整体语义的分布,关键的词或短语会被分配较高的权重,但是同样对全局结构信息不敏感。另外,现有模型大多只考虑词级信息,而忽略了短语级信息。针对上述模型中存在的问题,文中提出一种融合CNN,RNN,Attention的混合模型,该模型同时考虑不同层次的关键模式信息和全局结构信息,并把它们融合起来得到最终的文本表示,最后把文本表示输入softmax层进行分类。在多个文本分类数据集上进行了实验,实验结果表明该模型相较于现有模型可以实现更高的准确率。此外,还通过实验分析了模型的不同组件对模型性能的影响。 展开更多
关键词 文本分类 关键模式信息 全局结构信息 混合模型 文本表示
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部