期刊导航
期刊开放获取
上海教育软件发展有限公..
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于注意力增强的点阵Transformer的中文命名实体识别方法
被引量:
4
1
作者
韩晓凯
岳颀
+2 位作者
褚晶
史伟亮
韩展
《厦门大学学报(自然科学版)》
CAS
CSCD
北大核心
2022年第6期1062-1071,共10页
对于中文命名实体识别任务,一种非常有效的方法是创建能结合字与词语信息的点阵,利用词语语义信息的同时减少分词错误带来的影响.然而点阵在通过词典匹配句子中潜在词语的过程中,也会引入相关性低的信息以及噪声,导致基于注意力机制的Tr...
对于中文命名实体识别任务,一种非常有效的方法是创建能结合字与词语信息的点阵,利用词语语义信息的同时减少分词错误带来的影响.然而点阵在通过词典匹配句子中潜在词语的过程中,也会引入相关性低的信息以及噪声,导致基于注意力机制的Transformer出现注意力分散的情况,而且引入词语信息也会降低模型对句子语义的关注.为解决这些问题,提出了一种新的注意力增强模型,命名为注意力增强的点阵Transformer(attention-enhanced lattice Transformer,AELT).AELT对注意力进行了稀疏处理,使模型只关注相关性最高的内容,能够有效减少上下文中的噪声干扰,同时并行添加了专用于对语句进行语义分析的Transformer,使模型重点关注语句本身,并将词语信息作为辅助信息完成实体识别任务.实验结果表明:AELT在Weibo、Resume、Ontonotes和MSRA这些主流数据集上有着不错的性能表现.
展开更多
关键词
TRANSFORMER
点阵
稀疏注意力
注意力增强
中文命名实体识别
在线阅读
下载PDF
职称材料
题名
基于注意力增强的点阵Transformer的中文命名实体识别方法
被引量:
4
1
作者
韩晓凯
岳颀
褚晶
史伟亮
韩展
机构
西安邮电大学自动化学院
出处
《厦门大学学报(自然科学版)》
CAS
CSCD
北大核心
2022年第6期1062-1071,共10页
文摘
对于中文命名实体识别任务,一种非常有效的方法是创建能结合字与词语信息的点阵,利用词语语义信息的同时减少分词错误带来的影响.然而点阵在通过词典匹配句子中潜在词语的过程中,也会引入相关性低的信息以及噪声,导致基于注意力机制的Transformer出现注意力分散的情况,而且引入词语信息也会降低模型对句子语义的关注.为解决这些问题,提出了一种新的注意力增强模型,命名为注意力增强的点阵Transformer(attention-enhanced lattice Transformer,AELT).AELT对注意力进行了稀疏处理,使模型只关注相关性最高的内容,能够有效减少上下文中的噪声干扰,同时并行添加了专用于对语句进行语义分析的Transformer,使模型重点关注语句本身,并将词语信息作为辅助信息完成实体识别任务.实验结果表明:AELT在Weibo、Resume、Ontonotes和MSRA这些主流数据集上有着不错的性能表现.
关键词
TRANSFORMER
点阵
稀疏注意力
注意力增强
中文命名实体识别
Keywords
Transformer
lattice
sparse attention
enhance attention
Chinese named entity recognition
分类号
TP391.1 [自动化与计算机技术—计算机应用技术]
TP183 [自动化与计算机技术—控制理论与控制工程]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于注意力增强的点阵Transformer的中文命名实体识别方法
韩晓凯
岳颀
褚晶
史伟亮
韩展
《厦门大学学报(自然科学版)》
CAS
CSCD
北大核心
2022
4
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部