-
题名基于多视角注意力的篇章神经机器翻译
- 1
-
-
作者
贾爱鑫
李军辉
-
机构
苏州大学计算机科学与技术学院
-
出处
《中文信息学报》
北大核心
2025年第9期43-52,共10页
-
基金
国家自然科学基金(61876120)。
-
文摘
序列到序列模型Transformer在句子级神经机器翻译任务上已取得了瞩目的效果。但直接将Transformer应用于长文本(如篇章)的翻译,却很难达到较好的效果。该文首先分析了Transformer模型在长文本(篇章)上翻译性能欠佳的主要原因,然后合理地提出了多视角注意力机制。具体地,该文改进传统的多头注意力机制,使得多头注意力机制可以主动地关注序列内的不同内容,让一部分注意力头关注当前句,另一部分注意力头关注上下文等。在中英和英德篇章数据集上的实验结果表明,该文方法简单有效,在不增加任何参数的情况下,能够有效提升篇章神经机器翻译性能。
-
关键词
神经机器翻译
篇章神经机器翻译
长序列翻译
多视角注意力机制
-
Keywords
neural machine translation
document-level neural machine translation
long sequence translation
multi-view attention mechanism
-
分类号
TP391
[自动化与计算机技术—计算机应用技术]
-