期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
基于多视角注意力的篇章神经机器翻译
1
作者 贾爱鑫 李军辉 《中文信息学报》 北大核心 2025年第9期43-52,共10页
序列到序列模型Transformer在句子级神经机器翻译任务上已取得了瞩目的效果。但直接将Transformer应用于长文本(如篇章)的翻译,却很难达到较好的效果。该文首先分析了Transformer模型在长文本(篇章)上翻译性能欠佳的主要原因,然后合理... 序列到序列模型Transformer在句子级神经机器翻译任务上已取得了瞩目的效果。但直接将Transformer应用于长文本(如篇章)的翻译,却很难达到较好的效果。该文首先分析了Transformer模型在长文本(篇章)上翻译性能欠佳的主要原因,然后合理地提出了多视角注意力机制。具体地,该文改进传统的多头注意力机制,使得多头注意力机制可以主动地关注序列内的不同内容,让一部分注意力头关注当前句,另一部分注意力头关注上下文等。在中英和英德篇章数据集上的实验结果表明,该文方法简单有效,在不增加任何参数的情况下,能够有效提升篇章神经机器翻译性能。 展开更多
关键词 神经机器翻译 篇章神经机器翻译 长序列翻译 多视角注意力机制
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部