期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
基于重解码的神经机器翻译方法研究 被引量:8
1
作者 宗勤勤 李茂西 《中文信息学报》 CSCD 北大核心 2021年第6期39-46,共8页
基于Transformer的序列转换模型是当前性能最优的机器翻译模型之一。该模型在生成机器译文时,通常从左到右逐个生成目标词,这使得当前位置词的生成不能利用译文中该词之后未生成词的信息,导致机器译文解码不充分从而降低译文质量。为了... 基于Transformer的序列转换模型是当前性能最优的机器翻译模型之一。该模型在生成机器译文时,通常从左到右逐个生成目标词,这使得当前位置词的生成不能利用译文中该词之后未生成词的信息,导致机器译文解码不充分从而降低译文质量。为了缓解上述问题,该文提出了基于重解码的神经机器翻译模型,该模型将已生成的机器译文作为目标语言近似上下文环境,对译文中每个词依次进行重解码,重解码时Transformer解码器中遮挡多头注意力仅遮挡已生成译文中的当前位置词,因此,重生成的每个词都能充分利用目标语言的上下文信息。在多个WMT机器翻译评测任务测试集上的实验结果表明:使用基于重解码的神经机器翻译方法显著提高了机器译文质量。 展开更多
关键词 神经机器翻译 编码器—解码器模型 解码 遮挡多头注意力 TRANSFORMER
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部