期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
一种基于词级权重的Transformer模型改进方法 被引量:14
1
作者 王明申 牛斌 马利 《小型微型计算机系统》 CSCD 北大核心 2019年第4期744-748,共5页
Google Brain提出了一种用于神经机器翻译(NMT)的简单模型Transformer,该模型完全基于注意力机制,避免使用循环神经网路(RNN),解决了RNN无法并行化的问题.本文在Transformer模型的基础上提出了基于词级权重(Word-Level Weights)的模型... Google Brain提出了一种用于神经机器翻译(NMT)的简单模型Transformer,该模型完全基于注意力机制,避免使用循环神经网路(RNN),解决了RNN无法并行化的问题.本文在Transformer模型的基础上提出了基于词级权重(Word-Level Weights)的模型改进方法,即根据不同单词在句子中的重要性通过神经网络自学习所获得相应的权重,将此权重与Transformer模型相结合.该方法提高了Transformer模型的稳定性和准确性,并在IWSLT16翻译任务中提高了模型的BLEU得分. 展开更多
关键词 神经机器翻译 注意力机制 Transformer模型 词级权重
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部