期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
一种Mask交互融合预训练知识的低资源神经机器翻译方法 被引量:2
1
作者 朱志国 郭军军 余正涛 《小型微型计算机系统》 CSCD 北大核心 2024年第3期591-597,共7页
融合预训练语言知识是提升低资源神经机器翻译性能的有效手段.现有融合预训练语言知识的方法都比较复杂,计算资源消耗较大.针对以上问题,本文提出了一种简单有效的Mask交互融合预训练知识的低资源神经机器翻译方法,首先利用BERT的句子... 融合预训练语言知识是提升低资源神经机器翻译性能的有效手段.现有融合预训练语言知识的方法都比较复杂,计算资源消耗较大.针对以上问题,本文提出了一种简单有效的Mask交互融合预训练知识的低资源神经机器翻译方法,首先利用BERT的句子表征与源语言表征的自注意力交互计算两种表征的相似度,根据相似度值构造Mask知识矩阵,然后将Mask知识矩阵作用于源语言表征,自适应地将BERT表征中对低资源神经机器翻译任务有益的语言知识融入翻译模型,提升翻译模型对语言知识的表征能力.在IWSLT标准低资源翻译任务上的实验结果表明,与Transformer基线模型相比,所提方法获得了0.9~3.39的BLEU值提升,证明了所提方法能够有效利用预训练语言知识增强神经机器翻译性能. 展开更多
关键词 低资源神经机器翻译 知识融合 BERT Mask交互融合
在线阅读 下载PDF
语言模型蒸馏的低资源神经机器翻译方法 被引量:1
2
作者 申影利 赵小兵 《计算机工程与科学》 CSCD 北大核心 2024年第4期743-751,共9页
大规模平行语料库的缺乏是低资源神经机器翻译面临的关键问题之一。提出语言模型蒸馏的神经机器翻译方法,通过单语语言模型对神经机器翻译训练进行正则化,引入语言模型包含的先验知识以提升翻译效果。具体地,借鉴知识蒸馏思想,使用丰富... 大规模平行语料库的缺乏是低资源神经机器翻译面临的关键问题之一。提出语言模型蒸馏的神经机器翻译方法,通过单语语言模型对神经机器翻译训练进行正则化,引入语言模型包含的先验知识以提升翻译效果。具体地,借鉴知识蒸馏思想,使用丰富单语数据训练的目标端语言模型(教师模型)构造低资源神经机器翻译模型(学生模型)的正则化因子,让翻译模型学习到语言模型中高度泛化的先验知识。与传统单语语言模型融合参与解码过程不同的是,本文方法中的语言模型只在训练阶段使用,不参与推断阶段,因此能够有效提升解码速度。在第十七届全国机器翻译大会CCMT2021维吾尔语-汉语和藏语-汉语2种民汉低资源翻译数据集上的实验结果表明,相比目前最先进的语言模型融合方法,BLEU提高了1.42%(藏汉方向)~2.11%(汉维方向)。 展开更多
关键词 语言模型 知识蒸馏 正则化 低资源神经机器翻译
在线阅读 下载PDF
GEA-NMT:图卷积增强的多任务低资源机器翻译模型 被引量:2
3
作者 张宝兴 彭敦陆 王雅峰 《小型微型计算机系统》 CSCD 北大核心 2024年第9期2156-2164,共9页
在低资源语种上训练高质量机器翻译系统的主要障碍是平行语料的稀缺,一些低资源语言在语言上与高资源语言相关或相似,相似的语言可能使用相同的字符集或类似的句法结构.本文利用低资源语种上的单语数据及与之相关联的高资源语种和目标... 在低资源语种上训练高质量机器翻译系统的主要障碍是平行语料的稀缺,一些低资源语言在语言上与高资源语言相关或相似,相似的语言可能使用相同的字符集或类似的句法结构.本文利用低资源语种上的单语数据及与之相关联的高资源语种和目标语言的平行语料,尝试将翻译知识进行迁移,从而完成低资源语种和目标语言间的翻译模型训练.本文提出一种图卷积增强的多任务训练低资源神经机器翻译模型(GCN Enhanced multi-task Adapting Neural Machine Translation,GEA-NMT),结合降噪自编码器、生成对抗训练、回译和桥接方法,并使用图神经网络学习句法依赖关系以进一步提升低资源语种上的神经机器翻译模型效果. 展开更多
关键词 低资源神经机器翻译 神经网络 多任务训练
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部