期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
端到端语音翻译中辅助数据的使用策略研究
1
作者 刘晓倩 韩宇晨 +7 位作者 朱靖波 许晨 张裕浩 杜扬帆 赫洱锋 马安香 张春良 肖桐 《中文信息学报》 北大核心 2025年第5期60-71,共12页
端到端语音翻译模型由于数据稀缺问题很难直接进行有效训练。为此,已有方法基于利用辅助数据进行改进的思路,采取了多种不同的策略,但如何将这些策略有机地结合起来仍是一个难题。该文基于编码分解的统一建模架构,实现了对数据增强、预... 端到端语音翻译模型由于数据稀缺问题很难直接进行有效训练。为此,已有方法基于利用辅助数据进行改进的思路,采取了多种不同的策略,但如何将这些策略有机地结合起来仍是一个难题。该文基于编码分解的统一建模架构,实现了对数据增强、预训练和多任务学习三个关键技术的有效联合。在MuST-C英-中语音翻译数据集上的实验结果表明,数据增强在三种方法中具有最大的潜力,能够显著提升语音翻译模型的性能(5.18 BLEU),并通过联合预训练技术实现了在单个模型上最大程度的性能提升(5.48 BLEU),使模型获得更好的泛化性。尽管进一步结合多任务学习无法带来正向效果,但通过对多种模型进行集成仍可获得5.61 BLEU提升。 展开更多
关键词 语音翻译 预训练 数据增强 多任务学习
在线阅读 下载PDF
模板驱动的神经机器翻译 被引量:12
2
作者 李强 黄辉 +3 位作者 周沁 韩雅倩 肖桐 朱靖波 《计算机学报》 EI CSCD 北大核心 2019年第3期566-581,共16页
由于神经机器翻译模型简单、通用和有效,神经机器翻译模型已成为目前最受关注的机器翻译模型.在神经机器翻译模型中,通过引入词汇翻译表和短语翻译表可以提高翻译质量.然而,对于已经存在的人工整理的翻译模板或者启发式算法生成的翻译模... 由于神经机器翻译模型简单、通用和有效,神经机器翻译模型已成为目前最受关注的机器翻译模型.在神经机器翻译模型中,通过引入词汇翻译表和短语翻译表可以提高翻译质量.然而,对于已经存在的人工整理的翻译模板或者启发式算法生成的翻译模板,目前已有的神经机器翻译框架不存在有效的方法对这些翻译模板进行建模.该文研究的主要内容是将翻译模板内嵌到端到端的神经机器翻译模型中.为此,我们提出了模板驱动的神经机器翻译模型,该模型通过使用额外的模板编码器对翻译模板进行端到端建模,通过使用知识门阀和注意力门阀动态地控制解码过程中不同来源的知识对当前解码词汇的贡献度的大小.知识门阀的主要作用是对源语言句子和翻译模板的信息进行有效的表示,从而更好地对解码器进行初始化.注意力门阀是一个基于时序的门阀,可以动态地控制当前翻译词汇接收源语言句子或者翻译模板信息的多少.最终实验结果表明,该文提出的方法对模板进行了有效的建模,20%词汇标准模板在汉英和英汉翻译任务上的翻译正确率分别高达93.6%和95.1%.与基线翻译系统相比,在汉英和英汉翻译任务上使用含有20%词汇的标准模板时,翻译性能可以增长4.2~7.2个BLEU值.当翻译模板中的真实词汇增加时,翻译质量得到进一步提升. 展开更多
关键词 人工智能 自然语言处理 神经机器翻译 翻译模板 门阀
在线阅读 下载PDF
从粗粒度到细粒度的神经机器翻译系统推断加速方法 被引量:7
3
作者 张裕浩 许诺 +2 位作者 李垠桥 肖桐 朱靖波 《厦门大学学报(自然科学版)》 CAS CSCD 北大核心 2020年第2期175-184,共10页
近年来,Transformer模型中多层注意力网络的使用有效提升了翻译模型的译文质量,但同时大量注意力操作的使用也导致模型整体的推断效率相对较低.基于此,提出了从粗粒度到细粒度(coarse-to-fine,CTF)的方法,根据注意力权重中的信息量差异... 近年来,Transformer模型中多层注意力网络的使用有效提升了翻译模型的译文质量,但同时大量注意力操作的使用也导致模型整体的推断效率相对较低.基于此,提出了从粗粒度到细粒度(coarse-to-fine,CTF)的方法,根据注意力权重中的信息量差异对信息表示进行细粒度压缩,最终达到加速推断的目的.实验发现,在NIST中英和WMT英德翻译任务上,该方法在保证模型性能的同时,推断速度分别提升了13.9%和12.8%.此外,还进一步分析了注意力操作在不同表示粒度下的信息量差异,对该方法的合理性提供支持. 展开更多
关键词 神经机器翻译 模型加速 从粗粒度到细粒度
在线阅读 下载PDF
神经机器翻译中数据泛化与短语生成方法研究 被引量:7
4
作者 李强 韩雅倩 +1 位作者 肖桐 朱靖波 《中文信息学报》 CSCD 北大核心 2018年第8期42-52,共11页
该文对神经机器翻译中的数据泛化方法和短语生成方法进行研究。在使用基于子词的方法来缓解未登录词和稀疏词汇问题的基础上,提出使用数据泛化的方法来进一步优化未登录词和稀疏词汇的翻译,缓解了子词方法中出现的错译问题。文中对基于... 该文对神经机器翻译中的数据泛化方法和短语生成方法进行研究。在使用基于子词的方法来缓解未登录词和稀疏词汇问题的基础上,提出使用数据泛化的方法来进一步优化未登录词和稀疏词汇的翻译,缓解了子词方法中出现的错译问题。文中对基于子词的方法和基于数据泛化的方法进行了详细的实验对比,对两种方法的优缺点进行了讨论和说明。针对数据泛化的处理方法,提出了一致性检测方法和解码优化方法。由于标准的神经机器翻译模型以词汇为基础进行翻译建模,因此该文提出了一种规模可控的短语生成方法,通过使用该文方法生成的源语言短语,神经机器翻译的翻译性能进一步提高。最终,在汉英和英汉翻译任务上,翻译性能与基线翻译系统相比分别提高了1.3和1.2个BLEU值。 展开更多
关键词 自然语言处理 神经机器翻译 数据泛化 短语生成
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部