4 个月前

面向神经短语的机器翻译

面向神经短语的机器翻译

摘要

本文介绍了神经短语基机器翻译(Neural Phrase-based Machine Translation, NPMT)。我们的方法通过睡眠-唤醒网络(Sleep-Wake Networks, SWAN)显式地建模输出序列中的短语结构,SWAN是一种最近提出的基于分段的序列建模方法。为了缓解SWAN的单调对齐要求,我们引入了一种新的层来执行输入序列的局部重排序(软重排序)。与现有的神经机器翻译(Neural Machine Translation, NMT)方法不同,NPMT不使用基于注意力的解码机制。相反,它直接按顺序输出短语,并且可以在线性时间内进行解码。实验结果表明,NPMT在IWSLT 2014德英/英德和IWSLT 2015英越机器翻译任务中表现优于强大的NMT基线模型。我们还观察到,该方法在输出语言中生成了有意义的短语。

代码仓库

Microsoft/NPMT
pytorch
GitHub 中提及
ykrmm/ICLR_2020
pytorch
GitHub 中提及
ykrmm/TREMBA
pytorch
GitHub 中提及
posenhuang/NPMT
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
machine-translation-on-iwslt2014-germanNeural PBMT + LM [Huang2018]
BLEU score: 30.08
machine-translation-on-iwslt2015-englishNPMT + language model
BLEU score: 25.36
machine-translation-on-iwslt2015-germanNPMT + language model
BLEU score: 30.08

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
面向神经短语的机器翻译 | 论文 | HyperAI超神经