
摘要
本文介绍了神经短语基机器翻译(Neural Phrase-based Machine Translation, NPMT)。我们的方法通过睡眠-唤醒网络(Sleep-Wake Networks, SWAN)显式地建模输出序列中的短语结构,SWAN是一种最近提出的基于分段的序列建模方法。为了缓解SWAN的单调对齐要求,我们引入了一种新的层来执行输入序列的局部重排序(软重排序)。与现有的神经机器翻译(Neural Machine Translation, NMT)方法不同,NPMT不使用基于注意力的解码机制。相反,它直接按顺序输出短语,并且可以在线性时间内进行解码。实验结果表明,NPMT在IWSLT 2014德英/英德和IWSLT 2015英越机器翻译任务中表现优于强大的NMT基线模型。我们还观察到,该方法在输出语言中生成了有意义的短语。
代码仓库
Microsoft/NPMT
pytorch
GitHub 中提及
ykrmm/ICLR_2020
pytorch
GitHub 中提及
ykrmm/TREMBA
pytorch
GitHub 中提及
posenhuang/NPMT
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| machine-translation-on-iwslt2014-german | Neural PBMT + LM [Huang2018] | BLEU score: 30.08 |
| machine-translation-on-iwslt2015-english | NPMT + language model | BLEU score: 25.36 |
| machine-translation-on-iwslt2015-german | NPMT + language model | BLEU score: 30.08 |