3 个月前

语言模型不仅用于预训练:快速在线神经噪声信道建模

语言模型不仅用于预训练:快速在线神经噪声信道建模

摘要

在海量无标注数据上进行预训练,已成为提升多种自然语言处理(NLP)任务准确率的有效方法。另一方面,传统的机器翻译长期以来通过噪声信道建模(noisy channel modeling)利用无标注数据。近期研究发现,这一思想同样能够显著提升神经机器翻译(Neural Machine Translation, NMT)的性能。然而,若将传统的噪声信道建模直接应用于现代序列到序列模型,其推理速度比其他方法慢一个数量级。为解决这一问题,本文提出高效的近似方法,使得噪声信道推理的速度与强大集成模型相当,同时进一步提升翻译准确率。此外,实验表明,该噪声信道方法在WMT罗马尼亚语-英语翻译任务上取得了新的最优性能,超越了当前先进的预训练模型结果。

基准测试

基准方法指标
machine-translation-on-wmt2016-romanianfast-noisy-channel-modeling
BLEU score: 40.3

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
语言模型不仅用于预训练:快速在线神经噪声信道建模 | 论文 | HyperAI超神经