4 个月前

跨语言语言模型预训练

跨语言语言模型预训练

摘要

最近的研究表明,生成式预训练在英语自然语言理解方面具有高效性。在这项工作中,我们将这种方法扩展到多种语言,并展示了跨语言预训练的有效性。我们提出了两种学习跨语言模型(XLM)的方法:一种是无监督方法,仅依赖单语数据;另一种是有监督方法,利用平行数据并引入新的跨语言模型目标。我们在跨语言分类、无监督和有监督机器翻译方面取得了最先进的结果。在XNLI(Cross-lingual Natural Language Inference)上,我们的方法将准确率绝对提高了4.9%。在无监督机器翻译中,我们在WMT'16德英翻译任务上获得了34.3的BLEU分数,比之前的最佳方法提高了超过9个BLEU点。在有监督机器翻译中,我们在WMT'16罗英翻译任务上达到了38.5的BLEU分数,超过了之前最佳方法超过4个BLEU点。我们的代码和预训练模型将公开发布。

代码仓库

1-punchMan/CLTS
pytorch
GitHub 中提及
JunnYu/xlm_paddle
paddle
GitHub 中提及
facebookresearch/UnsupervisedMT
pytorch
GitHub 中提及
fshdnc/enfi-XLM
pytorch
GitHub 中提及
Tikquuss/meta_XLM
pytorch
GitHub 中提及
facebookresearch/MLQA
GitHub 中提及
huggingface/transformers
pytorch
GitHub 中提及
facebookresearch/XLM
pytorch
GitHub 中提及
Somefive/XNLI
pytorch
GitHub 中提及
feyzaakyurek/XLM-LwLL
pytorch
GitHub 中提及
kheeong/XLM_OWN
pytorch
GitHub 中提及

基准测试

基准方法指标
machine-translation-on-wmt2016-romanianMLM pretraining
BLEU score: 35.3
natural-language-inference-on-xnli-frenchXLM (MLM+TLM)
Accuracy: 80.2
unsupervised-machine-translation-on-wmt2014-1MLM pretraining for encoder and decoder
BLEU: 33.3
unsupervised-machine-translation-on-wmt2014-2MLM pretraining for encoder and decoder
BLEU: 33.4
unsupervised-machine-translation-on-wmt2016MLM pretraining for encoder and decoder
BLEU: 26.4
unsupervised-machine-translation-on-wmt2016-1MLM pretraining for encoder and decoder
BLEU: 34.3
unsupervised-machine-translation-on-wmt2016-2MLM pretraining for encoder and decoder
BLEU: 33.3
unsupervised-machine-translation-on-wmt2016-3MLM pretraining for encoder and decoder
BLEU: 31.8
unsupervised-machine-translation-on-wmt2016-5MLM pretraining for encoder and decoder
BLEU: 33.3

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
跨语言语言模型预训练 | 论文 | HyperAI超神经