
摘要
本文介绍了多语言掩码语言模型针对特定语言进行适应的方法。预训练的双向语言模型在包括阅读理解、自然语言推理和情感分析在内的广泛任务上表现出最先进的性能。目前,训练此类模型有两种替代方法:单语种和多语种。虽然特定语言的模型表现出更优的性能,但多语种模型可以实现从一种语言到另一种语言的知识迁移,并同时解决不同语言的任务。本研究显示,从多语种模型向单语种模型进行迁移学习,可以在阅读理解、同义句检测和情感分析等任务上显著提升性能。此外,使用多语种模型初始化单语种模型可以大幅减少训练时间。针对俄语的预训练模型已开源。
代码仓库
fulstock/mrc_nested_ner_ru
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| question-answering-on-squad11 | RuBERT | F1: 84.6 Hardware Burden: Operations per network pass: |
| sentiment-analysis-on-rusentiment | RuBERT | Weighted F1: 72.63 |