
摘要
神经机器翻译系统已成为语法错误修正(GEC)任务的最先进方法。在本文中,我们提出了一种用于GEC任务的复制增强架构,通过从源句复制未改变的单词到目标句来实现。由于GEC任务面临缺乏足够的标注训练数据以达到高精度的问题,我们使用未标注的一亿基准数据集对复制增强架构进行了预训练,并对完全预训练模型和部分预训练模型进行了对比实验。这是首次尝试从源上下文中复制单词并完全预训练序列到序列模型以应用于GEC任务。此外,我们在GEC任务中引入了词级和句级的多任务学习。在CoNLL-2014测试集上的评估结果显示,我们的方法大幅超越了所有最近发布的最先进结果。代码和预训练模型已发布在https://github.com/zhawe01/fairseq-gec。
代码仓库
s-ankur/fairseq-gec
pytorch
GitHub 中提及
youichiro/transformer-copy
pytorch
GitHub 中提及
zhawe01/fairseq-gec
官方
pytorch
GitHub 中提及
soyoung97/fairseq-gec-korean
pytorch
GitHub 中提及
raghavmalawat/presentationmastery
pytorch
GitHub 中提及
yuantiku/fairseq-gec
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| grammatical-error-correction-on-conll-2014 | Copy-augmented Model (4 Ensemble +Denoising Autoencoder) | F0.5: 61.15 Precision: 71.57 Recall: 38.65 |
| grammatical-error-correction-on-jfleg | Copy-augmented Model (4 Ensemble +Denoising Autoencoder) | GLEU: 61.0 |