3 个月前

基于预训练编码器-解码器模型的语法错误修正更强基线

基于预训练编码器-解码器模型的语法错误修正更强基线

摘要

关于语法错误修正(Grammatical Error Correction, GEC)的研究表明,使用大量伪数据对序列到序列(Seq2Seq)模型进行预训练能够有效提升性能。然而,由于伪数据规模庞大,这一方法在GEC任务中需要耗费大量时间进行预训练。在本研究中,我们探索了双向与自回归Transformer模型(BART)作为通用预训练编码器-解码器模型在GEC任务中的适用性。通过采用这种通用预训练模型,可有效避免耗时的预训练过程。实验结果表明,单语和多语种BART模型在GEC任务中均表现出色,其中一项结果已达到当前英语GEC领域先进水平。相关代码已公开发布于GitHub(https://github.com/Katsumata420/generic-pretrained-GEC)。

基准测试

基准方法指标
grammatical-error-correction-on-conll-2014BART
F0.5: 63.0
Precision: 69.9
Recall: 45.1

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
基于预训练编码器-解码器模型的语法错误修正更强基线 | 论文 | HyperAI超神经