3 个月前

通过生成式预训练提升语言理解能力

通过生成式预训练提升语言理解能力

摘要

自然语言理解涵盖了一系列多样化的任务,包括文本蕴含判断、问答、语义相似性评估以及文档分类等。尽管大规模未标注文本语料库极为丰富,但用于学习这些特定任务的标注数据却十分稀缺,这使得判别式训练模型难以达到理想性能。我们证明,通过在多样化未标注文本语料库上对语言模型进行生成式预训练,随后在每个具体任务上进行判别式微调,可以在这些任务上实现显著提升。与以往方法不同,我们在微调阶段引入了任务感知的输入转换机制,在几乎不改变模型架构的前提下,实现了高效的迁移学习。我们在广泛的自然语言理解基准测试中验证了该方法的有效性。所提出的通用、任务无关的模型在12项任务中的9项上超越了为特定任务专门设计架构的判别式模型,显著提升了当前最优水平。例如,在常识推理任务(Stories Cloze Test)上实现8.9%的绝对性能提升,在问答任务(RACE)上提升5.7%,在文本蕴含任务(MultiNLI)上提升1.5%。

基准测试

基准方法指标
natural-language-inference-on-multinliFinetuned Transformer LM
Matched: 82.1
Mismatched: 81.4
natural-language-inference-on-scitailFinetuned Transformer LM
Accuracy: 88.3
natural-language-inference-on-snliFine-Tuned LM-Pretrained Transformer
% Test Accuracy: 89.9
% Train Accuracy: 96.6
Parameters: 85m
question-answering-on-raceFinetuned Transformer LM
RACE: 59.0
RACE-h: 57.4
RACE-m: 62.9
question-answering-on-storyclozeFinetuned Transformer LM
Accuracy: 86.5

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
通过生成式预训练提升语言理解能力 | 论文 | HyperAI超神经