HyperAIHyperAI

Command Palette

Search for a command to run...

语言模型的持续训练用于少样本学习

Zixuan Ke Haowei Lin Yijia Shao Hu Xu Lei Shu Bing Liu

摘要

近期,将大规模语言模型(Language Models, LMs)应用于自然语言处理(NLP)任务的研究取得了令人瞩目的成果。通过使用未标注的领域语料对语言模型进行适应性调整或后续训练(post-training),可显著提升其在特定领域下游任务中的性能。本文提出了一项新问题:通过依次使用一系列未标注的领域语料对语言模型进行增量式后续训练,持续扩展其知识体系,同时避免遗忘已掌握的先前技能。该方法旨在提升这些领域中少样本(few-shot)下游任务的学习效果。所提出的系统称为CPT(Continual PostTraining),据我们所知,这是首个实现持续后续训练的语言模型系统。实验结果验证了该方法的有效性。


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
语言模型的持续训练用于少样本学习 | 论文 | HyperAI超神经