3 个月前

用于参数高效文本生成的控制前缀

用于参数高效文本生成的控制前缀

摘要

Prefix-tuning 是一种强大的轻量级技术,可用于将大型预训练语言模型适配至下游应用。然而,该方法对数据集中的所有样本均使用相同的、基于数据集层面调优的提示(prompt)。为此,我们拓展了这一思路,提出了一种动态方法——控制前缀(Control Prefixes),该方法能够引入与条件输入相关的依赖信息,融合了提示调优(prompt tuning)与可控生成的优势。该方法在预训练 Transformer 模型的不同层中引入了属性级别的可学习表征,从而能够引导生成文本朝特定方向演化。我们对该技术进行了系统性评估,并将其应用于 GEM 基准测试中五个自然语言生成(NLG)数据集。尽管本研究旨在构建参数高效的模型,但我们发现 Control Prefixes 在多数情况下甚至可超越全量微调(full fine-tuning)方法。在多个数据到文本生成数据集上,包括 WebNLG,我们取得了当前最先进的性能表现。

代码仓库

jordiclive/ControlPrefixes
官方
pytorch
GitHub 中提及
Yale-LILY/dart
官方
GitHub 中提及

基准测试

基准方法指标
data-to-text-generation-on-cleaned-e2e-nlg-1Control Prefixes (T5-large)
BLEU (Test set): 44.15
data-to-text-generation-on-webnlgControl Prefixes (A1, A2, T5-large)
BLEU: 67.15
data-to-text-generation-on-webnlgControl Prefixes (A1, T5-large)
BLEU: 67.32
data-to-text-generation-on-webnlg-full-1Control Prefixes (A1, T5-large)
BLEU: 61.94
data-to-text-generation-on-webnlg-full-1Control Prefixes (A1, A2, T5-large)
BLEU: 62.27
text-generation-on-dartControl Prefixes (T5-large)
METEOR: 0.411
text-simplification-on-assetControl Prefixes (BART)
FKGL: 5.97
QuestEval (Reference-less, BERTScore): 0.64
SARI (EASSEu003e=0.2.1): 43.58
text-simplification-on-turkcorpusControl Prefixes (BART)
FKGL: 7.74
QuestEval (Reference-less, BERTScore): 0.66
SARI (EASSEu003e=0.2.1): 42.32

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供