3 个月前

生成式多模态预训练模型的提示调优

生成式多模态预训练模型的提示调优

摘要

提示调优(Prompt Tuning)已成为模型微调的一种新范式,在自然语言预训练乃至视觉预训练中均展现出显著成效。在本工作中,我们探索将提示调优方法迁移至多模态预训练领域,重点关注生成式多模态预训练模型,而非对比式模型。具体而言,我们在一个统一的序列到序列预训练模型上实现提示调优,该模型能够适应理解与生成两类任务。实验结果表明,轻量级的提示调优方法在性能上可与全模型微调相媲美,并优于其他轻量级调优方法。此外,与微调模型相比,提示调优模型在对抗攻击下展现出更强的鲁棒性。我们进一步发现,提示长度、提示深度以及重参数化策略等实验因素对模型性能具有显著影响,因此基于实验观察,我们提出了针对提示调优设置的实用建议。尽管提示调优展现出诸多优势,我们仍识别出其存在的若干局限性,并据此指出了未来研究的可能方向。相关代码已开源,地址为:\url{https://github.com/OFA-Sys/OFA}。

代码仓库

ofa-sys/ofa
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
image-captioning-on-coco-captionsPrompt Tuning
BLEU-4: 41.81
CIDER: 141.4
METEOR: 31.51
SPICE: 24.42
visual-entailment-on-snli-ve-testPrompt Tuning
Accuracy: 90.12
visual-entailment-on-snli-ve-valPrompt Tuning
Accuracy: 90.04
visual-question-answering-on-vqa-v2-test-stdPrompt Tuning
overall: 78.53

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
生成式多模态预训练模型的提示调优 | 论文 | HyperAI超神经