
摘要
提示调优(Prompt Tuning)已成为模型微调的一种新范式,在自然语言预训练乃至视觉预训练中均展现出显著成效。在本工作中,我们探索将提示调优方法迁移至多模态预训练领域,重点关注生成式多模态预训练模型,而非对比式模型。具体而言,我们在一个统一的序列到序列预训练模型上实现提示调优,该模型能够适应理解与生成两类任务。实验结果表明,轻量级的提示调优方法在性能上可与全模型微调相媲美,并优于其他轻量级调优方法。此外,与微调模型相比,提示调优模型在对抗攻击下展现出更强的鲁棒性。我们进一步发现,提示长度、提示深度以及重参数化策略等实验因素对模型性能具有显著影响,因此基于实验观察,我们提出了针对提示调优设置的实用建议。尽管提示调优展现出诸多优势,我们仍识别出其存在的若干局限性,并据此指出了未来研究的可能方向。相关代码已开源,地址为:\url{https://github.com/OFA-Sys/OFA}。
代码仓库
ofa-sys/ofa
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| image-captioning-on-coco-captions | Prompt Tuning | BLEU-4: 41.81 CIDER: 141.4 METEOR: 31.51 SPICE: 24.42 |
| visual-entailment-on-snli-ve-test | Prompt Tuning | Accuracy: 90.12 |
| visual-entailment-on-snli-ve-val | Prompt Tuning | Accuracy: 90.04 |
| visual-question-answering-on-vqa-v2-test-std | Prompt Tuning | overall: 78.53 |