
摘要
本文提出了一种名为POMP的视觉-语言模型提示预训练方法。该方法在内存和计算效率方面表现优异,能够使学习到的提示(prompt)高效地凝聚超过两万种视觉概念的语义信息。在完成预训练后,该提示具备强大的可迁移性,可直接应用于多种视觉识别任务,包括图像分类、语义分割和目标检测,实现零样本(zero-shot)性能提升。实证评估表明,POMP在21个数据集上均达到当前最优性能,例如在10个图像分类数据集上平均准确率达67.0%(相较于CoOp提升3.1%),在开放词汇Pascal VOC语义分割任务中达到84.4 hIoU(较ZSSeg提升6.9)。相关代码已开源,地址为:https://github.com/amazon-science/prompt-pretraining。
代码仓库
amazon-science/prompt-pretraining
官方
pytorch
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| open-vocabulary-object-detection-on-lvis-v1-0 | POMP | AP novel-LVIS base training: 25.2 |
| open-vocabulary-semantic-segmentation-on-5 | POMP | hIoU: 84.4 mIoU: 89.4 |
| open-vocabulary-semantic-segmentation-on-coco | POMP | HIoU: 39.1 |
| prompt-engineering-on-imagenet-21k | POMP | Accuracy: 25.3 |
| prompt-engineering-on-imagenet-a | POMP | Top-1 accuracy %: 51.6 |
| prompt-engineering-on-imagenet-r | POMP | Top-1 accuracy %: 77.9 |
| prompt-engineering-on-imagenet-s | POMP | Top-1 accuracy %: 49.8 |