LiLiunian Harold ; ZhangPengchuan ; ZhangHaotian ; YangJianwei ; LiChunyuan ; ZhongYiwu ; WangLijuan ; YuanLu ; ZhangLei ; HwangJenq-Neng ; ChangKai-Wei ; GaoJianfeng

摘要
本文介绍了一种基于实例的语言-图像预训练(GLIP)模型,用于学习对象级别的、语言感知的、语义丰富的视觉表示。GLIP 在预训练过程中统一了目标检测和短语定位。这种统一带来了两个好处:1)它使 GLIP 能够从检测数据和定位数据中学习,以提升这两项任务的性能并引导出一个良好的定位模型;2)GLIP 可以通过自训练的方式生成定位框,从而利用大量的图像-文本对,使学到的表示更加语义丰富。在我们的实验中,我们在 2700 万条定位数据上预训练了 GLIP,其中包括 300 万个人工标注的图像-文本对和 2400 万个网络爬取的图像-文本对。所学的表示在各种对象级别的识别任务中表现出强大的零样本和少样本迁移能力。具体而言:1)当直接在 COCO 和 LVIS 上进行评估时(预训练阶段未见过 COCO 中的任何图像),GLIP 分别达到了 49.8 AP 和 26.9 AP 的性能,超过了多个监督基线模型;2)经过在 COCO 上微调后,GLIP 在验证集上的 AP 达到 60.8,在测试开发集上的 AP 达到 61.5,超越了之前的最先进水平;3)当迁移到 13 个下游目标检测任务时,仅需一次示例的 GLIP 模型即可与完全监督的动态头模型相媲美。代码已发布在 https://github.com/microsoft/GLIP。
代码仓库
brown-palm/ObjectPrompt
pytorch
GitHub 中提及
microsoft/GLIP
官方
pytorch
GitHub 中提及
rsCPSyEu/ovd_cod
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| 2d-object-detection-on-rf100 | GLIP | Average mAP: 0.112 |
| described-object-detection-on-description | GLIP-T | Intra-scenario ABS mAP: 21.5 Intra-scenario FULL mAP: 19.1 Intra-scenario PRES mAP: 18.3 |
| few-shot-object-detection-on-odinw-13 | GLIP-T | Average Score: 50.7 |
| few-shot-object-detection-on-odinw-35 | GLIP-T | Average Score: 38.9 |
| object-detection-on-coco | GLIP (Swin-L, multi-scale) | AP50: 79.5 AP75: 67.7 APL: 75.0 APM: 64.9 APS: 45.3 box mAP: 61.5 |
| object-detection-on-coco-minival | GLIP (Swin-L, multi-scale) | box AP: 60.8 |
| object-detection-on-coco-o | GLIP-L (Swin-L) | Average mAP: 48.0 Effective Robustness: 24.89 |
| object-detection-on-coco-o | GLIP-T (Swin-T) | Average mAP: 29.1 Effective Robustness: 8.11 |
| object-detection-on-odinw-full-shot-13-tasks | GLIP | AP: 68.9 |
| phrase-grounding-on-flickr30k-entities-test | GLIP | R@1: 87.1 R@10: 98.1 R@5: 96.9 |
| zero-shot-object-detection-on-lvis-v1-0 | GLIP-L | AP: 37.3 |
| zero-shot-object-detection-on-lvis-v1-0-val | GLIP-L | AP: 26.9 |