
摘要
在图像集合中无监督地定位对象可以帮助避免昂贵的标注工作。我们提出了一种简单的方法来解决这一问题,该方法利用了以自监督方式预训练的视觉变换器的激活特征。我们的方法称为LOST( Localization Of Self-supervised Transformers),无需任何外部对象建议或对图像集合进行探索;它仅在一个图像上操作。尽管如此,我们在PASCAL VOC 2012数据集上的表现超过了最先进的对象发现方法,最高可提高8个CorLoc点。此外,我们还展示了在发现的对象上训练一个类别无关的检测器可以进一步提升结果,达到额外的7个点。更重要的是,我们在无监督对象发现任务中也取得了令人鼓舞的结果。用于重现我们结果的代码可以在https://github.com/valeoai/LOST找到。
代码仓库
lukemelas/deep-spectral-segmentation
pytorch
GitHub 中提及
valeoai/LOST
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| single-object-discovery-on-coco-20k | LOST | CorLoc: 50.7 |
| single-object-discovery-on-coco-20k | LOST + CAD | CorLoc: 57.5 |
| weakly-supervised-object-localization-on-cub | LOST | Top-1 Localization Accuracy: 71.3 |