
摘要
当前最先进的无监督重识别(re-ID)方法通常采用基于记忆库的非参数化Softmax损失来训练神经网络。这些方法将存储在记忆库中的实例特征向量通过聚类分配伪标签,并在实例级别进行更新。然而,聚类规模的差异会导致各聚类更新进度不一致,从而影响整体性能。为解决这一问题,我们提出了一种名为Cluster Contrast的新方法,该方法在聚类层面存储特征向量并计算对比损失。该方法为每个聚类构建独特的聚类表示,形成一种聚类级别的记忆字典。通过这种方式,能够有效维持整个流程中聚类的一致性,同时显著降低GPU内存消耗。因此,该方法不仅解决了聚类不一致的问题,还具备处理更大规模数据集的能力。此外,我们采用多种不同的聚类算法验证了所提出框架的鲁棒性与泛化能力。将Cluster Contrast应用于标准的无监督re-ID流程,在Market-1501、DukeMTMC-reID和MSMT17三个主流数据集上,相较于当前最先进的纯无监督re-ID方法,分别实现了9.9%、8.3%和12.1%的mAP提升;相较于最先进的无监督域自适应re-ID方法,也分别取得了5.5%、4.8%和4.4%的mAP提升。代码已开源,地址为:https://github.com/alibaba/cluster-contrast。
代码仓库
alibaba/cluster-contrast
官方
pytorch
GitHub 中提及
alibaba/cluster-contrast-reid
pytorch
GitHub 中提及
wangguangyuan/ClusterContrast
官方
pytorch
GitHub 中提及
2020132075/conmae
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| unsupervised-person-re-identification-on-12 | Cluster Contrast | Rank-1: 62 Rank-10: 76.7 Rank-5: 71.8 mAP: 33 |
| unsupervised-person-re-identification-on-14 | Cluster Contrast | Rank-1: 94.4 Rank-5: 99.3 mAP: 84.7 |
| unsupervised-person-re-identification-on-4 | Cluster Contrast | MAP: 83 Rank-1: 92.9 Rank-10: 98 Rank-5: 97.2 |
| vehicle-re-identification-on-veri-776 | Cluster Contrast | Rank-10: 92.8 Rank1: 86.2 Rank5: 90.5 mAP: 40.8 |