
摘要
当前长尾视觉识别的评估协议通常在长尾源标签分布上训练分类模型,并在均匀的目标标签分布上评估其性能。然而,这种评估方式在实际应用中存在疑问,因为目标分布本身也可能是长尾的。为此,我们将长尾视觉识别建模为一个标签分布偏移(label shift)问题,其中目标分布与源分布存在差异。处理标签分布偏移的一个关键挑战在于:源标签分布与模型预测之间存在纠缠关系。本文聚焦于将源标签分布从模型预测中解耦。我们首先提出一种简单但被长期忽视的基线方法:通过后处理在交叉熵损失与Softmax函数训练得到的模型预测结果,使其匹配目标标签分布。尽管该方法在基准数据集上已超越现有最先进方法,但仍可通过在训练阶段直接解耦源标签分布来进一步提升性能。为此,我们提出一种新颖的损失函数——LAbel distribution DisEntangling(LADE)损失,其理论基础源于Donsker-Varadhan表示的最优界。实验结果表明,LADE在多个基准数据集(如CIFAR-100-LT、Places-LT、ImageNet-LT和iNaturalist 2018)上均达到当前最优性能。此外,LADE在多种不同的目标标签分布偏移场景下均显著优于现有方法,充分展示了所提出方法的广泛适应性与泛化能力。
代码仓库
beierzhu/xerm
pytorch
GitHub 中提及
hyperconnect/LADE
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| image-classification-on-inaturalist-2018 | LADE | Top-1 Accuracy: 70.0% |
| long-tail-learning-on-cifar-10-lt-r-10 | LADE | Error Rate: 11.22 |
| long-tail-learning-on-cifar-100-lt-r-10 | LADE | Error Rate: 38.3 |
| long-tail-learning-on-cifar-100-lt-r-100 | LADE | Error Rate: 54.6 |
| long-tail-learning-on-imagenet-lt | LADE | Top-1 Accuracy: 53.0 |
| long-tail-learning-on-inaturalist-2018 | LADE | Top-1 Accuracy: 70.0% |
| long-tail-learning-on-places-lt | LADE | Top-1 Accuracy: 38.8 |