
摘要
现有的长尾识别方法旨在从长尾数据中训练出类别平衡的模型,通常假设模型在均匀分布的测试类别上进行评估。然而,在实际应用中,测试阶段的类别分布往往违背这一假设(例如,呈现为长尾分布,甚至反向长尾分布),这可能导致现有方法在真实场景中失效。本文研究了一个更具实际意义但更具挑战性的任务——测试无关的长尾识别(test-agnostic long-tailed recognition),其设定为:训练阶段的类别分布为长尾分布,而测试阶段的类别分布未知且不一定是均匀分布。除了类别不平衡问题外,该任务还面临另一重大挑战:训练数据与测试数据之间的类别分布差异是未知的。为应对这一挑战,本文提出一种新颖方法——自监督多样化专家聚合(Self-supervised Aggregation of Diverse Experts, SADE),包含两个核心策略:(i)一种新的技能多样化专家学习策略,从单一且固定的长尾训练数据集中训练多个专家模型,使其能够分别适应不同的类别分布;(ii)一种创新的测试时专家聚合策略,利用自监督机制对多个已学习的专家进行动态聚合,以应对未知的测试类别分布。我们从理论上证明了所提出的自监督策略具备模拟测试无关类别分布的可证明能力。大量实验结果表明,该方法在标准长尾识别与测试无关长尾识别任务上均展现出优异性能。代码已开源,地址为:\url{https://github.com/Vanint/SADE-AgnosticLT}。
代码仓库
Vanint/TADE-AgnosticLT
官方
pytorch
GitHub 中提及
vanint/sade-agnosticlt
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| image-classification-on-inaturalist-2018 | TADE (ResNet-50) | Top-1 Accuracy: 72.9% |
| long-tail-learning-on-cifar-10-lt-r-10 | TADE | Error Rate: 9.2 |
| long-tail-learning-on-cifar-10-lt-r-10 | RIDE | Error Rate: 10.3 |
| long-tail-learning-on-cifar-10-lt-r-100 | TADE | Error Rate: 16.2 |
| long-tail-learning-on-cifar-100-lt-r-10 | TADE | Error Rate: 36.4 |
| long-tail-learning-on-cifar-100-lt-r-100 | TADE | Error Rate: 50.2 |
| long-tail-learning-on-cifar-100-lt-r-50 | TADE | Error Rate: 46.1 |
| long-tail-learning-on-imagenet-lt | TADE(ResNeXt101-32x4d) | Top-1 Accuracy: 61.4 |
| long-tail-learning-on-imagenet-lt | TADE(ResNeXt-50) | Top-1 Accuracy: 58.8 |
| long-tail-learning-on-inaturalist-2018 | TADE | Top-1 Accuracy: 72.9% |
| long-tail-learning-on-inaturalist-2018 | TADE(ResNet-152) | Top-1 Accuracy: 77% |
| long-tail-learning-on-places-lt | TADE | Top 1 Accuracy: 40.9 Top-1 Accuracy: 41.3 |