3 个月前

自监督多样化专家聚合用于测试无关的长尾识别

自监督多样化专家聚合用于测试无关的长尾识别

摘要

现有的长尾识别方法旨在从长尾数据中训练出类别平衡的模型,通常假设模型在均匀分布的测试类别上进行评估。然而,在实际应用中,测试阶段的类别分布往往违背这一假设(例如,呈现为长尾分布,甚至反向长尾分布),这可能导致现有方法在真实场景中失效。本文研究了一个更具实际意义但更具挑战性的任务——测试无关的长尾识别(test-agnostic long-tailed recognition),其设定为:训练阶段的类别分布为长尾分布,而测试阶段的类别分布未知且不一定是均匀分布。除了类别不平衡问题外,该任务还面临另一重大挑战:训练数据与测试数据之间的类别分布差异是未知的。为应对这一挑战,本文提出一种新颖方法——自监督多样化专家聚合(Self-supervised Aggregation of Diverse Experts, SADE),包含两个核心策略:(i)一种新的技能多样化专家学习策略,从单一且固定的长尾训练数据集中训练多个专家模型,使其能够分别适应不同的类别分布;(ii)一种创新的测试时专家聚合策略,利用自监督机制对多个已学习的专家进行动态聚合,以应对未知的测试类别分布。我们从理论上证明了所提出的自监督策略具备模拟测试无关类别分布的可证明能力。大量实验结果表明,该方法在标准长尾识别与测试无关长尾识别任务上均展现出优异性能。代码已开源,地址为:\url{https://github.com/Vanint/SADE-AgnosticLT}。

代码仓库

Vanint/TADE-AgnosticLT
官方
pytorch
GitHub 中提及
vanint/sade-agnosticlt
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
image-classification-on-inaturalist-2018TADE (ResNet-50)
Top-1 Accuracy: 72.9%
long-tail-learning-on-cifar-10-lt-r-10TADE
Error Rate: 9.2
long-tail-learning-on-cifar-10-lt-r-10RIDE
Error Rate: 10.3
long-tail-learning-on-cifar-10-lt-r-100TADE
Error Rate: 16.2
long-tail-learning-on-cifar-100-lt-r-10TADE
Error Rate: 36.4
long-tail-learning-on-cifar-100-lt-r-100TADE
Error Rate: 50.2
long-tail-learning-on-cifar-100-lt-r-50TADE
Error Rate: 46.1
long-tail-learning-on-imagenet-ltTADE(ResNeXt101-32x4d)
Top-1 Accuracy: 61.4
long-tail-learning-on-imagenet-ltTADE(ResNeXt-50)
Top-1 Accuracy: 58.8
long-tail-learning-on-inaturalist-2018TADE
Top-1 Accuracy: 72.9%
long-tail-learning-on-inaturalist-2018TADE(ResNet-152)
Top-1 Accuracy: 77%
long-tail-learning-on-places-ltTADE
Top 1 Accuracy: 40.9
Top-1 Accuracy: 41.3

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
自监督多样化专家聚合用于测试无关的长尾识别 | 论文 | HyperAI超神经