
摘要
长尾分布数据上的分类任务是一项极具挑战性的问题,其主要瓶颈在于严重的类别不平衡,导致在尾部类别上的性能表现普遍不佳。近年来,基于集成的方法取得了当前最优的性能,并展现出巨大的应用潜力。然而,现有方法仍存在两大局限性:其一,其预测结果在对错误敏感的应用场景中缺乏可信度,尤其在尾部类别上,错误预测的发生频率较高,这一问题尤为严重;其二,现有方法对所有样本统一分配相同数量的专家,导致对简单样本而言存在冗余计算,造成不必要的计算开销。为解决上述问题,本文提出一种可信的长尾分类方法(Trustworthy Long-tailed Classification, TLC),在多专家框架下实现分类与不确定性估计的联合建模,以有效识别困难样本。所提TLC方法为每个专家计算基于证据的不确定性(Evidence-based Uncertainty, EvU)及其对应的证据值,并基于Dempster-Shafer证据理论(DST)对各专家的不确定性与证据进行融合。此外,我们进一步提出动态专家参与机制,根据样本难易程度自适应调整参与分类的专家数量,从而在保持优异性能的同时显著降低简单样本的计算成本,提升整体效率。最后,我们在分类、尾部类别检测、分布外(OOD)检测以及失败预测等多个任务上进行了全面实验。实验结果表明,所提出的TLC方法在各项任务上均显著优于现有方法,且具备高度可信性,其输出的不确定性估计具有良好的可靠性与可解释性。
代码仓库
lblaoke/tlc
官方
pytorch
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| long-tail-learning-on-cifar-10-lt-r-100 | TLC (4 experts) | Error Rate: 19.6 |
| long-tail-learning-on-cifar-100-lt-r-100 | TLC (4 Experts) | Error Rate: 50.2 |