
摘要
无样本示例的类别增量学习要求分类模型在不保留任何旧样本的情况下逐步学习新的类别知识。近年来,基于并行单类分类器(Parallel One-Class Classifiers, POC)的框架受到了广泛关注,因为它可以自然地避免灾难性遗忘。然而,由于对不同单类分类器(One-Class Classifier, OCC)进行独立训练的策略,POC在区分能力和可比性方面存在不足。为了解决这一挑战,我们提出了一种新的框架,称为用于增量学习的判别性和可比性单类分类器(Discriminative and Comparable One-class classifiers for Incremental Learning, DisCOIL)。DisCOIL遵循POC的基本原则,但采用了变分自编码器(Variational Auto-Encoders, VAE),而不是其他已建立的单类分类器(例如深度SVDD),因为经过训练的VAE不仅可以识别输入样本属于某个类别的概率,还可以生成该类别的伪样本以辅助新任务的学习。利用这一优势,DisCOIL通过与旧类别VAE对比来训练新类别VAE,这迫使新类别VAE对新类别样本进行更好的重构,而对旧类别伪样本进行较差的重构,从而增强了可比性。此外,DisCOIL引入了铰链重构损失以确保区分能力。我们在MNIST、CIFAR10和Tiny-ImageNet数据集上广泛评估了我们的方法。实验结果表明,DisCOIL达到了最先进的性能。
代码仓库
SunWenJu123/DCPOC
官方
pytorch
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| exemplar-free-counting-on-fsc147 | RepRPN-Counter | MAE(test): 26.66 MAE(val): 29.24 RMSE(test): 129.11 RMSE(val): 98.11 |