
摘要
从新数据中持续学习新类别,同时不遗忘旧类别的知识,是一个极具挑战性的研究问题。此外,此类学习必须满足特定的内存与计算约束,包括:(i)每类训练样本仅限少量;(ii)学习新类别的计算开销保持恒定;(iii)模型的内存占用随所观察类别数量最多呈线性增长。为满足上述约束,我们提出C-FSCIL,其架构由一个冻结的元学习特征提取器、一个可训练的固定大小全连接层,以及一个可重写且动态增长的内存组成,该内存可存储与已遇到类别数量相等的向量。C-FSCIL提供三种更新模式,可在新类别学习的准确性与计算-内存开销之间实现灵活权衡。该方法利用超维嵌入(hyperdimensional embedding)技术,能够在固定维度的向量空间中持续表示远超维度数量的类别,且干扰极小。通过引入新颖的损失函数,进一步将类别向量表示在近正交方向上对齐,显著提升了表示质量。在CIFAR100、miniImageNet和Omniglot数据集上的实验表明,C-FSCIL在准确率与压缩性能方面均显著优于现有基线方法。此外,该方法可扩展至此类少样本设置中迄今为止最大的问题规模——在1200个基础类别的基础上,成功学习423个新类别,且准确率下降不足1.6%。相关代码已开源,地址为:https://github.com/IBM/constrained-FSCIL。
代码仓库
pulp-platform/fscil
pytorch
GitHub 中提及
ibm/constrained-fscil
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| few-shot-class-incremental-learning-on-cifar | C-FSCIL | Average Accuracy: 61.67 Last Accuracy: 50.47 |
| few-shot-class-incremental-learning-on-mini | C-FSCIL | Average Accuracy: 61.61 Last Accuracy : 51.41 |