3 个月前

FOSTER:面向类别增量学习的特征增强与压缩

FOSTER:面向类别增量学习的特征增强与压缩

摘要

在不断变化的世界中,持续学习新概念的能力至关重要。然而,深度神经网络在学习新类别时往往面临灾难性遗忘问题。尽管已有大量研究致力于缓解这一现象,但多数方法要么陷入稳定性与可塑性之间的权衡困境,要么带来过高的计算或存储开销。受梯度提升算法的启发——该算法通过逐步拟合目标模型与先前集成模型之间的残差,我们提出了一种新型的两阶段学习范式FOSTER,使模型能够自适应地学习新类别。具体而言,我们首先动态扩展新的模块,以拟合目标模型与原始模型输出之间的残差;随后,通过一种高效的蒸馏策略,移除冗余参数与特征维度,从而保持单一主干网络的结构。我们在CIFAR-100以及ImageNet-100/1000数据集上,在多种设置下对所提方法FOSTER进行了验证。实验结果表明,该方法在性能上达到了当前最优水平。代码已开源,地址为:https://github.com/G-U-N/ECCV22-FOSTER。

代码仓库

G-U-N/ECCV22-FOSTER
官方
pytorch
GitHub 中提及
g-u-n/pycil
pytorch
GitHub 中提及

基准测试

基准方法指标
incremental-learning-on-cifar-100-50-classes-1FOSTER
Average Incremental Accuracy: 63.83
incremental-learning-on-cifar-100-50-classes-2FOSTER
Average Incremental Accuracy: 67.95
incremental-learning-on-cifar-100-50-classes-3FOSTER
Average Incremental Accuracy: 69.46
incremental-learning-on-cifar100-b0-10stepsFOSTER
Average Incremental Accuracy: 72.9
incremental-learning-on-cifar100b020stepFOSTER
Average Incremental Accuracy: 70.65
incremental-learning-on-imagenet-10-stepsFOSTER
Average Incremental Accuracy: 68.34
incremental-learning-on-imagenet-100-50-1FOSTER
Average Incremental Accuracy: 69.34
incremental-learning-on-imagenet-100-50-2FOSTER
Average Incremental Accuracy: 77.54
incremental-learning-on-imagenet-100-50-3FOSTER
Average Incremental Accuracy: 80.22
incremental-learning-on-imagenet100-10-stepsFOSTER
Average Incremental Accuracy: 77.75
incremental-learning-on-imagenet100-20-stepsFOSTER
Average Incremental Accuracy: 74.49

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
FOSTER:面向类别增量学习的特征增强与压缩 | 论文 | HyperAI超神经