4 个月前

大规模增量学习

大规模增量学习

摘要

现代机器学习在增量学习新类别时面临灾难性遗忘的问题。由于缺乏旧类别的数据,性能会显著下降。为了解决这一问题,已经提出了一些增量学习方法,通过知识蒸馏和保留少量旧类别的样本来保持从旧类别中获得的知识。然而,这些方法在扩展到大量类别时遇到了困难。我们认为这是由于两个因素的结合:(a) 旧类别和新类别之间的数据不平衡,以及 (b) 视觉相似类别的数量不断增加。当训练数据不平衡时,区分越来越多的视觉相似类别尤为具有挑战性。我们提出了一种简单而有效的方法来解决这一数据不平衡问题。我们发现最后一层全连接层对新类别有很强的偏向性,这种偏向可以通过线性模型进行校正。通过引入两个偏差参数,我们的方法在两个大型数据集上表现优异:ImageNet(1000个类别)和 MS-Celeb-1M(10000个类别),分别超过了现有最先进算法11.1%和13.2%。

代码仓库

sairin1202/BIC
pytorch
GitHub 中提及
g-u-n/pycil
pytorch
GitHub 中提及

基准测试

基准方法指标
incremental-learning-on-cifar-100-50-classesBiC
Average Incremental Accuracy: 47.09
incremental-learning-on-cifar-100-50-classes-1BiC
Average Incremental Accuracy: 48.96
incremental-learning-on-cifar-100-50-classes-2BiC
Average Incremental Accuracy: 53.21
incremental-learning-on-cifar-100-50-classes-3BiC
Average Incremental Accuracy: 56.86
incremental-learning-on-cifar-100-b0-5stepsBiC
Average Incremental Accuracy: 73.10
incremental-learning-on-imagenet-10-stepsBiC
# M Params: 11.68
Average Incremental Accuracy Top-5: 84.00
Final Accuracy Top-5: 73.20
incremental-learning-on-imagenet-100-50BiC
Average Incremental Accuracy: 46.49
incremental-learning-on-imagenet100-10-stepsBiC
# M Params: 11.22
Average Incremental Accuracy Top-5: 90.60
Final Accuracy Top-5: 84.40

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
大规模增量学习 | 论文 | HyperAI超神经