3 个月前

RMM:面向类别增量学习的强化记忆管理

RMM:面向类别增量学习的强化记忆管理

摘要

类增量学习(Class-Incremental Learning, CIL)[40] 在严格的内存预算约束下训练分类器:在每个增量阶段,仅对新数据进行学习,而大部分旧数据会被丢弃,以释放空间供后续阶段使用。被保留的数据作为样本(exemplars)用于回放。然而,现有方法采用静态且经验性的内存分配策略,通常难以达到最优性能。为此,本文提出一种面向增量阶段与不同类别优化的动态内存管理策略,命名为强化记忆管理(Reinforced Memory Management, RMM),该方法基于强化学习实现。RMM 的训练机制与 CIL 的实际场景存在天然不兼容性,因为在增量学习过程中,过去与未来数据均不可访问。为解决此问题,我们采用伪 CIL 任务(例如基于第 0 阶段数据构建的任务)对 RMM 的策略函数进行预训练,随后将其迁移应用于真实目标任务。RMM 采用两级动作机制:第一级决定新旧类别之间的内存分配比例,第二级则针对每个具体类别进行细粒度的内存分配。本质上,RMM 是一种可优化且通用的内存管理方法,可无缝集成于任意基于回放机制的 CIL 方法中。为验证其有效性,我们将 RMM 集成至两个性能领先的基线模型(LUCIR+AANets 与 POD+AANets [30]),并在三个基准数据集(CIFAR-100、ImageNet-Subset 与 ImageNet-Full)上开展实验。实验结果表明,RMM 显著提升了模型性能:在上述三个数据集的 25 阶段设置下,分别将 POD+AANets 的准确率提升 3.6%、4.4% 和 1.9%。

基准测试

基准方法指标
incremental-learning-on-cifar-100-50-classes-1RMM (Modified ResNet-32)
Average Incremental Accuracy: 66.21
incremental-learning-on-cifar-100-50-classes-2RMM (Modified ResNet-32)
Average Incremental Accuracy: 67.61
incremental-learning-on-cifar-100-50-classes-3RMM (Modified ResNet-32)
Average Incremental Accuracy: 68.86
incremental-learning-on-imagenet-10-stepsRMM (ResNet-18)
Average Incremental Accuracy: 67.45
incremental-learning-on-imagenet-100-50-1RMM (ResNet-18)
Average Incremental Accuracy: 76.54
incremental-learning-on-imagenet-100-50-2RMM (ResNet-18)
Average Incremental Accuracy: 78.47
incremental-learning-on-imagenet-100-50-3RMM (ResNet-18)
Average Incremental Accuracy: 79.52
incremental-learning-on-imagenet-500-classes-1RMM (ResNet-18)
Average Incremental Accuracy: 69.21
incremental-learning-on-imagenet-500-classes-2RMM (ResNet-18)
Average Incremental Accuracy: 67.45
incremental-learning-on-imagenet-500-classes-3RMM (ResNet-18)
Average Incremental Accuracy: 63.93
incremental-learning-on-imagenet100-10-stepsRMM (ResNet-18)
Average Incremental Accuracy: 78.47

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
RMM:面向类别增量学习的强化记忆管理 | 论文 | HyperAI超神经