17 天前

无遗忘学习

无遗忘学习

摘要

在构建统一的视觉系统或逐步为现有系统增加新功能时,通常假设所有任务的训练数据始终可用。然而,随着任务数量的增加,存储并重新训练所有数据变得不可行。此时出现了一个新问题:我们希望向卷积神经网络(CNN)添加新功能,但原有功能对应的训练数据已无法获取。为此,我们提出了“无遗忘学习”(Learning without Forgetting)方法,该方法仅使用新任务的数据进行网络训练,同时有效保留原有功能的能力。与常用的特征提取和微调适配技术相比,该方法表现更优;其性能也与需要原始任务数据的多任务学习相当——而后者在本研究中被假设为不可用。一个更为意外的发现是,无遗忘学习在面对相似的新旧任务数据集时,甚至可能取代传统微调策略,从而进一步提升新任务的性能。

代码仓库

wannabeOG/ExpertNet-Pytorch
pytorch
GitHub 中提及
ivclab/cvs
pytorch
GitHub 中提及
kibok90/iccv2019-inc
pytorch
GitHub 中提及
yaoyao-liu/mnemonics
pytorch
GitHub 中提及
geox-lab/cmn
pytorch
GitHub 中提及
g-u-n/pycil
pytorch
GitHub 中提及
ngailapdi/LWF
pytorch
GitHub 中提及

基准测试

基准方法指标
continual-learning-on-visual-domain-decathlonLwF
Avg. Accuracy: 76.93
decathlon discipline (Score): 2515
disjoint-10-1-on-pascal-voc-2012LWF
mIoU: 4.3
disjoint-15-1-on-pascal-voc-2012LWF
mIoU: 5.3
disjoint-15-5-on-pascal-voc-2012LWF
Mean IoU: 54.9
overlapped-10-1-on-pascal-voc-2012LWF
mIoU: 4.8
overlapped-15-1-on-pascal-voc-2012LWF
mIoU: 5.5
overlapped-15-5-on-pascal-voc-2012LWF
Mean IoU (val): 55.0

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
无遗忘学习 | 论文 | HyperAI超神经