3 个月前

通过寻找平坦极小值克服增量少样本学习中的灾难性遗忘

通过寻找平坦极小值克服增量少样本学习中的灾难性遗忘

摘要

本文研究了增量式小样本学习(incremental few-shot learning),该任务要求模型在仅提供少量样本的情况下,持续识别新类别。我们的研究发现,现有方法严重受到灾难性遗忘(catastrophic forgetting)的影响,这是增量学习中一个长期存在的难题,而在小样本设定下,由于数据稀缺性和类别分布不均衡,该问题进一步加剧。进一步分析表明,为缓解灾难性遗忘,必须在初始阶段——即基础类别(base classes)的训练阶段——采取相应措施,而非仅依赖后续的小样本学习阶段。为此,我们提出在基础训练目标函数的优化过程中搜索平坦的局部极小值区域,并在新任务上于该平坦区域内对模型参数进行微调。通过这种方式,模型能够在高效学习新类别的同时,有效保留已有知识。大量实验结果表明,所提方法显著优于所有先前的最先进方法,且性能非常接近理论近似上界。代码已开源,地址为:https://github.com/moukamisama/F2M。

代码仓库

moukamisama/f2m
官方
pytorch

基准测试

基准方法指标
few-shot-class-incremental-learning-on-cifarF2M
Average Accuracy: 53.69
Last Accuracy: 44.65
few-shot-class-incremental-learning-on-miniF2M
Average Accuracy: 54.89
Last Accuracy : 47.84

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
通过寻找平坦极小值克服增量少样本学习中的灾难性遗忘 | 论文 | HyperAI超神经