4 个月前

基于贝叶斯稀疏网络和完全经验回放的持续学习

基于贝叶斯稀疏网络和完全经验回放的持续学习

摘要

持续学习(Continual Learning, CL)方法旨在使机器学习模型能够在不断学习新任务的同时,避免对已掌握的任务产生灾难性遗忘。现有的持续学习方法通常通过保留先前见过样本的缓冲区、执行知识蒸馏或使用正则化技术来实现这一目标。尽管这些方法表现出色,但它们仍然面临跨任务干扰的问题,导致灾难性遗忘。为了解决这一问题,我们提出在任何阶段仅激活和选择稀疏神经元来学习当前和过去的任务。这样可以为未来任务预留更多的参数空间和模型容量,从而最小化不同任务之间参数的干扰。为此,我们提出了一种用于持续学习的稀疏神经网络(Sparse Neural Network for Continual Learning, SNCL),该网络在所有层的神经元激活上采用了变分贝叶斯稀疏先验。全经验回放(Full Experience Replay, FER)为不同层神经元稀疏激活的学习提供了有效的监督。我们开发了一种基于损失感知的水库采样策略来维护内存缓冲区。所提出的 方法对网络结构和任务边界具有不可知性。在不同数据集上的实验表明,我们的方法在减轻遗忘方面达到了最先进的性能。

基准测试

基准方法指标
continual-learning-on-tiny-imagenet-10tasksA-GEM [chaudhry2018efficient]
Average Accuracy: 25.33
continual-learning-on-tiny-imagenet-10tasksDER [buzzega2020dark]
Average Accuracy: 51.78
continual-learning-on-tiny-imagenet-10tasksER[riemer2018learning]
Average Accuracy: 48.64
continual-learning-on-tiny-imagenet-10tasksSNCL
Average Accuracy: 52.85
continual-learning-on-tiny-imagenet-10tasksiCaRL [rebuffi2017icarl]
Average Accuracy: 31.55

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
基于贝叶斯稀疏网络和完全经验回放的持续学习 | 论文 | HyperAI超神经