4 个月前

学习记忆:一种基于突触可塑性的持续学习框架

学习记忆:一种基于突触可塑性的持续学习框架

摘要

在持续学习(Continual Learning, CL)的背景下训练的模型应该能够在不确定的时间段内从数据流中学习。主要挑战包括:1) 在学习新任务的同时保持旧知识并从中受益;2) 随着需要学习的数据量不断增加,确保模型的可扩展性。为了解决这些挑战,我们引入了动态生成记忆(Dynamic Generative Memory, DGM)——一种基于突触可塑性的持续学习框架。DGM依赖于条件生成对抗网络,并通过神经掩码实现可学习的连接可塑性。具体而言,我们评估了两种神经掩码变体:应用于(i)层激活和(ii)直接应用于连接权重。此外,我们提出了一种动态网络扩展机制,以确保模型具有足够的容量来应对不断涌入的新任务。新增加的容量由已学习的二进制掩码动态确定。我们在视觉分类任务的持续类别增量设置中对DGM进行了评估。

代码仓库

SAP-archive/machine-learning-dgm
pytorch
GitHub 中提及
SAP/machine-learning-dgm
pytorch
GitHub 中提及

基准测试

基准方法指标
continual-learning-on-imagenet-50-5-tasksDGMw
Accuracy: 17.82
continual-learning-on-imagenet-50-5-tasksDGMa
Accuracy: 15.16

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
学习记忆:一种基于突触可塑性的持续学习框架 | 论文 | HyperAI超神经