4 个月前

基于超网络的持续学习

基于超网络的持续学习

摘要

人工神经网络在顺序训练多个任务时会遭受灾难性遗忘。为了解决这一问题,我们提出了一种基于任务条件超网络的新方法,即根据任务身份生成目标模型权重的网络。由于一个简单的关键特性,这类模型在持续学习(CL)方面面临的挑战较小:它们不需要回忆所有先前见过的数据的输入-输出关系,而只需重新排练特定任务的权重实现,这些权重可以通过使用简单的正则化器来维持在内存中。除了在标准的持续学习基准测试中达到最先进的性能外,我们在长任务序列上的额外实验还表明,任务条件超网络具有非常大的保留先前记忆的能力。值得注意的是,在压缩状态下(即可训练的超网络权重数量与目标网络大小相当或更小时),实现了如此长时间的记忆寿命。我们对低维任务嵌入空间(超网络的输入空间)的结构进行了深入分析,并展示了任务条件超网络表现出迁移学习的能力。最后,通过基于CIFAR-10/100图像数据集的具有挑战性的持续学习基准测试中的实证结果,进一步支持了前向信息传递的概念。

代码仓库

gmum/hint
pytorch
GitHub 中提及
chrhenning/hypercl
官方
pytorch
GitHub 中提及
chrhenning/hypnettorch
pytorch
GitHub 中提及
rvl-lab-utoronto/HyperCRL
pytorch
GitHub 中提及
gmum/hyperinterval
pytorch
GitHub 中提及
geox-lab/cmn
pytorch
GitHub 中提及
pennfranc/hypnettorch
pytorch
GitHub 中提及

基准测试

基准方法指标
continual-learning-on-f-celeba-10-tasksHyperNet
Acc: 0.6036

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
基于超网络的持续学习 | 论文 | HyperAI超神经