
摘要
学习解决复杂任务序列——同时利用迁移学习并避免灾难性遗忘——仍然是实现人类水平智能的关键障碍。渐进网络方法在这方面取得了进展:它们对遗忘具有免疫性,并且可以通过横向连接先前学到的特征来利用先验知识。我们广泛评估了该架构在多种强化学习任务(包括Atari游戏和3D迷宫游戏)上的表现,并表明其性能优于基于预训练和微调的常见基线模型。通过使用一种新的敏感度测量方法,我们证明了迁移学习不仅发生在所学策略的低级感知层,还发生在高级控制层。
代码仓库
imatge-upc/progressive_nns
pytorch
GitHub 中提及
sarthakTUM/progressive-neural-networks-for-nlp
pytorch
GitHub 中提及
ContinualAI/avalanche
pytorch
aimagelab/mammoth
pytorch
epsilon-deltta/ssd_guillotine
pytorch
GitHub 中提及
khashiii97/PNN
pytorch
GitHub 中提及
geox-lab/cmn
pytorch
GitHub 中提及
arazd/ProgressivePrompts
pytorch
GitHub 中提及
khashiii97/Progressive-Neural-Networks-for-IDS
pytorch
GitHub 中提及
arcosin/Doric
pytorch
GitHub 中提及
GuangpingYuan/PNN_Pong_A3C
tf
GitHub 中提及
feifeiobama/rewireneuron
jax
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| continual-learning-on-cubs-fine-grained-6 | ProgressiveNet | Accuracy: 78.94 |
| continual-learning-on-flowers-fine-grained-6 | ProgressiveNet | Accuracy: 93.41 |
| continual-learning-on-imagenet-fine-grained-6 | ProgressiveNet | Accuracy: 76.16 |
| continual-learning-on-sketch-fine-grained-6 | ProgressiveNet | Accuracy: 76.35 |
| continual-learning-on-stanford-cars-fine | ProgressiveNet | Accuracy: 89.21 |
| continual-learning-on-wikiart-fine-grained-6 | ProgressiveNet | Accuracy: 74.94 |