
摘要
深度神经网络的一个实际限制是它们对单一任务和视觉领域的高度专业化。近年来,受迁移学习成功的启发,多位作者提出学习通用的、固定的特征提取器,这些特征提取器作为任何深度网络的第一阶段,可以同时在多个任务和领域中表现出色。然而,这样的通用特征仍然略逊于专门化的网络。为了克服这一限制,本文提出考虑通用参数化的神经网络家族,这些网络家族仍然包含特定问题的专用模型,但仅在少数参数上有所不同。我们研究了不同参数化设计,包括串联和并联残差适配器(residual adapters)、联合适配器压缩(joint adapter compression)以及参数分配,并通过实证分析确定了能够实现最高压缩率的设计。我们表明,为了最大化性能,需要对深度网络的浅层和深层进行适应,但所需的变化非常小。此外,我们还展示了这些通用参数化方法在迁移学习中的有效性,在此领域它们优于传统的微调技术。
代码仓库
SLrepo/residual_adapter
pytorch
GitHub 中提及
lukashedegaard/structured-pruning-adapters
pytorch
GitHub 中提及
srebuffi/residual_adapters
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| continual-learning-on-visual-domain-decathlon | Series Res. adapt. | decathlon discipline (Score): 3159 |
| continual-learning-on-visual-domain-decathlon | Parallel Res. adapt. | Avg. Accuracy: 78.07 decathlon discipline (Score): 3412 |