
摘要
在现有的基于深度神经网络的图像分类系统中,图像分类所需的知识被隐式地存储于模型参数之中。若用户希望更新这些知识,则必须对模型参数进行微调。此外,用户无法验证推理结果的有效性,也无法评估特定知识对最终结果的贡献程度。本文提出一种新型系统,将图像分类所需的知识(如图像特征图、类别标签和原始图像)不存储于模型参数中,而是保存在外部高容量存储设备中,类似数据库的形式。在对输入图像进行分类时,该系统会参考这一外部存储库。当需要扩充知识时,系统通过更新数据库来实现,而非微调模型参数,从而有效避免了增量学习场景下的灾难性遗忘问题。我们重新审视了kNN(k-近邻)分类器,并将其引入本系统中。通过分析kNN算法所参考的邻近样本,能够解释历史知识在当前推理过程中的具体使用方式,实现对模型决策过程的可解释性分析。实验结果表明,该系统在ImageNet数据集上,无需在预训练后对模型参数进行微调,即可达到79.8%的Top-1准确率;在任务增量学习设置下的Split CIFAR-100数据集上,准确率高达90.8%。
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| continual-learning-on-cifar100-20-tasks | kNN-CLIP | Average Accuracy: 90.8 |
| image-classification-on-cifar-10 | kNN-CLIP | Percentage correct: 97.3 |
| image-classification-on-cifar-100 | kNN-CLIP | Percentage correct: 81.7 |
| image-classification-on-imagenet | kNN-CLIP | Top 1 Accuracy: 79.8% |
| image-classification-on-imagenet-real | kNN-CLIP | Accuracy: 84% |
| image-classification-on-stl-10 | kNN-CLIP | Percentage correct: 99.6 |
| incremental-learning-on-imagenet-10-steps | kNN-CLIP | Average Incremental Accuracy: 85.5 |
| incremental-learning-on-imagenet100-10-steps | kNN-CLIP | Average Incremental Accuracy: 85.1 |