
摘要
知识蒸馏(Knowledge Distillation, KD)在具有挑战性的无监督异常检测(Anomaly Detection, AD)任务中取得了令人瞩目的成果。在教师-学生(Teacher-Student, T-S)模型中,异常样本在特征表示上的差异为异常检测提供了关键证据。然而,以往研究通常采用相似或相同的网络架构构建教师与学生模型,这限制了异常表征的多样性。为解决这一问题,本文提出一种新型T-S架构,其由教师编码器与学生解码器构成,并相应引入一种简单而有效的“反向蒸馏”(reverse distillation)范式。与传统方法不同,学生网络不再直接接收原始图像作为输入,而是以教师模型生成的一类嵌入(one-class embedding)为输入,目标是恢复教师模型在多尺度下的特征表示。该方法本质上实现了从抽象的高层语义表征向低层特征的知识迁移。此外,本文在T-S模型中引入了一个可学习的一类瓶颈嵌入(One-Class Bottleneck Embedding, OCBE)模块。该模块生成的紧凑嵌入能够有效保留正常模式的核心信息,同时抑制异常扰动。在多个异常检测与一类新奇性检测(one-class novelty detection)基准数据集上的大量实验表明,所提方法显著超越了现有最先进(SOTA)性能,充分验证了所提方法的有效性与良好的泛化能力。
代码仓库
SimonThomine/DistillationAD
pytorch
GitHub 中提及
SimonThomine/RememberingNormality
pytorch
GitHub 中提及
hq-deng/RD4AD
官方
pytorch
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| anomaly-classification-on-goodsad | RD4AD | AUPR: 68.2 AUROC: 66.5 |
| anomaly-detection-on-aebad-s | ReverseDistillation | Detection AUROC: 81.0 Segmentation AUPRO: 85.6 |
| anomaly-detection-on-aebad-v | ReverseDistillation | Detection AUROC: 71.0 |
| anomaly-detection-on-fashion-mnist | Reverse Distillation | ROC AUC: 95.0 |
| anomaly-detection-on-mvtec-ad | Reverse Distillation | Detection AUROC: 98.5 Segmentation AUPRO: 93.9 Segmentation AUROC: 97.8 |
| anomaly-detection-on-mvtec-loco-ad | RD4AD | Avg. Detection AUROC: 78.7 Detection AUROC (only logical): 69.4 Detection AUROC (only structural): 88.0 Segmentation AU-sPRO (until FPR 5%): 63.7 |
| anomaly-detection-on-one-class-cifar-10 | Reverse Distillation | AUROC: 86.5 |
| anomaly-detection-on-visa | Reverse Distillation | Segmentation AUPRO (until 30% FPR): 70.9 |