
摘要
针对异常检测的深度单类分类变体通过学习一个映射函数,将正常样本在特征空间中集中分布,从而使异常样本被映射至远离正常区域的位置。由于该映射具有高度非线性特性,其可解释性分析面临重大挑战。本文提出一种可解释的深度单类分类方法——全卷积数据描述(Fully Convolutional Data Description, FCDD),其映射后的样本本身即构成解释性热力图(explanation heatmap)。FCDD在CIFAR-10和ImageNet等常见异常检测基准上实现了具有竞争力的检测性能,并提供了合理且直观的解释。在近期的工业制造数据集MVTec-AD上(该数据集提供真实异常标注图),FCDD在无监督设置下取得了新的最优性能。此外,我们的方法可在训练过程中引入真实异常图作为监督信号,即使仅使用少量标注样本(约5张),也能显著提升模型性能。最后,基于FCDD生成的解释,我们揭示了深度单类分类模型对虚假图像特征(如图像水印)的脆弱性,表明模型可能过度依赖此类无关但显著的视觉线索进行判断。
代码仓库
liznerski/fcdd
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| anomaly-detection-on-mvtec-ad | FCDD (unsupervised) | Segmentation AUROC: 88 |
| anomaly-detection-on-mvtec-ad | FCDD (semi-supervised) | Segmentation AUROC: 94 |
| anomaly-detection-on-one-class-cifar-10 | FCDD | AUROC: 92 |
| anomaly-detection-on-one-class-imagenet-30 | FCDD | AUROC: 91 |