3 个月前

可解释的深度单类分类

可解释的深度单类分类

摘要

针对异常检测的深度单类分类变体通过学习一个映射函数,将正常样本在特征空间中集中分布,从而使异常样本被映射至远离正常区域的位置。由于该映射具有高度非线性特性,其可解释性分析面临重大挑战。本文提出一种可解释的深度单类分类方法——全卷积数据描述(Fully Convolutional Data Description, FCDD),其映射后的样本本身即构成解释性热力图(explanation heatmap)。FCDD在CIFAR-10和ImageNet等常见异常检测基准上实现了具有竞争力的检测性能,并提供了合理且直观的解释。在近期的工业制造数据集MVTec-AD上(该数据集提供真实异常标注图),FCDD在无监督设置下取得了新的最优性能。此外,我们的方法可在训练过程中引入真实异常图作为监督信号,即使仅使用少量标注样本(约5张),也能显著提升模型性能。最后,基于FCDD生成的解释,我们揭示了深度单类分类模型对虚假图像特征(如图像水印)的脆弱性,表明模型可能过度依赖此类无关但显著的视觉线索进行判断。

代码仓库

liznerski/fcdd
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
anomaly-detection-on-mvtec-adFCDD (unsupervised)
Segmentation AUROC: 88
anomaly-detection-on-mvtec-adFCDD (semi-supervised)
Segmentation AUROC: 94
anomaly-detection-on-one-class-cifar-10FCDD
AUROC: 92
anomaly-detection-on-one-class-imagenet-30FCDD
AUROC: 91

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
可解释的深度单类分类 | 论文 | HyperAI超神经