
摘要
异常检测(Anomaly Detection, AD)在众多安全关键应用领域中发挥着至关重要的作用。当正常数据分布发生漂移,且缺乏用于学习“新正常”状态的训练数据时,如何适应这种变化成为一大挑战,这促使了零样本异常检测(Zero-Shot AD)技术的发展。本文提出一种简单而高效的方法——自适应中心表示(Adaptive Centered Representations, ACR),用于零样本批量级异常检测。该方法通过结合批量归一化(Batch Normalization)技术,对现成的深度异常检测模型(如深度支持向量数据描述,Deep SVDD)进行训练,使其能够适应一组相互关联的训练数据分布,从而实现对未见异常检测任务的自动零样本泛化。这一简单而有效的策略——批量归一化结合元训练(meta-training),展现出极强的通用性与有效性。理论分析证明了该方法在未见AD任务上的零样本泛化能力;实验结果表明,该方法首次实现了表格数据上的零样本异常检测,并在特定领域图像数据的零样本异常检测与分割任务中优于现有方法。代码已开源,地址为:https://github.com/aodongli/zero-shot-ad-via-batch-norm
代码仓库
aodongli/zero-shot-ad-via-batch-norm
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| anomaly-detection-on-mvtec-ad | ACR (zero-shot) | Detection AUROC: 85.8 Segmentation AP: 38.9 Segmentation AUPRO: 72.7 Segmentation AUROC: 92.5 |
| unsupervised-anomaly-detection-on-anoshift | ACR-DSVDD (zero-shot, anomaly ratio=1%) | ROC-AUC FAR: 62 |
| unsupervised-anomaly-detection-on-anoshift | ACR-NTL (zero-shot, test anomaly ratio=1%) | ROC-AUC FAR: 62.5 |
| unsupervised-anomaly-detection-on-anoshift | ACR-NTL (zero-shot, test anomaly ratio=20%) | ROC-AUC FAR: 62 |
| unsupervised-anomaly-detection-on-anoshift | ACR-DSVDD (zero-shot, anomaly ratio=20%) | ROC-AUC FAR: 59.1 |