
摘要
生成模型如今已能够生成在视觉上几乎与训练数据无法区分的逼真合成数据。这一进展相较于以往模型取得了显著进步:早期模型虽可生成训练数据的合理复制品,但其生成结果在人类视觉评估下仍可被轻易识别为非真实数据。近期关于分布外(OOD)检测的研究表明,生成模型的似然值并非最优的OOD检测指标,这主要源于似然估计偏差、生成过程中的熵问题以及典型性(typicality)判断的局限性。我们推测,现有生成式OOD检测方法之所以失效,其根源在于模型过度关注数据的像素级表征,而忽视了数据的语义内容,导致在接近分布外(near-OOD)的情形下出现失败——尽管像素层面相似,但信息内涵存在显著差异。为此,我们提出假设:通过自监督学习来估计典型集合,有望构建更优的OOD检测器。本文提出一种新方法,融合表示学习与基于流形估计的有信息量的汇总统计量,有效应对上述各类挑战。实验结果表明,该方法在多个公认的高难度基准测试中均显著优于现有无监督方法,并在新型合成数据检测任务上达到当前最优性能。
代码仓库
DebarghaG/forte
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| out-of-distribution-detection-on-cifar-10-vs | Forte | AUPR: 09.69 ± 01.08 AUROC: 97.63 ± 00.15 |
| out-of-distribution-detection-on-cifar-10-vs-2 | Forte | AUROC: 99.84 ± 00.05 FPR95: 00.00 ± 00.00 |
| out-of-distribution-detection-on-imagenet-1k-10 | Forte | AUROC: 98.04 ± 00.10 FPR95: 5.61 ± 00.25 |
| out-of-distribution-detection-on-imagenet-1k-11 | Forte | AUROC: 96.73 ± 00.11 FPR95: 11.77 ± 00.57 |
| out-of-distribution-detection-on-imagenet-1k-13 | Forte | AUROC: 98.34 ± 00.09 FPR@95: 5.18 ± 00.51 |
| out-of-distribution-detection-on-imagenet-1k-3 | Forte | AUROC: 99.67 ± 00.03 FPR95: 0.64 ± 00.06 |