
摘要
基于似然的生成模型是检测分布外(Out-of-Distribution, OOD)输入的一种有前景的工具,这类输入可能威胁机器学习系统的鲁棒性或可靠性。然而,已有研究表明,此类模型所计算的似然值在识别与训练数据显著不同的输入时存在局限性。本文提出,这一问题的根源在于输入复杂度对生成模型似然值产生了过度影响。我们通过一系列实验验证了该假设,并引入输入复杂度的估计量,构建了一种高效且无需参数调优的OOD检测评分方法。该评分可被视为一种似然比,类似于贝叶斯模型比较中的形式。实验结果表明,在多种数据集、模型架构、模型规模及复杂度估计方式下,该方法的性能与现有OOD检测方法相当,甚至更为优越。
代码仓库
gfloto/tilted_prior
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| anomaly-detection-on-unlabeled-cifar-10-vs | Input Complexity (PixelCNN++) | AUROC: 53.5 |
| anomaly-detection-on-unlabeled-cifar-10-vs | Likelihood (Glow) | AUROC: 58.2 |
| anomaly-detection-on-unlabeled-cifar-10-vs | Likelihood (PixelCNN++) | AUROC: 52.6 |
| anomaly-detection-on-unlabeled-cifar-10-vs | Input Complexity (Glow) | AUROC: 73.6 |