
摘要
在面对训练过程中未见过的输入类别时,避免做出自信预测,是确保深度学习系统安全部署的一项重要要求。尽管这一原则表述简单,但在深度学习领域却一直是一个极具挑战性的问题——模型在遇到此类情形时,往往会产生过度自信的预测结果。本文提出一种简单但极为有效的方法,用于处理分布外(out-of-distribution, OoD)样本的检测,其核心思想基于“拒识”(abstention)原则:当模型遇到未见过类别的样本时,理想行为应为拒绝作出预测。该方法采用一个额外增设“拒识”类别的神经网络架构,并在训练数据中引入大量未经严格筛选的分布外样本,这些样本统一被赋予“拒识”类标签。通过这种方式,模型被训练以有效区分分布内(in-distribution)与分布外样本。我们将在一系列广泛且复杂的现有方法之间进行对比,这些方法涵盖分布外检测与深度学习中不确定性建模的多种先进方案。实验结果表明,该方法在多种图像识别与文本分类的基准任务及深度网络架构上均展现出卓越性能,常常以显著优势超越现有方法。鉴于该方法兼具简洁性与高效性,我们建议将其作为未来该领域研究的新基准之一,以推动更可靠、更安全的深度学习系统的发展。
代码仓库
Sushil-Thapa/Abstention-OoD
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| out-of-distribution-detection-on-20 | 2-Layered GRU | AUROC: 99.6 FPR95: 1.78 |
| out-of-distribution-detection-on-cifar-10 | Wide ResNet 40x2 | AUROC: 99.9 FPR95: 2.0 |
| out-of-distribution-detection-on-cifar-100 | Wide ResNet 40x2 | AUROC: 97.7 FPR95: 23.4 |
| out-of-distribution-detection-on-sst | 2-Layered GRU | AUROC: 99.7 FPR95: 20.9 |
| out-of-distribution-detection-on-trec-news | 2-Layered GRU | AUROC: 99.9 FPR95: 4.7 |