3 个月前

Forte:基于表示典型性估计的异常检测

Forte:基于表示典型性估计的异常检测

摘要

生成模型如今已能够生成在视觉上几乎与训练数据无法区分的逼真合成数据。这一进展相较于以往模型取得了显著进步:早期模型虽可生成训练数据的合理复制品,但其生成结果在人类视觉评估下仍可被轻易识别为非真实数据。近期关于分布外(OOD)检测的研究表明,生成模型的似然值并非最优的OOD检测指标,这主要源于似然估计偏差、生成过程中的熵问题以及典型性(typicality)判断的局限性。我们推测,现有生成式OOD检测方法之所以失效,其根源在于模型过度关注数据的像素级表征,而忽视了数据的语义内容,导致在接近分布外(near-OOD)的情形下出现失败——尽管像素层面相似,但信息内涵存在显著差异。为此,我们提出假设:通过自监督学习来估计典型集合,有望构建更优的OOD检测器。本文提出一种新方法,融合表示学习与基于流形估计的有信息量的汇总统计量,有效应对上述各类挑战。实验结果表明,该方法在多个公认的高难度基准测试中均显著优于现有无监督方法,并在新型合成数据检测任务上达到当前最优性能。

代码仓库

DebarghaG/forte
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
out-of-distribution-detection-on-cifar-10-vsForte
AUPR: 09.69 ± 01.08
AUROC: 97.63 ± 00.15
out-of-distribution-detection-on-cifar-10-vs-2Forte
AUROC: 99.84 ± 00.05
FPR95: 00.00 ± 00.00
out-of-distribution-detection-on-imagenet-1k-10Forte
AUROC: 98.04 ± 00.10
FPR95: 5.61 ± 00.25
out-of-distribution-detection-on-imagenet-1k-11Forte
AUROC: 96.73 ± 00.11
FPR95: 11.77 ± 00.57
out-of-distribution-detection-on-imagenet-1k-13Forte
AUROC: 98.34 ± 00.09
FPR@95: 5.18 ± 00.51
out-of-distribution-detection-on-imagenet-1k-3Forte
AUROC: 99.67 ± 00.03
FPR95: 0.64 ± 00.06

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
Forte:基于表示典型性估计的异常检测 | 论文 | HyperAI超神经