4 个月前

使用自监督学习可以提高模型的鲁棒性和不确定性

使用自监督学习可以提高模型的鲁棒性和不确定性

摘要

自监督学习为下游任务提供了有效的表示,而无需依赖标签。然而,现有的自监督方法在性能上仍落后于完全监督训练,并且通常被认为仅在减少或消除注释需求方面具有优势。我们发现,自监督学习可以在多个方面提升模型的鲁棒性,包括对抗样本的鲁棒性、标签污染的鲁棒性和常见输入扰动的鲁棒性。此外,自监督学习在处理接近分布内的异常值时,显著提升了分布外检测的性能,甚至超过了完全监督方法的表现。这些结果表明,自监督学习在提高模型鲁棒性和不确定性估计方面具有巨大潜力,并为未来自监督学习研究建立了新的评估维度。

代码仓库

feedbackward/addro
pytorch
GitHub 中提及
sooonwoo/RotNet-OOD
pytorch
GitHub 中提及
hendrycks/ss-ood
官方
pytorch
GitHub 中提及
drumpt/RotNet-OOD
pytorch
GitHub 中提及

基准测试

基准方法指标
anomaly-detection-on-anomaly-detection-on-1ROT+Trans
Network: ResNet-18
ROC-AUC: 74.5
anomaly-detection-on-anomaly-detection-on-2ROT+Trans
Network: ResNet-18
ROC-AUC: 86.3
anomaly-detection-on-one-class-cifar-10SSOOD
AUROC: 90.1
anomaly-detection-on-one-class-imagenet-30RotNet + Translation
AUROC: 77.9
anomaly-detection-on-one-class-imagenet-30RotNet + Translation + Self-Attention
AUROC: 84.8
anomaly-detection-on-one-class-imagenet-30RotNet
AUROC: 65.3
anomaly-detection-on-one-class-imagenet-30RotNet + Translation + Self-Attention + Resize
AUROC: 85.7
anomaly-detection-on-one-class-imagenet-30RotNet + Self-Attention
AUROC: 81.6
anomaly-detection-on-one-class-imagenet-30Supervised (OE)
AUROC: 56.1
out-of-distribution-detection-on-cifar-10WRN 40-2 + Rotation Prediction
AUROC: 96.2
FPR95: 16.0
out-of-distribution-detection-on-cifar-10-vsWRN 40-2 + Rotation Prediction
AUPR: 67.7
AUROC: 90.9

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
使用自监督学习可以提高模型的鲁棒性和不确定性 | 论文 | HyperAI超神经