
摘要
自监督学习为下游任务提供了有效的表示,而无需依赖标签。然而,现有的自监督方法在性能上仍落后于完全监督训练,并且通常被认为仅在减少或消除注释需求方面具有优势。我们发现,自监督学习可以在多个方面提升模型的鲁棒性,包括对抗样本的鲁棒性、标签污染的鲁棒性和常见输入扰动的鲁棒性。此外,自监督学习在处理接近分布内的异常值时,显著提升了分布外检测的性能,甚至超过了完全监督方法的表现。这些结果表明,自监督学习在提高模型鲁棒性和不确定性估计方面具有巨大潜力,并为未来自监督学习研究建立了新的评估维度。
代码仓库
feedbackward/addro
pytorch
GitHub 中提及
sooonwoo/RotNet-OOD
pytorch
GitHub 中提及
hendrycks/ss-ood
官方
pytorch
GitHub 中提及
drumpt/RotNet-OOD
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| anomaly-detection-on-anomaly-detection-on-1 | ROT+Trans | Network: ResNet-18 ROC-AUC: 74.5 |
| anomaly-detection-on-anomaly-detection-on-2 | ROT+Trans | Network: ResNet-18 ROC-AUC: 86.3 |
| anomaly-detection-on-one-class-cifar-10 | SSOOD | AUROC: 90.1 |
| anomaly-detection-on-one-class-imagenet-30 | RotNet + Translation | AUROC: 77.9 |
| anomaly-detection-on-one-class-imagenet-30 | RotNet + Translation + Self-Attention | AUROC: 84.8 |
| anomaly-detection-on-one-class-imagenet-30 | RotNet | AUROC: 65.3 |
| anomaly-detection-on-one-class-imagenet-30 | RotNet + Translation + Self-Attention + Resize | AUROC: 85.7 |
| anomaly-detection-on-one-class-imagenet-30 | RotNet + Self-Attention | AUROC: 81.6 |
| anomaly-detection-on-one-class-imagenet-30 | Supervised (OE) | AUROC: 56.1 |
| out-of-distribution-detection-on-cifar-10 | WRN 40-2 + Rotation Prediction | AUROC: 96.2 FPR95: 16.0 |
| out-of-distribution-detection-on-cifar-10-vs | WRN 40-2 + Rotation Prediction | AUPR: 67.7 AUROC: 90.9 |