
摘要
当前最先进的语义分割方法在检测异常实例方面存在局限,这一缺陷限制了其在自动驾驶等安全关键性与复杂性较高的应用场景中的部署。近期研究主要聚焦于两种策略:一是利用分割结果的不确定性来识别异常区域;二是基于语义标签图对图像进行重生成,并通过比较生成图像与输入图像之间的差异来发现异常。本文证明,上述两种方法蕴含互补信息,若将其有机结合,可显著提升异常分割的预测鲁棒性。为此,我们提出一种像素级异常检测框架,通过引入不确定性图,有效改进了现有重生成方法在捕捉输入图像与生成图像之间差异方面的性能。该方法可作为通用框架,无缝集成于已训练好的语义分割网络之上,实现异常检测的同时不损害原始分割精度,且在各项对比实验中显著优于现有同类方法。在多个不同异常数据集上的Top-2表现,充分验证了本方法对各类异常实例的强泛化能力与鲁棒性。
代码仓库
giandbt/synboost
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| anomaly-detection-on-fishyscapes-1 | Synboost | AP: 72.59 FPR95: 18.75 |
| anomaly-detection-on-fishyscapes-l-f | SynBoost | AP: 43.22 FPR95: 15.79 |
| anomaly-detection-on-lost-and-found | SynBoost | AP: 70.43 FPR: 4.89 |
| anomaly-detection-on-road-anomaly | Synboost | AP: 41.83 FPR95: 59.72 |
| semantic-segmentation-on-cityscapes-val | SynBoost | mIoU: 83.5 |