
摘要
为了获得更准确的显著性图,近期的方法主要集中在从全卷积网络(FCN)中聚合多层级特征,并引入边缘信息作为辅助监督。尽管已取得显著进展,但我们观察到像素越接近边缘,预测难度越大,因为边缘像素的分布非常不平衡。为了解决这一问题,我们提出了一种标签解耦框架(Label Decoupling Framework, LDF),该框架包括标签解耦(Label Decoupling, LD)过程和特征交互网络(Feature Interaction Network, FIN)。LD 明确地将原始显著性图分解为物体主体图和细节图,其中物体主体图专注于物体的中心区域,而细节图则关注边缘周围的区域。由于细节图涉及的像素远多于传统的边缘监督,因此其表现更好。不同于显著性图,物体主体图舍弃了边缘像素,仅关注中心区域。这在训练过程中成功避免了边缘像素带来的干扰。因此,我们在 FIN 中采用了两个分支分别处理物体主体图和细节图。特征交互(Feature Interaction, FI)设计用于融合这两个互补分支以预测显著性图,然后利用该显著性图进一步优化两个分支。这种迭代精炼有助于学习更好的表示并生成更精确的显著性图。在六个基准数据集上的全面实验表明,LDF 在不同的评估指标上优于现有最先进方法。
代码仓库
weijun88/LDF
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| saliency-detection-on-dut-omron | LDF(ours) | MAE: 0.051 |
| saliency-detection-on-hku-is | LDF(ours) | MAE: 0.027 |
| salient-object-detection-on-dut-omron-2 | LDF | E-measure: 0.873 MAE: 0.051 S-measure: 0.838 max_F1: 0.819 |
| salient-object-detection-on-duts-te-1 | LDF(ResNet-50) | E-measure: 0.909 MAE: 0.034 Smeasure: 0.892 max_F1: 0.897 |
| salient-object-detection-on-ecssd-1 | LDF(ours) | E-measure: 0.924 MAE: 0.033 S-measure: 0.924 max_F1: 0.950 |
| salient-object-detection-on-hku-is-1 | LDF | E-measure: 0.953 MAE: 0.027 S-measure: 0.919 max_F1: 0.939 |
| salient-object-detection-on-pascal-s-1 | LDF(ours) | E-measure: 0.865 MAE: 0.059 S-measure: 0.856 max_F1: 0.874 |