
摘要
全卷积神经网络(FCNs)在显著性目标检测任务中展现出显著优势。然而,现有的大多数基于FCN的方法仍面临目标边界模糊的问题。为解决这一难题,本文聚焦于显著边缘信息与显著目标信息之间的互补性,提出了一种边缘引导网络(EGNet),通过三个步骤在单一网络中同时建模这两种互补信息。首先,采用渐进式融合策略提取显著目标特征;其次,融合局部边缘信息与全局位置信息,以获得显著边缘特征;最后,为充分挖掘这些互补特征的优势,将在不同分辨率下提取的显著边缘特征与显著目标特征进行耦合。得益于显著边缘特征中丰富的边缘与位置信息,融合后的特征能够更准确地定位显著目标,尤其在边界定位方面表现更优。实验结果表明,所提出的方法在六个广泛使用的数据集上均取得了优于现有先进方法的性能,且无需任何预处理或后处理步骤。源代码已公开,地址为:http://mmcheng.net/egnet/。
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| camouflaged-object-segmentation-on-camo | EGNet | MAE: 0.104 S-Measure: 0.732 Weighted F-Measure: 0.583 |
| camouflaged-object-segmentation-on-cod | EGNet | MAE: 0.056 S-Measure: 0.737 Weighted F-Measure: 0.509 |
| camouflaged-object-segmentation-on-pcod-1200 | EGNet | S-Measure: 0.861 |
| co-salient-object-detection-on-coca | EGNet | Mean F-measure: 0.391 S-measure: 0.603 max F-measure: 0.404 mean E-measure: 0.622 |
| co-salient-object-detection-on-cosal2015 | EGNet | MAE: 0.099 S-measure: 0.818 max E-measure: 0.843 max F-measure: 0.786 |
| co-salient-object-detection-on-cosod3k | EGNet | MAE: 0.119 S-measure: 0.7619 max E-measure: 0.793 max F-measure: 0.702 |