
摘要
共显著性检测(Co-SOD)旨在分割一组相关图像中的共同显著前景。在本文中,受人类行为的启发,我们提出了一种梯度诱导的共显著性检测(GICD)方法。首先,我们在嵌入空间中为分组图像抽象出一个共识表示;然后,通过将单个图像与共识表示进行比较,我们利用反馈梯度信息来引导更多关注于区分性的共显著特征。此外,由于缺乏Co-SOD训练数据,我们设计了一种拼图训练策略,使得Co-SOD网络可以在一般显著性数据集上进行训练而无需额外的像素级注释。为了评估Co-SOD方法在多个前景中发现共显著对象的能力,我们构建了一个具有挑战性的CoCA数据集,其中每张图像至少包含一个与共显著对象并存的外来前景。实验结果表明,我们的GICD方法达到了最先进的性能。我们的代码和数据集可在 https://mmcheng.net/gicd/ 获取。
代码仓库
zzhanghub/gicd
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| co-salient-object-detection-on-coca | GICD | MAE: 0.126 Mean F-measure: 0.504 S-measure: 0.658 max E-measure: 0.715 max F-measure: 0.513 mean E-measure: 0.701 |
| co-salient-object-detection-on-cosal2015 | GICD | MAE: 0.071 S-measure: 0.844 max E-measure: 0.887 max F-measure: 0.844 mean E-measure: 0.883 mean F-measure: 0.835 |
| co-salient-object-detection-on-cosod3k | GICD | MAE: 0.079 S-measure: 0.797 max E-measure: 0.848 max F-measure: 0.770 mean E-measure: 0.845 mean F-measure: 0.763 |