
摘要
使用RGB-D数据进行显著目标检测(SOD)领域最近出现了一些模型,这些模型的结果相当精确。然而,它们的泛化能力有限且计算复杂度较高。在本文中,我们受到可变形卷积在背景/前景分离方面出色表现的启发,将其应用于我们的密集可变形网络(Densely Deformable Network, DDNet),以实现高效的SOD。通过转置卷积进一步优化从密集可变形卷积中提取的显著区域,从而生成最优的显著图。利用最新的SOD数据集对22种竞争方法进行定量和定性评估,结果表明我们提出的方法具有高效性和有效性。此外,我们还使用自己创建的跨数据集——监控显著目标检测(Surveillance-SOD, S-SOD)来验证训练模型在不同场景中的适用性。实验结果表明,当前模型的泛化潜力有限,需要在此方向上进行更多的研究。我们的代码和新数据集将在https://github.com/tanveer-hussain/EfficientSOD 公开发布。
代码仓库
tanveer-hussain/EfficientSOD
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| rgb-d-salient-object-detection-on-sip | DDNet | Average MAE: 0.043 |