
摘要
我们首次系统地研究了隐蔽物体检测(COD),其目标是识别那些“完美”嵌入背景中的物体。隐蔽物体与其背景之间固有的高度相似性使得COD比传统的物体检测/分割更具挑战性。为了更好地理解这一任务,我们收集了一个大规模的数据集,称为COD10K,该数据集包含10,000张图像,涵盖了来自78个物体类别的多种现实场景中的隐蔽物体。此外,我们提供了丰富的注释,包括物体类别、物体边界、挑战属性、物体级标签和实例级注释。目前,我们的COD10K是最大的隐蔽物体检测数据集,拥有最丰富的注释,这有助于全面理解隐蔽物体,并且甚至可以用于推动其他视觉任务(如检测、分割、分类等)的发展。受动物在野外捕猎方式的启发,我们还设计了一种简单但强大的COD基线模型,称为搜索识别网络(Search Identification Network, SINet)。SINet无需任何额外的复杂技巧,在所有测试数据集上均优于12个最先进的基线模型,显示出其鲁棒性和泛化能力,可以作为未来COD研究的催化剂。最后,我们提供了一些有趣的发现,并强调了几种潜在的应用和未来的研究方向。为了激发这一新领域的研究热情,我们在项目页面上提供了代码、数据集和在线演示:http://mmcheng.net/cod。
代码仓库
GewelsJI/SINet-V2
官方
pytorch
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| camouflaged-object-segmentation-on-camo | SINet-V2 | MAE: 0.070 S-Measure: 0.820 Weighted F-Measure: 0.743 |
| camouflaged-object-segmentation-on-chameleon | SINetV2-Res2Net-50 | MAE: 0.030 S-measure: 0.888 weighted F-measure: 0.816 |
| camouflaged-object-segmentation-on-cod | SINet* | MAE: 0.051 S-Measure: 0.771 Weighted F-Measure: 0.551 |
| camouflaged-object-segmentation-on-nc4k | SINetV2-Res2Net-50 | MAE: 0.048 S-measure: 0.847 weighted F-measure: 0.770 |
| camouflaged-object-segmentation-on-pcod-1200 | SINet-V2 | S-Measure: 0.882 |
| dichotomous-image-segmentation-on-dis-te1 | SINetV2 | E-measure: 0.791 HCE: 274 MAE: 0.094 S-Measure: 0.727 max F-Measure: 0.644 weighted F-measure: 0.558 |
| dichotomous-image-segmentation-on-dis-te2 | SINetV2 | E-measure: 0.823 HCE: 593 MAE: 0.099 S-Measure: 0.753 max F-Measure: 0.700 weighted F-measure: 0.618 |
| dichotomous-image-segmentation-on-dis-te3 | SINetV2 | E-measure: 0.849 HCE: 1096 MAE: 0.096 S-Measure: 0.766 max F-Measure: 0.730 weighted F-measure: 0.641 |
| dichotomous-image-segmentation-on-dis-te4 | SINetV2 | E-measure: 0.824 HCE: 3683 MAE: 0.113 S-Measure: 0.744 max F-Measure: 0.699 weighted F-measure: 0.616 |
| dichotomous-image-segmentation-on-dis-vd | SINetV2 | E-measure: 0.798 HCE: 1568 MAE: 0.110 S-Measure: 0.727 max F-Measure: 0.665 weighted F-measure: 0.584 |