
摘要
伪装物体分割(COS)旨在识别那些“完美”融入周围环境的物体,这一技术具有广泛的应用价值。COS的关键挑战在于候选物体与背景噪声之间存在高度的内在相似性。在本文中,我们致力于应对有效且高效的COS所面临的挑战。为此,我们开发了一种受生物启发的框架,称为定位与聚焦网络(PFNet),该框架模拟了自然界中的捕食过程。具体而言,我们的PFNet包含两个关键模块,即定位模块(PM)和聚焦模块(FM)。定位模块设计用于从全局视角模拟捕食过程中的检测步骤,以确定潜在的目标物体;而聚焦模块则用于执行捕食过程中的识别步骤,通过关注模糊区域逐步细化粗略预测。特别值得一提的是,在聚焦模块中,我们提出了一种新的干扰挖掘策略,用于发现并消除干扰因素,从而提升估计性能。大量实验表明,我们的PFNet能够在实时运行(72帧/秒)的情况下,在四个标准指标下显著优于三个具有挑战性的数据集上的18个最先进模型。
代码仓库
Mhaiyang/CVPR2021_PFNet
官方
pytorch
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| camouflaged-object-segmentation-on-pcod-1200 | PFNet | S-Measure: 0.873 |
| dichotomous-image-segmentation-on-dis-te1 | PFNet | E-measure: 0.786 HCE: 253 MAE: 0.094 S-Measure: 0.722 max F-Measure: 0.646 weighted F-measure: 0.552 |
| dichotomous-image-segmentation-on-dis-te2 | PFNet | E-measure: 0.829 HCE: 567 MAE: 0.096 S-Measure: 0.761 max F-Measure: 0.720 weighted F-measure: 0.633 |
| dichotomous-image-segmentation-on-dis-te3 | PFNet | E-measure: 0.854 HCE: 1082 MAE: 0.092 S-Measure: 0.777 max F-Measure: 0.751 weighted F-measure: 0.664 |
| dichotomous-image-segmentation-on-dis-te4 | PFNet | E-measure: 0.838 HCE: 3803 MAE: 0.107 S-Measure: 0.763 max F-Measure: 0.731 weighted F-measure: 0.647 |
| dichotomous-image-segmentation-on-dis-vd | PFNet | E-measure: 0.811 HCE: 1606 MAE: 0.106 S-Measure: 0.740 max F-Measure: 0.691 weighted F-measure: 0.604 |