
摘要
伪装物体检测(COD)旨在识别在自然场景中隐藏的物体。准确的COD面临着诸多挑战,包括边界对比度低和物体外观变化大等问题,例如物体的大小和形状。为了解决这些挑战,我们提出了一种新颖的情境感知跨层级融合网络(C2F-Net),该网络通过融合情境感知的跨层级特征来准确识别伪装物体。具体而言,我们利用注意力诱导跨层级融合模块(ACFM)从多层级特征中计算出具有信息量的注意力系数,并在此指导下进一步整合特征。随后,我们提出了双分支全局上下文模块(DGCM),通过利用丰富的全局上下文信息来优化融合后的特征,从而生成更具信息量的特征表示。多个ACFM和DGCM以级联的方式集成在一起,从高层级特征生成粗略预测。该粗略预测作为注意力图,在将低层级特征传递给我们的伪装推理模块(CIM)之前对其进行细化,最终生成最终预测。我们在三个广泛使用的基准数据集上进行了大量实验,并将C2F-Net与最先进的(SOTA)模型进行了比较。结果表明,C2F-Net是一种有效的COD模型,并显著优于SOTA模型。此外,在息肉分割数据集上的评估也展示了我们的C2F-Net在COD下游应用中的巨大潜力。我们的代码已公开发布在:https://github.com/Ben57882/C2FNet-TSCVT。
代码仓库
ben57882/c2fnet-tscvt
官方
pytorch
GitHub 中提及
thograce/C2FNet
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| camouflaged-object-segmentation-on-pcod-1200 | C2FNet-V2 | S-Measure: 0.895 |