
摘要
我们提出了一种新颖的半监督语义分割方法(PC2Seg),该方法协同实现了分割模型的两项理想性质:图像增强之间的标签空间一致性,以及不同像素之间的特征空间对比性。为此,我们分别采用像素级L2损失和像素对比损失来实现上述目标。为解决像素对比损失带来的计算效率问题以及误负样本噪声问题,我们进一步引入并系统研究了几种负样本采样策略。大量实验表明,基于DeepLab-v3+架构的所提方法在来自VOC、Cityscapes和COCO数据集的多个具有挑战性的半监督分割设置下,均取得了当前最优的性能表现。
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| semi-supervised-semantic-segmentation-on-coco | PC2Seg | Validation mIoU: 29.9 |
| semi-supervised-semantic-segmentation-on-coco-1 | PC2Seg | Validation mIoU: 37.5 |
| semi-supervised-semantic-segmentation-on-coco-2 | PC2Seg | Validation mIoU: 40.1 |
| semi-supervised-semantic-segmentation-on-coco-3 | PC2Seg | Validation mIoU: 43.7 |
| semi-supervised-semantic-segmentation-on-coco-4 | PC2Seg | Validation mIoU: 46.1 |