
摘要
尽管深度卷积神经网络(CNN)在图像语义分割方面取得了显著进展,但它们通常需要大量密集标注的图像进行训练,并且难以推广到未见过的物体类别。因此,少样本分割技术得以发展,旨在仅从少数标注示例中学习进行分割。本文从度量学习的角度出发,解决了具有挑战性的少样本分割问题,并提出了一种新颖的原型对齐网络(PANet),以更好地利用支持集中的信息。我们的PANet在嵌入空间内从少量支持图像中学习特定类别的原型表示,然后通过将查询图像中的每个像素与所学原型进行匹配来完成分割任务。借助非参数化的度量学习,PANet能够提供高质量的原型,这些原型不仅对每个语义类别具有代表性,同时还能区分不同的类别。此外,PANet引入了支持集和查询集之间的原型对齐正则化。通过这一机制,PANet充分挖掘了支持集中的知识,并在少样本分割任务上提供了更好的泛化能力。值得注意的是,我们的模型在PASCAL-5i数据集上的1-shot和5-shot设置下分别达到了48.1%和55.7%的mIoU分数,分别超过了现有最先进方法1.8%和8.6%。
代码仓库
CSCYQJ/LOCATION-SENSITIVE-LOCAL-PROTOTYPE-NETWORK
pytorch
GitHub 中提及
fanq15/ssp
pytorch
GitHub 中提及
kaixin96/PANet
官方
pytorch
GitHub 中提及
LiheYoung/MiningFSS
pytorch
GitHub 中提及
RogerQi/pascal-5i
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| few-shot-semantic-segmentation-on-coco-20i-1 | PANet (VGG-16) | FB-IoU: 59.2 Mean IoU: 20.9 |
| few-shot-semantic-segmentation-on-coco-20i-2-1 | PANet (ResNet-50) | mIoU: 18.0 |
| few-shot-semantic-segmentation-on-coco-20i-5 | PANet (VGG-16) | FB-IoU: 63.5 Mean IoU: 29.7 |
| few-shot-semantic-segmentation-on-pascal-5i-1 | PANet (VGG-16) | FB-IoU: 66.5 Mean IoU: 48.1 |
| few-shot-semantic-segmentation-on-pascal-5i-5 | PANet (VGG-16) | FB-IoU: 70.7 Mean IoU: 55.7 |