
摘要
我们的研究解决了计算机视觉中图像分割这一基本挑战,这对于多种应用至关重要。尽管监督方法表现出色,但其对大量像素级注释的依赖限制了其可扩展性。我们提出了一种创新的无监督图像分割方法——DynaSeg,该方法克服了在不依赖广泛超参数调整的情况下平衡特征相似性和空间连续性的难题。与传统方法不同,DynaSeg采用了一种动态加权方案,自动化参数调优,灵活适应图像特性,并且易于与其他分割网络集成。通过引入轮廓分数阶段(Silhouette Score Phase),DynaSeg防止了预测聚类数量可能收敛为一的欠分割问题。DynaSeg利用基于CNN和预训练ResNet的特征提取技术,使其计算效率更高且比其他复杂模型更为简单。实验结果展示了最先进的性能,在COCO-All和COCO-Stuff数据集上分别比现有的无监督分割方法提高了12.2%和14.12%的mIOU指标。我们在五个基准数据集上提供了定性和定量的结果,证明了所提方法的有效性。代码可在https://github.com/RyersonMultimediaLab/DynaSeg 获取。
代码仓库
ryersonmultimedialab/dynaseg
官方
pytorch
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| unsupervised-semantic-segmentation-on-coco-7 | DynaSeg - FSF (ResNet-18 FPN) | Accuracy: 81.1 mIoU: 54.1 |