
摘要
在深度学习中,高效生成充足的标注数据仍是主要瓶颈,尤其在图像分割任务中,标注过程耗时且费力。本研究针对资源受限环境下的这一挑战,不依赖大规模数据集或预训练模型,提出一种名为“不一致性掩码”(Inconsistency Masks, IM)的新方法。该方法通过筛选图像与伪标签对之间的不确定性,显著提升分割性能,优于传统半监督学习技术。在四个不同数据集上,仅使用10%的标注数据,IM方法即能取得优异的分割效果;同时,该方法可与其他技术有效融合,展现出广泛的适用性。值得注意的是,在ISIC 2018数据集上,我们提出的三种混合方法甚至超越了在全标注数据集上训练的模型表现。此外,本文还对主流半监督学习策略进行了详尽的对比分析,所有实验均在统一初始条件下进行,进一步凸显了本方法的有效性与鲁棒性。完整代码已开源,地址为:https://github.com/MichaelVorndran/InconsistencyMasks。
代码仓库
michaelvorndran/inconsistencymasks
官方
tf
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| lesion-segmentation-on-isic-2018 | AIM++ (256x256, 1.5m parameters, 10% labeled data, no pretraining) | mean Dice: 0.85 |
| semi-supervised-medical-image-segmentation-on-6 | AIM++ (256x256, 1.5m parameters, 10% labeled data, no pretraining) | Dice Score: 0.85 |
| semi-supervised-semantic-segmentation-on-43 | IM++ (416x208, 2.7m parameters, no pretraining) | Mean IoU (class): 0.428 |
| semi-supervised-semantic-segmentation-on-suim | AIM+ (256x256, 2.7m parameters, 10% labeled data, no pretraining) | Mean IoU (class): 0.482 |