摘要
遥感影像的语义分割是遥感与计算机视觉领域中的基础性任务。其目标是生成图像的全像素级分割图,为每个像素分配一个特定类别标签,从而实现对地表特征的深入分析与理解。本文提出一种基于U-Net模型集成的方法,以提升语义分割性能。该方法采用三种不同主干网络——多轴视觉Transformer(Multi-Axis Vision Transformer)、ConvFormer与EfficientNet——构建U-Net模型的集成体系。最终的分割结果通过几何平均集成策略生成,充分利用各主干网络所学习到的多样化特征表示。所提出的基线U-Net模型及集成方法在多个常用于遥感影像语义分割任务的公开数据集上进行了评估,包括LandCover.ai、LoveDA、INRIA、UAVid以及ISPRS Potsdam数据集。实验结果表明,该方法在各项指标上均达到当前最优水平,充分验证了其在准确捕捉遥感影像中语义信息方面的有效性与鲁棒性。
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| semantic-segmentation-on-isprs-potsdam | U-Net (ConvFormer-M36) | Mean IoU: 89.45 |
| semantic-segmentation-on-landcover-ai | U-Net (ConvFormer-M36) | mIoU: 87.64 |
| semantic-segmentation-on-loveda | U-Net (MaxViT-S) | Category mIoU: 56.16 |
| semantic-segmentation-on-uavid | U-Net Ensemble | Mean IoU: 73.34 |
| semantic-segmentation-on-uavid | U-Net (MaxViT-S) | Mean IoU: 71.88 |