
摘要
掩码图像建模(Masked Image Modeling, MIM)已成为构建遥感(Remote Sensing, RS)基础视觉模型的关键方法。然而,现有遥感数据集在规模和多样性方面的局限性,制约了MIM方法学习通用表征的能力。此外,传统MIM技术需对所有图像块(tokens)进行重建,带来了不必要的计算开销。为解决上述问题,本文提出了一种面向遥感模型的新预训练流程,包含一个大规模遥感数据集的构建与一种高效的MIM方法。我们通过整合公开可用的遥感数据集,并经过筛选、切片与去重等处理,构建了一个高质量的大规模遥感数据集——OpticalRS-13M。该数据集包含1300万张光学遥感图像,覆盖目标检测、像素分割等多种遥感任务。为提升训练效率,本文进一步提出SelectiveMAE方法,该方法能够动态地对语义信息丰富的图像块进行编码与重建,有效规避了传统MIM模型因遥感图像中冗余背景像素带来的计算低效问题。大量实验结果表明,OpticalRS-13M显著提升了模型在分类、检测与分割任务上的性能,而SelectiveMAE在保持高精度的同时,使训练效率提升超过2倍。这一成果充分验证了所提出预训练流程在构建遥感基础模型方面的有效性与可扩展性。
代码仓库
Fengxiang23/SelectiveMAE
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| object-detection-in-aerial-images-on-dior | SelectiveMAE+ViT-B | AP50: 77.80 |
| semantic-segmentation-on-loveda | SelectiveMAE+ViT-L | Category mIoU: 54.31 |
| semantic-segmentation-on-spacenet-1 | SelectiveMAE+ViT-B | Mean IoU: 79.50 |