
摘要
尽管遥感目标检测取得了快速发展,但检测高宽比对象仍然是一个挑战。本文表明,大型条带卷积是遥感目标检测中优秀的特征表示学习器,能够很好地检测各种宽比的对象。基于大型条带卷积,我们构建了一种新的网络架构——条带R-CNN(Strip R-CNN),该架构简单、高效且强大。与最近利用方形大核卷积的遥感目标检测器不同,我们的条带R-CNN在主干网络StripNet中采用了顺序正交的大型条带卷积来捕捉空间信息。此外,我们通过解耦检测头并为定位分支配备条带卷积来提高遥感目标检测器的定位能力。我们在多个基准数据集上进行了广泛的实验,例如DOTA、FAIR1M、HRSC2016和DIOR,结果表明我们的条带R-CNN可以显著改进先前的工作。特别是,我们的30M模型在DOTA-v1.0上达到了82.75%的mAP,创下了新的最先进记录。我们的代码将公开发布。代码可在https://github.com/YXB-NKU/Strip-R-CNN获取。
代码仓库
yxb-nku/strip-r-cnn
官方
pytorch
GitHub 中提及
HVision-NKU/Strip-R-CNN
官方
pytorch
GitHub 中提及
zcablii/Large-Selective-Kernel-Network
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| object-detection-in-aerial-images-on-dota-1 | Strip R-CNN* | mAP: 82.75% |
| object-detection-in-aerial-images-on-dota-1 | Strip R-CNN | mAP: 82.28% |
| object-detection-in-aerial-images-on-hrsc2016 | Strip R-CNN | mAP-07: 90.6 mAP-12: 98.70 |