
摘要
任意方向的物体广泛出现在自然场景、航拍照片、遥感图像等中,因此任意方向的物体检测受到了广泛关注。许多当前的旋转检测器使用大量不同方向的锚框来实现与真实边界框的空间对齐,然后通过交并比(Intersection-over-Union, IoU)来采样正负样本用于训练。然而,我们观察到,经过回归后的正样本锚框并不总能保证准确的检测结果,而一些负样本却可以实现精确的定位。这表明通过IoU评估锚框的质量并不合适,进一步导致分类置信度与定位精度之间的不一致。在本文中,我们提出了一种动态锚框学习(Dynamic Anchor Learning, DAL)方法,该方法利用新定义的匹配度来全面评估锚框的定位潜力,并进行更高效的标签分配过程。这样,检测器可以动态选择高质量的锚框以实现准确的物体检测,并缓解分类与回归之间的差异。借助引入的DAL方法,我们仅使用少量水平预设锚框就实现了对任意方向物体的优越检测性能。在HRSC2016、DOTA、UCAS-AOD三个遥感数据集以及ICDAR 2015场景文本数据集上的实验结果表明,我们的方法相比基线模型取得了显著改进。此外,我们的方法也适用于使用水平边界框进行物体检测。代码和模型可在https://github.com/ming71/DAL获取。
代码仓库
ming71/DAL
官方
pytorch
GitHub 中提及
ming71/UCAS-AOD-benchmark
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| multi-oriented-scene-text-detection-on | DAL | F-Measure: 82.4 |
| object-detection-in-aerial-images-on-dota-1 | DLA+S2A-Net | mAP: 76.95% |