
摘要
目标检测领域在基于区域的卷积神经网络(ConvNets)的推动下取得了显著进展,但其训练过程仍然包含许多启发式方法和需要耗费大量成本调整的超参数。本文介绍了一种简单而令人惊讶地有效的在线难例挖掘(OHEM)算法,用于训练基于区域的卷积神经网络检测器。我们的动机始终如一——检测数据集中包含了大量的简单示例和少量的困难示例。自动选择这些困难示例可以提高训练的有效性和效率。OHEM是一种简单直观的算法,它消除了常用的一些启发式方法和超参数。更重要的是,该算法在PASCAL VOC 2007和2012等基准测试中表现出一致且显著的性能提升。随着数据集变得更大、更复杂,其有效性也进一步增强,这一点在MS COCO数据集的结果中得到了验证。此外,结合领域内的其他互补进展,OHEM分别在PASCAL VOC 2007和2012上取得了78.9%和76.3%的平均精度均值(mAP),达到了当前最佳水平。
代码仓库
busyboxs/Some-resources-useful-for-me
tf
GitHub 中提及
Bennie-Han/Image-augementation-pytorch
pytorch
GitHub 中提及
tkuanlun350/Kaggle_Ship_Detection_2018
tf
GitHub 中提及
abhi2610/ohem
caffe2
GitHub 中提及
hh-xiaohu/Image-augementation-pytorch
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| face-identification-on-trillion-pairs-dataset | HM-Softmax | Accuracy: 36.75 |
| face-verification-on-trillion-pairs-dataset | HM-Softmax | Accuracy: 34.46 |
| object-detection-on-pascal-voc-2007 | OHEM | MAP: 78.9% |