
摘要
近期卷积神经网络(CNN)在图像中定位物体方面取得了显著成果。在这些网络中,训练过程通常需要提供边界框或预期的最大物体数量。本文旨在解决无需标注边界框即可估计物体位置的任务,这些边界框通常是手工绘制且标注耗时。我们提出了一种可以在任何全卷积网络(FCN)中使用的损失函数来估计物体位置。该损失函数是对两个无序点集之间的平均Hausdorff距离的改进。所提出的方法不涉及边界框、区域建议或滑动窗口的概念。我们在三个数据集上评估了我们的方法,这些数据集分别用于定位人的头部、瞳孔中心和植物中心。实验结果表明,我们的方法优于现有的通用物体检测器以及专门针对瞳孔跟踪进行微调的方法。
代码仓库
HaipengXiong/weighted-hausdorff-loss
pytorch
GitHub 中提及
javiribera/locating-objects-without-bboxes
官方
pytorch
GitHub 中提及
vnbot2/object-locator
tf
GitHub 中提及
Nacriema/Loss-Functions-For-Semantic-Segmentation
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| object-localization-on-mall | Hausdorff Loss | Precision: 88.1 |
| object-localization-on-plant | Hausdorff Loss | F-Score: 88.6 |
| object-localization-on-pupil | Hausdorff Loss | Recall: 89.2 |