
摘要
目标计数是计算机视觉中的一个重要任务,因其在监控、交通监测和日常物品计数等应用中日益增长的需求而受到关注。目前最先进的方法采用基于回归的优化技术,通过显式学习来计数感兴趣的物体。这些方法通常优于需要学习预测每个物体位置、大小和形状的基于检测的方法,因为后者任务更为复杂。然而,我们提出了一种基于检测的方法,该方法无需估计物体的大小和形状,并且其性能超过了基于回归的方法。我们的贡献有三个方面:(1) 我们提出了一种新的损失函数,仅使用点级注释即可鼓励网络为每个物体实例输出一个单一的斑块;(2) 我们设计了两种用于在物体实例之间分割大型预测斑块的方法;(3) 我们展示了我们的方法在包括Pascal VOC和企鹅数据集在内的多个具有挑战性的数据集上取得了最新的最佳结果。即使与使用更强监督信息(如深度特征、多点注释和边界框标签)的方法相比,我们的方法也表现更优。
代码仓库
ElementAI/LCFCN
pytorch
GitHub 中提及
andohuman/RebarCounting
pytorch
GitHub 中提及
CJLee94/Point-Supervised-Segmentation
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| object-counting-on-coco-count-test | LC-ResFCN | m-reIRMSE: 0.19 m-reIRMSE-nz: 0.99 mRMSE: 0.38 mRMSE-nz: 2.20 |
| object-counting-on-pascal-voc-2007-count-test | LC-ResFCN | m-reIRMSE-nz: 0.61 m-relRMSE: 0.17 mRMSE: 0.31 mRMSE-nz: 1.20 |
| object-counting-on-pascal-voc-2007-count-test | LC-PSPNet | m-reIRMSE-nz: 0.70 m-relRMSE: 0.20 mRMSE: 0.35 mRMSE-nz: 1.32 |