
摘要
在本文中,我们提出了一种概念新颖、高效且完全卷积的框架,用于实现实时实例分割。以往,大多数实例分割方法严重依赖于目标检测,并基于边界框或密集中心进行掩码预测。相比之下,我们提出了一种稀疏的实例激活图集,作为新的目标表示方法,以突出每个前景目标的信息区域。然后,通过根据这些高亮区域聚合特征来获取实例级别的特征,用于识别和分割。此外,基于二分匹配的方法,实例激活图可以一对一地预测目标,从而避免了后处理中的非极大值抑制(Non-Maximum Suppression, NMS)。得益于简单而有效的设计以及实例激活图的应用,SparseInst 具有极快的推理速度,在 COCO 基准测试中达到了 40 帧/秒和 37.9 的平均精度(Average Precision, AP),显著优于同类方法的速度和准确性。代码和模型可在 https://github.com/hustvl/SparseInst 获取。
代码仓库
2023-MindSpore-1/ms-code-143
pytorch
hustvl/sparseinst
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| real-time-instance-segmentation-on-mscoco | SparseInst-608 (ResNet-50-vd) | AP50: 59.2 AP75: 40.2 APL: 56.9 APM: 39.4 APS: 15.7 Frame (fps): 40 (2080 Ti) mask AP: 37.9 |
| real-time-instance-segmentation-on-mscoco | SparseInst-448 (ResNet-50-vd) | AP50: 56.5 AP75: 37.7 APL: 57.0 APM: 37.1 APS: 12.3 Frame (fps): 58.5 (2080 Ti) mask AP: 35.9 |