
摘要
我们提出了一种用于实时(>30帧/秒)实例分割的简单全卷积模型,在单个Titan Xp上评估时,该模型在MS COCO数据集上取得了具有竞争力的结果,显著快于任何先前的最先进方法。此外,我们在仅使用一个GPU进行训练的情况下获得了这一结果。我们通过将实例分割分解为两个并行子任务来实现这一点:(1) 生成一组原型掩码;(2) 预测每个实例的掩码系数。然后,我们通过线性组合原型掩码和掩码系数来生成实例掩码。我们发现,由于这一过程不依赖于重新池化,因此该方法能够生成非常高质量的掩码,并且自然具备时间稳定性。此外,我们分析了原型的涌现行为,并展示了它们以平移不变的方式自主学习定位实例,尽管模型是全卷积的。我们还提出了快速非极大值抑制(Fast NMS),这是一种可以替代标准NMS的标准组件,其速度提高了12毫秒,而性能损失微乎其微。最后,通过在骨干网络中引入可变形卷积、优化预测头以获得更好的锚点尺度和宽高比,并添加一个新的快速掩码重评分分支,我们的YOLACT++模型能够在33.5帧/秒的速度下在MS COCO数据集上达到34.1 mAP的性能,这接近最先进方法的水平,同时仍能实现实时运行。
代码仓库
adityarc19/traffic-vehicles-instance-segmentation
pytorch
GitHub 中提及
jay-z20/yolact2-paddle
paddle
leenajyotishi/objectdetectionstuff
pytorch
GitHub 中提及
Mind23-2/MindCode-92
mindspore
GitHub 中提及
dbolya/yolact
官方
pytorch
GitHub 中提及
anshkumar/yolact
tf
GitHub 中提及
DataXujing/yolact_pytorch
pytorch
GitHub 中提及
Yahya1547/FaceMask
pytorch
GitHub 中提及
lasithaya/yolact
pytorch
GitHub 中提及
zhaozhongch/yolact_ros
pytorch
GitHub 中提及
KHKHG/yolact
pytorch
GitHub 中提及
bihanli/yolactBH
pytorch
GitHub 中提及
adityarc19/yolact-plus
pytorch
GitHub 中提及
hyunahOh/instance_segmentation
pytorch
GitHub 中提及
divyachandana/yolact
pytorch
GitHub 中提及
lucasfporto/yolactTest
pytorch
GitHub 中提及
Jittor/InstanceSegmentation-jittor
pytorch
GitHub 中提及
kaylode/Clothes-Segmentation
pytorch
GitHub 中提及
zhengzhe97/yolactpaddle
paddle
GitHub 中提及
kaylode/Trash-Segmentation
pytorch
GitHub 中提及
skritik098/new_yolact_2
pytorch
GitHub 中提及
hampen2929/yolact
pytorch
GitHub 中提及
KevinJia1212/yolact_cityscapes_550
pytorch
GitHub 中提及
jiajunhua/dbolya-yolact
pytorch
GitHub 中提及
SpaceView/Yolact_EfficientNet
pytorch
GitHub 中提及
DivaniMandi/myCustomDataset_yolact
pytorch
GitHub 中提及
skritik098/new_yolact
pytorch
GitHub 中提及
eddy4112/Yolact
pytorch
GitHub 中提及
songjmcn/yolact
pytorch
GitHub 中提及
YeshengSu/Yolact
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| real-time-instance-segmentation-on-mscoco | YOLACT-550++ (ResNet-101-FPN) | AP50: 53.8 AP75: 36.9 APL: 55.1 APM: 36.8 APS: 11.9 Frame (fps): 27.3 (Titan Xp) mask AP: 34.6 |