
摘要
最近,几种基于时空记忆的网络表明,过去帧中的物体线索(例如视频帧和分割的物体掩码)对于当前帧中物体的分割非常有用。然而,这些方法通过在当前帧和过去帧之间进行全局到全局的匹配来利用记忆中的信息,这导致了对相似物体的误匹配以及较高的计算复杂度。为了解决这些问题,我们提出了一种新的局部到局部匹配解决方案,用于半监督视频对象分割(VOS),即区域记忆网络(Regional Memory Network, RMNet)。在RMNet中,通过记住目标物体在过去帧中出现的局部区域来构建精确的区域记忆。对于当前查询帧,根据从前一帧估计出的光流来跟踪和预测查询区域。所提出的局部到局部匹配方法有效缓解了记忆帧和查询帧中相似物体的模糊性,使得信息能够从区域记忆高效且有效地传递到查询区域。实验结果表明,所提出的RMNet在DAVIS和YouTube-VOS数据集上表现优于现有最先进方法。
代码仓库
hzxie/RMNet
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| semi-supervised-video-object-segmentation-on-1 | RMNet | F-measure (Mean): 78.1 Ju0026F: 75.0 Jaccard (Mean): 71.9 |
| semi-supervised-video-object-segmentation-on-20 | RMNet | D16 val (F): 82.3 D16 val (G): 81.5 D16 val (J): 80.6 D17 val (F): 77.2 D17 val (G): 75.0 D17 val (J): 72.8 FPS: 11.9 |
| video-object-segmentation-on-youtube-vos | RMNet | F-Measure (Seen): 85.7 F-Measure (Unseen): 82.4 Jaccard (Seen): 82.1 Jaccard (Unseen): 75.7 Overall: 81.5 |
| visual-object-tracking-on-davis-2016 | RMNet | F-measure (Mean): 88.7 Ju0026F: 88.8 Jaccard (Mean): 88.9 |
| visual-object-tracking-on-davis-2017 | RMNet | F-measure (Mean): 86.0 Ju0026F: 83.5 Jaccard (Mean): 81.0 |