3 个月前

SeqFormer:用于视频实例分割的序列化Transformer

SeqFormer:用于视频实例分割的序列化Transformer

摘要

在本工作中,我们提出了SeqFormer用于视频实例分割。SeqFormer遵循视觉Transformer的基本原则,通过建模视频帧之间的实例关系来实现分割。然而,我们观察到,仅使用独立的实例查询即可有效捕捉视频中实例的时间序列特征,而注意力机制应针对每一帧独立进行。为实现这一目标,SeqFormer在每一帧中定位实例,并聚合时间信息以学习视频级别实例的强表示,进而动态预测每一帧上的掩码序列。该方法自然地实现了实例跟踪,无需额外的跟踪分支或后处理步骤。在YouTube-VIS数据集上,SeqFormer在使用ResNet-50主干网络时达到47.4 AP,在使用ResNet-101主干网络时达到49.0 AP,且未采用任何额外技巧(bells and whistles)。这一性能分别显著超越此前最先进方法4.6和4.4 AP。此外,当与近期提出的Swin Transformer结合时,SeqFormer进一步提升至59.3 AP的优异表现。我们期望SeqFormer能够成为视频实例分割领域的一个强大基准,推动未来研究的发展,同时以更鲁棒、更准确、更简洁的模型架构推动该领域的进步。代码已开源,地址为:https://github.com/wjf5203/SeqFormer。

代码仓库

wjf5203/vnext
pytorch
GitHub 中提及
wjf5203/SeqFormer
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
video-instance-segmentation-on-hq-ytvisSeqFormer (Swin-L)
Tube-Boundary AP: 43.3
video-instance-segmentation-on-youtube-vis-1SeqFormer (ResNet-101)
AP50: 71.1
AP75: 55.7
AR1: 46.8
AR10: 56.9
mask AP: 49.0
video-instance-segmentation-on-youtube-vis-1SeqFormer (ResNet-50)
AP50: 69.8
AP75: 51.8
AR1: 45.5
AR10: 54.8
mask AP: 47.4
video-instance-segmentation-on-youtube-vis-1SeqFormer (Swin-L)
AP50: 82.1
AP75: 66.4
AR1: 51.7
AR10: 64.4
mask AP: 59.3
video-instance-segmentation-on-youtube-vis-1SeqFormer (ResNet-50)
AP50: 66.9
AP75: 50.5
AR1: 45.6
AR10: 54.6
mask AP: 45.1

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
SeqFormer:用于视频实例分割的序列化Transformer | 论文 | HyperAI超神经