
摘要
指代视频目标分割任务(Referring Video Object Segmentation, RVOS)旨在对给定视频帧中由文本描述所指代的目标实例进行分割。由于该任务具有多模态特性,融合了文本推理、视频理解、实例分割与目标跟踪等多个复杂环节,现有方法通常依赖于结构复杂的处理流程来应对。本文提出一种基于Transformer的简洁方法——多模态追踪Transformer(Multimodal Tracking Transformer, MTTR),用于解决RVOS问题。MTTR将该任务建模为序列预测问题,基于计算机视觉与自然语言处理领域的最新进展,其核心思想在于:通过单一的多模态Transformer模型,能够高效且优雅地联合处理视频与文本信息。MTTR具备端到端可训练性,不包含与文本相关的归纳偏置组件,且无需额外的掩码精炼后处理步骤,从而显著简化了现有的RVOS处理流程。在标准基准数据集上的评估结果表明,MTTR在多项指标上显著优于现有最先进方法。具体而言,在A2D-Sentences和JHMDB-Sentences数据集上,MTTR分别取得了+5.7和+5.0的mAP提升,同时实现每秒处理76帧的高效推理速度。此外,我们在更具挑战性的公开验证集Refer-YouTube-VOS上也取得了优异表现,该数据集目前尚未受到研究界的广泛关注。本文实验的复现代码已开源,地址为:https://github.com/mttr2021/MTTR。
代码仓库
mttr2021/MTTR
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| referring-expression-segmentation-on-a2d | MTTR (w=8) | AP: 0.447 IoU mean: 0.618 IoU overall: 0.702 Precision@0.5: 0.721 Precision@0.6: 0.684 Precision@0.7: 0.607 Precision@0.8: 0.456 Precision@0.9: 0.164 |
| referring-expression-segmentation-on-a2d | MTTR (w=10) | AP: 0.461 IoU mean: 0.64 IoU overall: 0.72 Precision@0.5: 0.754 Precision@0.6: 0.712 Precision@0.7: 0.638 Precision@0.8: 0.485 Precision@0.9: 0.169 |
| referring-expression-segmentation-on-j-hmdb | MTTR (w=10) | AP: 0.392 IoU mean: 0.698 IoU overall: 0.701 Precision@0.5: 0.939 Precision@0.6: 0.852 Precision@0.7: 0.616 Precision@0.8: 0.166 Precision@0.9: 0.001 |
| referring-expression-segmentation-on-j-hmdb | MTTR (w=8) | AP: 0.366 IoU mean: 0.679 IoU overall: 0.674 Precision@0.5: 0.91 Precision@0.6: 0.815 Precision@0.7: 0.57 Precision@0.8: 0.144 Precision@0.9: 0.001 |
| referring-expression-segmentation-on-refer-1 | MTTR (w=12) | F: 56.64 J: 54.00 Ju0026F: 55.32 |
| referring-video-object-segmentation-on-mevis | MTTR | F: 31.2 J: 28.8 Ju0026F: 30.0 |
| referring-video-object-segmentation-on-revos | MTTR (Video-Swin-T) | F: 25.9 J: 25.1 Ju0026F: 25.5 R: 5.6 |