
摘要
现有的视频推理分割方法严重依赖单一的特殊标记来表示关键帧中的对象或整个视频,这导致无法充分捕捉空间复杂性和帧间运动。为了解决这些挑战,我们提出了一种端到端的视频推理分割方法——VRS-HQ,该方法利用多模态大语言模型(MLLMs)将丰富的时空特征注入层次化标记中。我们的主要创新包括时间动态聚合(Temporal Dynamic Aggregation, TDA)和标记驱动的关键帧选择(Token-driven Keyframe Selection, TKS)。具体而言,我们设计了帧级<SEG>和时间级<TAK>标记,利用MLLMs的自回归学习有效捕捉局部和全局信息。随后,我们应用基于相似性的加权融合和帧选择策略,并利用SAM2进行关键帧分割和传播。为了提高关键帧定位的准确性,TKS在推理过程中根据SAM2的遮挡分数过滤关键帧。VRS-HQ在ReVOS数据集上取得了最先进的性能,在三个子集上的J&F得分分别超过了VISA 5.9%、12.5%和9.1%。这些结果突显了我们方法在时间推理和分割方面的强大能力。代码和模型权重将在VRS-HQ项目页面上发布。
代码仓库
sitonggong/vrs-hq
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| referring-expression-segmentation-on-refer-1 | VRS-HQ (Chat-UniVi-13B) | F: 73.1 J: 69 Ju0026F: 71 |
| referring-video-object-segmentation-on-mevis | VRS-HQ (Chat-UniVi-13B) | F: 53.7 J: 48 Ju0026F: 50.9 |
| referring-video-object-segmentation-on-revos | VRS-HQ (Chat-UniVi-13B) | F: 62.5 J: 57.6 Ju0026F: 60 R: 18.9 |
| referring-video-object-segmentation-on-revos | VRS-HQ (Chat-UniVi-7B) | F: 61.6 J: 56.6 Ju0026F: 59.1 R: 19.7 |