
摘要
视觉与自然语言的联合理解是人工智能领域一个具有广泛应用前景的挑战性问题。本文聚焦于视频与文本的融合,旨在实现从自然语言句子中对视频中的演员及其动作进行分割。我们提出一种基于胶囊网络(capsule-based)的方法,能够根据描述目标演员的自然语言查询,实现像素级的定位。该方法将视频和文本输入均编码为胶囊形式,相较于传统的基于卷积的特征表示,能够提供更有效的特征表达。我们设计了一种新颖的视觉-文本路由机制,实现了视频胶囊与文本胶囊的深度融合,从而成功定位目标演员及其动作。现有研究中的演员-动作定位任务主要集中于单帧图像的定位,而本文提出的方法则在视频的全部帧上进行定位。为验证所提网络在演员与动作视频定位任务中的潜力,我们对现有的演员-动作数据集(A2D)进行了扩展,为视频中所有帧添加了标注。实验结果表明,所提出的胶囊网络在基于文本选择的视频中演员与动作定位任务上具有显著有效性,且在单帧定位任务上也优于现有最先进的方法。
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| referring-expression-segmentation-on-a2d | VT-Capsule | AP: 0.303 IoU mean: 0.460 IoU overall: 0.568 Precision@0.5: 0.526 Precision@0.6: 0.450 Precision@0.7: 0.345 Precision@0.8: 0.207 Precision@0.9: 0.036 |
| referring-expression-segmentation-on-j-hmdb | VT-Capsule | AP: 0.261 IoU mean: 0.550 IoU overall: 0.535 Precision@0.5: 0.677 Precision@0.6: 0.513 Precision@0.7: 0.283 Precision@0.8: 0.051 Precision@0.9: 0.000 |