4 个月前

VLG-Net:视频-语言图匹配网络用于视频定位

VLG-Net:视频-语言图匹配网络用于视频定位

摘要

将语言查询在视频中定位的目标在于识别出与语言查询在语义上相关的时段(或时刻)。解决这一具有挑战性的任务需要理解视频和查询的语义内容,并对它们之间的多模态交互进行细粒度推理。我们的核心思想是将这一挑战转化为算法图匹配问题。借助最近在图神经网络领域的进展,我们提出利用图卷积网络来建模视频和文本信息及其语义对齐。为了实现跨模态的信息互换,我们设计了一种新颖的视频-语言图匹配网络(VLG-Net),用于匹配视频和查询图。其关键组成部分包括分别基于视频片段和查询标记构建的表示图,用于建模单模态内部关系。采用图匹配层进行跨模态上下文建模和多模态融合。最后,通过融合增强后的片段特征,使用掩码时刻注意力池化生成时刻候选。我们在三个广泛使用的数据集上展示了该方法在语言查询引导的视频时刻时间定位任务中的优越性能:ActivityNet-Captions、TACoS 和 DiDeMo。

代码仓库

Soldelli/VLG-Net
pytorch
GitHub 中提及

基准测试

基准方法指标
natural-language-moment-retrieval-onVLG-Net
R@1,IoU=0.5: 46.32
R@1,IoU=0.7: 29.82
R@5,IoU=0.5: 77.15
R@5,IoU=0.7: 63.33
natural-language-moment-retrieval-on-didemoVLG-Net
R@1,IoU=0.5: 33.35
R@1,IoU=0.7: 25.57
R@1,IoU=1.0: 25.57
R@5,IoU=0.5: 88.86
R@5,IoU=0.7: 71.72
R@5,IoU=1.0: 71.65
natural-language-moment-retrieval-on-tacosVLG-Net
R@1,IoU=0.3: 45.46
R@1,IoU=0.5: 34.19
R@5,IoU=0.1: 81.80
R@5,IoU=0.3: 70.38
R@5,IoU=0.5: 56.56

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
VLG-Net:视频-语言图匹配网络用于视频定位 | 论文 | HyperAI超神经