3 个月前

VLCap:基于对比学习的视觉-语言模型用于连贯视频段落描述生成

VLCap:基于对比学习的视觉-语言模型用于连贯视频段落描述生成

摘要

在本文中,我们借鉴人类感知过程——即视觉与语言的交互机制——来生成对未剪辑视频的连贯段落描述。我们提出了一种视觉-语言(Vision-Language, VL)特征表示,包含两个模态:(i)视觉模态,用于捕捉整个场景的全局视觉内容;(ii)语言模态,用于提取场景中人类与非人类对象(如动物、车辆等)的描述,以及视觉与非视觉元素(如关系、行为等)的语义信息。此外,我们提出在对比学习框架下,采用视觉-语言损失函数对所提出的VLCap模型进行训练。在ActivityNet Captions和YouCookII数据集上的实验与消融研究结果表明,我们的VLCap在准确率和多样性指标上均优于现有的最先进方法。

代码仓库

UARK-AICV/VLCAP
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
video-captioning-on-activitynet-captionsVLCap (ae-test split) - Appearance + Language
BLEU4: 13.38
CIDEr: 31.29
METEOR: 17.48
ROUGE-L: 35.99

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
VLCap:基于对比学习的视觉-语言模型用于连贯视频段落描述生成 | 论文 | HyperAI超神经