3 个月前

多模态密集视频字幕生成

多模态密集视频字幕生成

摘要

密集视频字幕生成(Dense Video Captioning)是一项旨在从未剪辑的视频中定位有趣事件,并为每个定位到的事件生成相应文本描述(字幕)的任务。以往大多数密集视频字幕方法仅依赖视觉信息,完全忽略了音频内容。然而,对于人类观察者而言,音频信息——尤其是语音——在理解环境方面具有至关重要的作用。本文提出一种新的密集视频字幕方法,能够灵活利用任意数量的模态信息进行事件描述。具体而言,我们展示了音频与语音模态如何提升密集视频字幕模型的性能。通过应用自动语音识别(ASR)系统,我们获得与语音内容在时间上对齐的文本描述(类似于字幕),并将该文本作为独立输入,与视频帧及对应的音频信号共同输入模型。我们将字幕生成任务建模为机器翻译问题,并采用近期提出的Transformer架构,将多模态输入数据转换为连贯的文本描述。我们在ActivityNet Captions数据集上验证了所提模型的性能。消融实验表明,音频与语音模态带来了显著的性能提升,表明这些模态包含与视频帧高度互补的信息。此外,我们还通过利用原始YouTube视频中获取的类别标签,对ActivityNet Caption的生成结果进行了深入分析。代码已公开:github.com/v-iashin/MDVC

代码仓库

v-iashin/video_features
pytorch
GitHub 中提及
VP-0822/Video-Keyword-Extractor
pytorch
GitHub 中提及
v-iashin/MDVC
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
dense-video-captioning-on-activitynetMDVC
BLEU-3: 2.6
BLEU-4: 1.07
METEOR: 7.31

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
多模态密集视频字幕生成 | 论文 | HyperAI超神经