4 个月前

HowTo100M:通过观看一亿个带旁白的视频片段学习文本-视频嵌入

HowTo100M:通过观看一亿个带旁白的视频片段学习文本-视频嵌入

摘要

学习文本-视频嵌入通常需要一个包含手动提供字幕的视频片段数据集。然而,这样的数据集创建成本高昂且耗时,因此难以大规模获取。在本研究中,我们提出了一种替代方法,即从具有现成自然语言注释的视频数据中学习这些嵌入,这些注释以自动转录的叙述形式存在。本研究的贡献有三个方面。首先,我们引入了HowTo100M:这是一个大规模的数据集,包含1.36亿个视频片段,源自122万个带有叙述的指导性网络视频,展示了人类执行和描述超过23,000种不同的视觉任务。我们的数据收集过程快速、可扩展且无需任何额外的手动注释。其次,我们证明了在这种数据上训练的文本-视频嵌入在指导性视频数据集(如YouCook2或CrossTask)上的文本到视频检索和动作定位任务中达到了最先进的结果。最后,我们展示了这种嵌入可以很好地迁移到其他领域:在通用YouTube视频(MSR-VTT数据集)和电影(LSMDC数据集)上进行微调的表现优于仅在这类数据集上训练的模型。我们的数据集、代码和模型将在以下网址公开发布:www.di.ens.fr/willow/research/howto100m/。

代码仓库

antoine77340/S3D_HowTo100M
pytorch
GitHub 中提及
antoine77340/milnce_howto100m
pytorch
GitHub 中提及
antoine77340/MIL-NCE_HowTo100M
pytorch
GitHub 中提及
roudimit/AVLnet
pytorch
GitHub 中提及

基准测试

基准方法指标
long-video-retrieval-background-removed-onText-Video Embedding
Cap. Avg. R@1: 46.6
Cap. Avg. R@10: 83.7
Cap. Avg. R@5: 74.3
temporal-action-localization-on-crosstaskText-Video Embedding
Recall: 33.6
video-retrieval-on-lsmdcText-Video Embedding
text-to-video Median Rank: 40
text-to-video R@1: 7.2
text-to-video R@10: 27.9
text-to-video R@5: 19.6
video-retrieval-on-msr-vttText-Video Embedding
text-to-video Median Rank: 9
text-to-video R@1: 14.9
text-to-video R@10: 52.8
video-to-text R@5: 40.2
video-retrieval-on-msr-vtt-1kaHT-Pretrained
text-to-video Median Rank: 9
text-to-video R@1: 14.9
text-to-video R@10: 52.8
text-to-video R@5: 40.2
video-retrieval-on-msr-vtt-1kaHT
text-to-video Median Rank: 12
text-to-video R@1: 12.1
text-to-video R@10: 48.0
text-to-video R@5: 35.0
video-retrieval-on-youcook2Text-Video Embedding
text-to-video Median Rank: 24
text-to-video R@1: 8.2
text-to-video R@10: 35.3
text-to-video R@5: 24.5

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
HowTo100M:通过观看一亿个带旁白的视频片段学习文本-视频嵌入 | 论文 | HyperAI超神经