4 个月前

VL-BERT:通用视觉-语言表示的预训练

VL-BERT:通用视觉-语言表示的预训练

摘要

我们介绍了一种新的可预训练的视觉-语言通用表示方法,称为视觉-语言BERT(简称VL-BERT)。VL-BERT采用了简单而强大的Transformer模型作为骨干,并将其扩展为可以同时接受视觉和语言嵌入特征作为输入。在该模型中,输入的每个元素要么是来自输入句子的一个单词,要么是来自输入图像的一个感兴趣区域(Region of Interest, RoI)。该模型旨在适用于大多数视觉-语言下游任务。为了更好地利用这种通用表示,我们在大规模的概念标题数据集上对VL-BERT进行了预训练,并结合了纯文本语料库。广泛的实证分析表明,预训练过程可以更好地对齐视觉和语言线索,并有助于下游任务,如视觉常识推理、视觉问答和指代表达理解。值得一提的是,VL-BERT在VCR基准测试的排行榜上以单模型获得了第一名。代码已发布在\url{https://github.com/jackroos/VL-BERT}。

代码仓库

jackroos/VL-BERT
官方
pytorch
GitHub 中提及
ImperialNLP/BertGen
pytorch
GitHub 中提及
jules-samaran/vl-bert
pytorch
GitHub 中提及

基准测试

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
VL-BERT:通用视觉-语言表示的预训练 | 论文 | HyperAI超神经