
摘要
视觉指令调优大型语言模型(LLM)在图像-文本对上的训练已经实现了通用的视觉-语言能力。然而,缺乏区域-文本对限制了其在细粒度多模态理解方面的进展。本文中,我们提出了一种空间指令调优方法,该方法在指令中引入了感兴趣区域(Region-of-Interest, RoI)的参考。在将参考发送给LLM之前,参考被替换为RoI特征,并与语言嵌入交织成一个序列。我们的模型GPT4RoI在7个区域-文本对数据集上进行训练,相比之前的图像级模型,带来了前所未有的交互和对话体验。超越语言的交互:用户可以通过语言和绘制边界框的方式与我们的模型进行互动,灵活调整引用的粒度。多样化的多模态能力:GPT4RoI可以挖掘每个RoI中的各种属性信息,例如颜色、形状、材料、动作等。此外,它还可以基于常识对多个RoI进行推理。在视觉常识推理(Visual Commonsense Reasoning, VCR)数据集上,GPT4RoI达到了显著的81.6%准确率,远超所有现有模型(第二名准确率为75.6%),几乎达到人类水平的表现(85.0%)。代码和模型可以在https://github.com/jshilong/GPT4RoI找到。
代码仓库
qiujihao19/artemis
pytorch
GitHub 中提及
sunsmarterjie/chatterbox
pytorch
GitHub 中提及
jshilong/gpt4roi
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| visual-question-answering-on-vcr-q-a-test | GPT4RoI | Accuracy: 89.4 |
| visual-question-answering-on-vcr-q-ar-test | GPT4RoI | Accuracy: 81.6 |
| visual-question-answering-on-vcr-qa-r-test | GPT4RoI | Accuracy: 91.0 |
| visual-question-answering-on-vip-bench | GPT4ROI 7B (ROI) | GPT-4 score (bbox): 35.1 |