LiuFangyu ; PiccinnoFrancesco ; KricheneSyrine ; PangChenxi ; LeeKenton ; JoshiMandar ; AltunYasemin ; CollierNigel ; EisenschlosJulian Martin

摘要
视觉语言数据,如图表、曲线图和信息图,在人类世界中无处不在。然而,当前最先进的视觉-语言模型在处理这些数据时表现不佳。我们提出了一种名为MatCha(数学推理和图表反渲染预训练)的方法,以增强视觉语言模型在联合建模图表/曲线图和语言数据方面的能力。具体而言,我们设计了几个预训练任务,涵盖图表分解和数值推理,这些是视觉语言建模中的关键能力。MatCha预训练从最近提出的图像到文本的视觉-语言模型Pix2Struct开始。在标准基准测试如PlotQA和ChartQA上,MatCha模型的表现比现有最先进方法高出近20%。我们还考察了MatCha预训练在截图、教科书插图和文档图形等领域的迁移效果,并观察到整体性能的提升,验证了MatCha预训练在更广泛的视觉语言任务中的有效性。
代码仓库
huggingface/transformers
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| chart-question-answering-on-chartqa | MatCha | 1:1 Accuracy: 64.2 |
| chart-question-answering-on-plotqa | MatCha | 1:1 Accuracy: 91.5 |
| chart-question-answering-on-realcqa | Matcha-chartQA | 1:1 Accuracy: 0.259728175283818 |
| visual-question-answering-on-docvqa-test | MatCha | ANLS: 0.742 |
| visual-question-answering-on-plotqa-d1-1 | MatCha | 1:1 Accuracy: 92.3 |
| visual-question-answering-on-plotqa-d2-1 | MatCha | 1:1 Accuracy: 90.7 |
| visual-question-answering-vqa-on | MatCha | ANLS: 37.2 |