4 个月前

LayoutXLM:面向多语言视觉丰富文档理解的多模态预训练模型

LayoutXLM:面向多语言视觉丰富文档理解的多模态预训练模型

摘要

多模态预训练结合文本、布局和图像在近期的视觉丰富文档理解任务中取得了最先进的性能,这表明跨不同模态的联合学习具有巨大的潜力。本文介绍了LayoutXLM,一种用于多语言文档理解的多模态预训练模型,旨在克服视觉丰富文档理解中的语言障碍。为了准确评估LayoutXLM,我们还引入了一个名为XFUND的多语言表单理解基准数据集,该数据集包含7种语言(中文、日文、西班牙语、法语、意大利语、德语、葡萄牙语)的表单理解样本,并且每种语言的关键值对都进行了人工标注。实验结果表明,LayoutXLM模型在XFUND数据集上的表现显著优于现有的最先进的跨语言预训练模型。预训练的LayoutXLM模型和XFUND数据集已公开发布,可访问 https://aka.ms/layoutxlm 获取。

基准测试

基准方法指标
document-image-classification-on-rvl-cdipLayoutXLM
Accuracy: 95.21%
key-value-pair-extraction-on-rfund-enLayoutXLM_base
key-value pair F1: 53.98
key-value-pair-extraction-on-sibrLayoutXLM
key-value pair F1: 70.45

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
LayoutXLM:面向多语言视觉丰富文档理解的多模态预训练模型 | 论文 | HyperAI超神经