
摘要
多模态命名实体识别(NER)和关系抽取(RE)旨在利用相关的图像信息来提高NER和RE的性能。现有的大多数研究主要集中在直接从图像中提取潜在有用的信息(如像素级特征、识别的对象和相关标题)。然而,这些提取过程可能缺乏知识感知能力,导致提取出的信息不一定具有高度相关性。在本文中,我们提出了一种新颖的多模态检索框架(MoRe)。MoRe 包含一个文本检索模块和一个基于图像的检索模块,分别用于在知识库中检索输入文本和图像的相关知识。接下来,检索结果分别被发送到文本模型和视觉模型进行预测。最后,通过一个专家混合(Mixture of Experts, MoE)模块将两个模型的预测结果结合起来,做出最终决策。我们的实验表明,无论是文本模型还是视觉模型,在四个多模态NER数据集和一个多模态RE数据集上都能达到最先进的性能。借助MoE模块,模型性能可以进一步提升,我们的分析也证明了在这种任务中整合文本和视觉线索的好处。
代码仓库
modelscope/adaseq
官方
pytorch
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| multi-modal-named-entity-recognition-on | BERT-CRF | F1: 77.04 |
| multi-modal-named-entity-recognition-on | MoRe-Text | F1: 77.91 |
| multi-modal-named-entity-recognition-on | MoRe-MoE | F1: 79.21 |
| multi-modal-named-entity-recognition-on | MoRe-Image | F1: 78.13 |
| multi-modal-named-entity-recognition-on-1 | MoRe-MoE | F1: 90.67 |
| multi-modal-named-entity-recognition-on-2 | MoRe-MoE | F1: 79.33 |
| multi-modal-named-entity-recognition-on-2 | BERT-CRF | F1: 76.58 |
| multi-modal-named-entity-recognition-on-2 | MoRe-Image | F1: 77.46 |
| multi-modal-named-entity-recognition-on-2 | MoRe-Text | F1: 77.97 |
| multi-modal-named-entity-recognition-on-3 | MoRe-MoE | F1: 90.67 |
| multi-modal-named-entity-recognition-on-snap | BERT-CRF | F1: 89.65 |
| multi-modal-named-entity-recognition-on-snap | MoRe-Text | F1: 90.09 |
| multi-modal-named-entity-recognition-on-snap | MoRe-MoE | F1: 91.10 |
| multi-modal-named-entity-recognition-on-snap | MoRe-Image | F1: 90.20 |