Manoj Prabhakar Kannan RaviKuldeep SinghIsaiah Onando Mulang'Saeedeh ShekarpourJohannes HoffartJens Lehmann

摘要
本文提出了一种名为CHOLAN的模块化方法,用于在知识库上实现端到端的实体链接(Entity Linking, EL)。CHOLAN由两个基于Transformer的模型串联构成,形成一个处理流水线。第一个Transformer模型负责在给定文本中识别实体提及(即表面形式)。针对每一个识别出的提及,第二个Transformer模型会从预定义的候选实体列表中进行分类,以确定其对应的目标实体。该第二阶段模型在输入时融合了来自句子的局部上下文(即局部语境)以及从维基百科获取的实体描述信息。这种外部上下文信息在现有主流实体链接方法中尚未被采用。我们在两个知名知识库(即Wikidata和Wikipedia)上进行了实证研究。实验结果表明,CHOLAN在多个标准数据集(包括CoNLL-AIDA、MSNBC、AQUAINT、ACE2004和T-REx)上均优于当前最先进的方法。
代码仓库
ManojPrabhakar/CHOLAN
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| entity-linking-on-aida-conll | Kannan Ravi et al. (2021) | Micro-F1 strong: 83.1 |
| entity-linking-on-msnbc-1 | Kannan Ravi et al. (2021) | Micro-F1: 83.4 |