
摘要
现有的实体类型系统通常利用知识库(KB)模式提供的类型层次结构来建模标签相关性,从而提高整体性能。然而,这些技术并不直接适用于类型集不受知识库模式限制且包含大量自由形式类型的更为开放和实际的场景。为了在没有手动标注的标签结构的情况下建模底层标签相关性,我们引入了一种新的标签关系归纳偏置,通过图传播层有效地编码全局标签共现统计信息和词级相似性。在包含超过10,000个自由形式类型的大型数据集中,配备基于注意力匹配模块的图增强模型能够在保持高精度的同时显著提高召回率。具体而言,该模型实现了相对F1分数15.3%的提升,并且输出结果中的不一致性也有所减少。我们进一步证明,对所提出的图层进行简单的修改也可以提高仅包含知识库模式类型的传统广泛测试数据集上的性能。
代码仓库
xwhan/Extremely-Fine-Grained-Entity-Typing
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| entity-typing-on-ontonotes-v5-english | LabelGCN Xiong et al. (2019) | F1: 36.9 Precision: 50.3 Recall: 29.2 |
| entity-typing-on-open-entity-1 | LabelGCN | F1: 36.9 |