
摘要
命名实体识别(Named Entity Recognition, NER)对句子的句法与语义特征高度敏感,实体的识别往往依赖于其在文本中的使用方式及上下文位置。为建模此类特性,可借助现有资源所提供的知识以增强NER任务的表现;已有研究证实了利用此类知识的有效性,但其在合理利用知识方面仍存在局限,例如难以区分特定上下文中更具重要性的知识。本文提出一种通过注意力集成机制融合多种句法信息的NER方法,该方法基于所提出的键值记忆网络(key-value memory networks)、句法注意力机制以及门控机制,分别实现句法信息的编码、加权与聚合。在六个英文与中文基准数据集上的实验结果表明,所提模型具有显著有效性,并在所有测试数据集上均优于以往方法。
代码仓库
cuhksz-nlp/AESINER
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| chinese-named-entity-recognition-on-ontonotes | AESINER | F1: 81.18 |
| chinese-named-entity-recognition-on-resume | AESINER | F1: 96.62 |
| chinese-named-entity-recognition-on-weibo-ner | AESINER | F1: 69.78 |
| named-entity-recognition-ner-on-ontonotes-v5 | AESINER | F1: 90.32 |
| named-entity-recognition-on-wnut-2016 | AESINER | F1: 55.14 |
| named-entity-recognition-on-wnut-2017 | AESINER | F1: 50.68 |