
摘要
实体提及通常可以递归地包含其他提及。本文介绍了一种可扩展的基于转换的方法来建模提及的嵌套结构。我们首先将带有嵌套提及的句子映射到一个指定的森林结构,其中每个提及对应森林中的一个成分。然后,我们的基于移进-归约(shift-reduce)的系统通过一个动作序列自底向上地学习构建该森林结构,该动作序列的最大长度保证为句子长度的三倍。基于堆栈LSTM(Stack-LSTM),该方法能够高效且有效地在连续空间中表示系统的状态,我们的系统进一步结合了一个基于字符的组件以捕捉字母级别的模式。我们的模型在ACE数据集上取得了最先进的结果,表明其在检测嵌套提及方面的有效性。
代码仓库
berlino/nest-trans-em18
官方
pytorch
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| named-entity-recognition-on-ace-2004 | Neural transition-based model | F1: 73.3 Multi-Task Supervision: n |
| named-entity-recognition-on-ace-2005 | Neural transition-based model | F1: 73.0 |
| named-entity-recognition-on-genia | Neural transition-based model | F1: 73.9 |
| nested-mention-recognition-on-ace-2004 | Neural transition-based model | F1: 73.1 |
| nested-mention-recognition-on-ace-2005 | Neural transition-based model | F1: 73.0 |
| nested-named-entity-recognition-on-ace-2004 | Neural transition-based model | F1: 73.3 |
| nested-named-entity-recognition-on-ace-2005 | neural transition-based model | F1: 73.0 |
| nested-named-entity-recognition-on-genia | Neural transition-based model | F1: 73.9 |
| nested-named-entity-recognition-on-nne | Neural Transition-based Model | Micro F1: 73.6 |