
摘要
双向长短期记忆网络(BiLSTM)已被广泛用作解决命名实体识别(NER)任务模型中的编码器。近年来,由于具备并行计算能力以及优异的性能表现,Transformer架构在各类自然语言处理(NLP)任务中得到了广泛应用。然而,Transformer在NER任务中的表现相较于其在其他NLP任务中的表现仍显不足。本文提出TENER,一种采用改进型Transformer编码器的NER架构,用于建模字符级特征与词级特征。通过引入具备方向感知与相对距离感知的注意力机制,以及无缩放注意力机制,我们证明了经过适配的Transformer编码器在NER任务中的表现可与在其他NLP任务中相当,具备同等有效性。
代码仓库
jaykay233/TF2.0-TENER
tf
GitHub 中提及
fastnlp/TENER
官方
pytorch
GitHub 中提及
GeremWD/dlnlp_project
pytorch
GitHub 中提及
qq547276542/TF_adapting_transformer
tf
GitHub 中提及
HIT-SCIR/ltp
pytorch
GitHub 中提及
dhiraa/tener
tf
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| chinese-named-entity-recognition-on-msra | TENER | F1: 92.74 |
| chinese-named-entity-recognition-on-resume | TENER | F1: 95 |
| chinese-named-entity-recognition-on-weibo-ner | TENER | F1: 58.17 |
| named-entity-recognition-ner-on-conll-2003 | TENER | F1: 92.62 |