
摘要
持续学习命名实体识别(CL-NER)旨在从数据流中随着时间的推移学习越来越多的实体类型。然而,简单地以与其他新实体类型相同的方式学习其他类(Other-Class)会加剧灾难性遗忘,并导致性能显著下降。造成这一现象的主要原因是其他类样本通常包含旧的实体类型,而这些其他类样本中的旧知识未能得到妥善保存。借助因果推理,我们发现遗忘是由旧数据中缺失的因果效应引起的。为此,我们提出了一种统一的因果框架,用于从新实体类型和其他类中检索因果关系。此外,我们应用了课程学习来减轻标签噪声的影响,并引入了一个自适应权重以平衡新实体类型与其他类之间的因果效应。实验结果表明,在三个基准数据集上,我们的方法大幅优于现有最先进方法。此外,我们的方法可以与现有的最先进方法结合使用,以进一步提升CL-NER的性能。
代码仓库
zzz47zzz/CFNER
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| fg-1-pg-1-on-2010-i2b2-va | CFNER | F1 (macro): 0.3626 F1 (micro): 0.6273 |
| fg-1-pg-1-on-conll2003 | CFNER | F1 (macro): 0.7911 F1 (micro): 0.8091 |
| fg-1-pg-1-on-ontonotes-5-0 | CFNER | F1 (macro): 0.4222 F1 (micro): 0.5894 |