
摘要
近日,神经网络方法在多种语言的命名实体识别(NER)任务中取得了最先进的(SOTA)结果,而无需手动设计特征。然而,这些模型仍然需要手动标注的训练数据,而许多语言缺乏此类数据。本文提出了一种无监督的跨语言NER模型,该模型能够在完全无监督的情况下将一种语言中的NER知识迁移到另一种语言中,且不依赖任何双语词典或平行数据。我们的模型通过词级别的对抗学习以及参数共享和特征增强的增广微调来实现这一目标。在五种不同语言上的实验表明了我们方法的有效性,其性能显著优于现有模型,并为每一对语言设定了新的SOTA。
代码仓库
ntunlp/Zero-Shot-Cross-Lingual-NER
官方
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| low-resource-named-entity-recognition-on-4 | Zero-Resource Transfer From CoNLL-2003 English dataset. | F1 score: 65.24 |
| low-resource-named-entity-recognition-on-5 | Zero-Resource Cross-lingual Transfer From CoNLL-2003 English dataset. | F1 score: 75.93 |
| low-resource-named-entity-recognition-on-6 | Zero-Resource Transfer From CoNLL-2003 English dataset. | F1 score: 74.61 |