
摘要
近年来,自然语言处理(NLP)领域发生了一场范式转变,即广泛采用预训练语言模型(Pretrained Language Models, PLM)来应对各类任务。然而,在如何有效表示结构化信息(例如标注文本、共指链等)方面,仍存在诸多复杂的设计挑战,以确保这些结构能够被PLM充分捕捉。以往基于PLM的结构化预测方法通常将结构化输出展平为序列形式,这种处理方式限制了结构信息的学习质量,导致其性能相较于经典判别模型有所下降。在本研究中,我们提出一种新方法,通过自回归方式将结构建模为一系列动作序列,从而在不丢失结构内部依赖关系的前提下,实现对结构的精确建模。该方法在我们所考察的所有结构化预测任务上均取得了新的最先进性能,包括命名实体识别、端到端关系抽取以及共指消解。
代码仓库
lyutyuh/asp
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| coreference-resolution-on-conll-2012 | ASP+T0-3B | Avg F1: 82.3 |
| coreference-resolution-on-ontonotes | ASP+T0-3B | F1: 82.3 |
| named-entity-recognition-ner-on-conll-2003 | ASP+flan-T5-large | F1: 93.8 |
| named-entity-recognition-ner-on-conll-2003 | ASP+T5-3B | F1: 94.1 |
| relation-extraction-on-ace-2005 | ASP+T5-3B | Cross Sentence: Yes NER Micro F1: 91.3 RE Micro F1: 72.7 RE+ Micro F1: 70.5 Sentence Encoder: T5-3B |
| relation-extraction-on-conll04 | ASP+T0-3B | NER Micro F1: 90.3 RE+ Micro F1: 76.3 |